.@athamzafarooq na temat tego, dlaczego PM-owie AI muszą myśleć poza inżynierią promptów Większość PM-ów AI koncentruje się na inżynierii promptów — pisaniu lepszych instrukcji, aby uzyskać lepsze wyniki. Ale to tylko połowa równania. Prawdziwe wyzwanie to inżynieria kontekstu: jak upewnić się, że dwaj różni użytkownicy otrzymują spersonalizowane, odpowiednie odpowiedzi z tego samego LLM? Rozwiązanie składa się z wielu komponentów: systemowych promptów, promptów użytkowników, pamięci z przeszłych interakcji oraz odpowiednich informacji pozyskiwanych przez RAG. "Akash chce zainwestować w S&P 500. Ja jestem inną osobą, zamierzam zainwestować w kryptowaluty. Jak upewnić się, że Ty otrzymujesz właściwe informacje, a ja otrzymuję właściwe informacje? To jest miejsce, w którym inżynieria kontekstu odgrywa rolę." Kiedy odpowiednio połączysz te elementy, przechodzisz od ogólnego czatu do spersonalizowanego doświadczenia AI. Lekcja: Inżynieria promptów to to, co mówisz LLM. Inżynieria kontekstu to sposób, w jaki projektujesz kompletny zestaw instrukcji — w tym pamięć, pozyskiwanie i personalizację — który sprawia, że Twój produkt AI wydaje się naprawdę rozumieć każdego użytkownika.