Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
.@athamzafarooq na temat tego, dlaczego PM-owie AI muszą myśleć poza inżynierią promptów
Większość PM-ów AI koncentruje się na inżynierii promptów — pisaniu lepszych instrukcji, aby uzyskać lepsze wyniki.
Ale to tylko połowa równania.
Prawdziwe wyzwanie to inżynieria kontekstu: jak upewnić się, że dwaj różni użytkownicy otrzymują spersonalizowane, odpowiednie odpowiedzi z tego samego LLM?
Rozwiązanie składa się z wielu komponentów: systemowych promptów, promptów użytkowników, pamięci z przeszłych interakcji oraz odpowiednich informacji pozyskiwanych przez RAG.
"Akash chce zainwestować w S&P 500. Ja jestem inną osobą, zamierzam zainwestować w kryptowaluty. Jak upewnić się, że Ty otrzymujesz właściwe informacje, a ja otrzymuję właściwe informacje? To jest miejsce, w którym inżynieria kontekstu odgrywa rolę."
Kiedy odpowiednio połączysz te elementy, przechodzisz od ogólnego czatu do spersonalizowanego doświadczenia AI.
Lekcja: Inżynieria promptów to to, co mówisz LLM. Inżynieria kontekstu to sposób, w jaki projektujesz kompletny zestaw instrukcji — w tym pamięć, pozyskiwanie i personalizację — który sprawia, że Twój produkt AI wydaje się naprawdę rozumieć każdego użytkownika.
Najlepsze
Ranking
Ulubione

