.@athamzafarooq na temat tego, dlaczego inżynieria kontekstu jest teraz ważniejsza niż inżynieria podpowiedzi Większość menedżerów AI koncentruje się na inżynierii podpowiedzi — pisaniu lepszych instrukcji, aby uzyskać lepsze wyniki. Ale to działa tylko w przypadku ogólnych odpowiedzi. W momencie, gdy potrzebujesz personalizacji, inżynieria podpowiedzi się załamuje. Weźmy pod uwagę agenta finansowego. Jeden użytkownik chce konserwatywnych inwestycji w S&P 500. Inny chce wysokiego ryzyka w handlu kryptowalutami. Jak ten sam LLM może dać obu użytkownikom odpowiednie porady? Inżynieria kontekstu rozwiązuje to, nakładając wiele źródeł informacji: podpowiedzi systemowe, podpowiedzi użytkowników, długoterminową pamięć z przeszłych interakcji oraz odpowiednie dane pobrane z RAG. "Inżynieria podpowiedzi to to, co mówisz LLM. Inżynieria kontekstu to sposób, w jaki projektujesz instrukcje dla swojego LLM. To jest piękno posiadania wiedzy o inżynierii kontekstu, ponieważ sprawia, że cały twój ekosystem tańczy." Dostosowywanie działa inaczej — to adaptacja do zadań. Trenujesz LLM na tysiącach przykładów, aby specjalizować go w konkretnych wynikach, takich jak generowanie kodu Python lub rozumienie słownictwa branży farmaceutycznej. Lekcja: Inżynieria kontekstu jest teraz ważniejsza niż inżynieria podpowiedzi, ponieważ nowoczesne produkty AI wymagają personalizacji na dużą skalę. Musisz jednocześnie orkiestracji pamięci, pobierania i podpowiedzi, aby dostarczyć odpowiednie odpowiedzi dla każdego użytkownika.