Jag har nobbat på ett koncept som jag skulle kalla en "kontextontologi" - mest för att jag önskar att jag hade en enda plats där jag kunde se var kontexten kommer ifrån och vilka uppmaningar de används i. användbart sammanhang för en LLM att generera ett svar eller vidta åtgärder kan inkludera saker som (1) mål på hög nivå, (2) aktuell uppgift / fokusområde, (3) sammanfattad information från relevanta tidigare uppgifter, (4) lärdomar från tidigare försök, etc. eftersom vi förväntar oss mer av våra agenter (längre uppgifter, mer komplicerade projekt, etc.), blir det råa minnet snabbt tokentungt och bullrigt, vilket minskar kvaliteten på LLM-utdata. de flesta komplexa ai-appar har någon form av sammanfattad kontext (skulle jag anta) och flera kontextkällor. Tanken här är att definiera en ontologi för vilken kontext du lagrar*, hur du strukturerar den och vad som ska hämtas för varje prompt i systemet. *Med butik menar jag inte nödvändigtvis i AI:ns DB. Till exempel känns det mer holistiskt att betrakta den data som lagras i en app som en del av AI:ns minne (t.ex. API/MCP-anslutning). Kanske borde denna ontologi specificera detta också. Om du tar det ett steg längre kan du göra detta till en dynamisk ontologi som en AI kan hantera och testa, och sedan placera den i en RL-miljö så att agenter kan förbättra kontexthanteringen (hypotetiskt) Osäker på om sammanfattningsstrategin ska gå in här men är vettig på en hög nivå. knepigare eftersom de flesta sammanfattar information vid intag så att du måste sammanfatta tidigare intag varje gång du ändrar det (för att testa ändringar och självförbättring) - men jag antar att detta problem kvarstår oavsett. Jag tror inte att något här är särskilt nytt. Tänker bara högt när jag försöker skapa ett ramverk internt för att kartlägga olika strategier jag har sett.
12,33K