Olen miettinyt käsitettä, jota kutsuisin "kontekstiontologiaksi" - lähinnä siksi, että toivon, että minulla olisi yksi paikka, josta voisin nähdä, mistä konteksti tulee ja missä kehotteissa niitä käytetään. hyödyllinen konteksti LLM:lle vastauksen luomiseen tai toimintaan ryhtymiseen voi sisältää esimerkiksi (1) korkean tason tavoitteen, (2) nykyisen tehtävän/painopistealueen, (3) tiivistetyt tiedot asiaankuuluvista aiemmista tehtävistä, (4) aiemmista yrityksistä saadut opit jne. kun odotamme agenteiltamme enemmän (pidempiä tehtäviä, monimutkaisempia projekteja jne.), raakamuistista tulee nopeasti token-raskas ja meluisa, mikä heikentää LLM-tulosteen laatua. Useimmilla monimutkaisilla tekoälysovelluksilla on jonkinlainen tiivistetty konteksti (olettaisin) ja useita kontekstilähteitä. Ajatuksena on määritellä ontologia sille, mihin kontekstiin tallennat*, miten se rakennetaan ja mitä haetaan kullekin järjestelmän kehotteelle. *Myymälällä en välttämättä tarkoita tekoälyn tietokantaa. Impo, tuntuu kokonaisvaltaisemmalta pitää mihin tahansa sovellukseen tallennettua dataa osana tekoälyn muistia (esim. API/MCP-yhteys). Ehkä tämän ontologian pitäisi täsmentää myös tämä. Jos viet sen askeleen pidemmälle, voit tehdä tästä dynaamisen ontologian, jota tekoäly voi hallita ja testata, ja sitten kiinnittää sen RL-ympäristöön, jotta agentit voivat parantaa kontekstinhallintaa (hypoteettisesti) En ole varma, pitäisikö yhteenvetostrategian mennä tähän, mutta se on järkevää korkealla tasolla. hankalampaa, koska useimmat ihmiset tekevät yhteenvedon tiedoista nieltyään, joten sinun on tehtävä yhteenveto aiemmista nielemisistä joka kerta, kun muutat sitä (muutosten testaamiseksi ja itsensä kehittämiseksi) - mutta luulen, että tämä ongelma jatkuu siitä huolimatta. En usko, että mikään tässä on erityisen uutta. Ajattelen vain ääneen, kun yritän luoda sisäisiä puitteita erilaisten näkemieni strategioiden kartoittamiseksi.
12,32K