estive a pensar num conceito que chamaria de "ontologia de contexto" - principalmente porque gostaria de ter um único lugar onde pudesse ver de onde vem o contexto e em quais prompts ele é utilizado. um contexto útil para um LLM gerar uma resposta ou tomar uma ação pode incluir coisas como (1) objetivo de alto nível, (2) tarefa/área de foco atual, (3) informações resumidas de tarefas passadas relevantes, (4) aprendizados de tentativas anteriores, etc. à medida que esperamos mais de nossos agentes (tarefas mais longas, projetos mais complicados, etc), a memória bruta rapidamente se torna pesada em tokens e barulhenta, o que reduz a qualidade da saída do LLM. a maioria dos aplicativos de IA complexos tem algum tipo de contexto resumido (eu assumiria), e múltiplas fontes de contexto. a ideia aqui é definir uma ontologia para o que você armazena*, como estruturá-la e o que recuperar para cada prompt em seu sistema. *por armazenar, não quero dizer necessariamente no banco de dados da IA. na minha opinião, parece mais holístico considerar os dados armazenados em qualquer aplicativo como parte da memória da IA (por exemplo, conexão API/MCP). talvez essa ontologia deva especificar isso também. levando isso um passo adiante, você poderia tornar isso uma ontologia dinâmica que uma IA pode gerenciar e testar, e então colocá-la em um ambiente de RL para que os agentes melhorem a gestão de contexto (hipoteticamente) não tenho certeza se a estratégia de sumarização deveria entrar aqui, mas faz sentido em um nível alto. mais complicado, já que a maioria das pessoas resume informações ao ingeri-las, então você teria que resumir novamente as ingestações anteriores toda vez que mudasse (para testar mudanças e autoaperfeiçoamento) - mas eu suponho que esse problema persista independentemente. não acho que nada aqui seja particularmente novo. apenas pensando em voz alta enquanto tento criar alguma estrutura internamente para mapear várias estratégias que vi.
12,32K