os agentes parecem mágicos numa demonstração. eles colapsam na produção. a razão é simples: eles não conseguem lembrar, não conseguem fundamentar e não conseguem adaptar-se quando o fluxo de trabalho desvia. as pessoas estão lançando tudo no problema: blocos de notas, troncos de árvore, gráficos de conhecimento anexados. a maior parte disso é fita adesiva. mas agora está claro: memória e contexto são o fosso. gráficos de conhecimento não são novos. começaram no final dos anos noventa, tornaram-se populares quando o google lançou o seu em 2012, e têm alimentado silenciosamente a busca, anúncios, comércio eletrônico e detecção de fraudes desde então. fora das grandes tecnologias, nunca conseguiram se destacar, pois eram muito caros para construir, muito difíceis de manter atualizados, e muito dependentes de especialistas. agora a equação mudou. modelos de linguagem podem extrair entidades, mapear relacionamentos e manter gráficos atualizados em tempo real. de repente, gráficos são menos uma sobrecarga acadêmica e mais uma fundamentação prática. mas gráficos não substituem a busca através de embeddings. eles a complementam. o que funciona na produção é a recuperação híbrida: -ampla recuperação através de vetores: “mostre-me coisas como esta” -razoamento preciso através de gráficos: “mostre-me exatamente como essas coisas se conectam” -fundido pelo agente para entregar tanto amplitude quanto profundidade o que estamos vendo ao vivo: -agentes sem memória persistente se esgotam após seis semanas. os usuários não vão re-treinar todas as manhãs. -os compradores não se importam com prompts inteligentes. eles se importam com confiança: a capacidade de avaliar, reverter, auditar e impor permissões antes que um agente tome uma ação. o que está funcionando: híbridos verticais. um agente financeiro fundamentado em contas, políticas e permissões. um agente de saúde fundamentado em códigos médicos, medicamentos e regras de conformidade. memória, contexto e confiança não são características. são infraestrutura.
41,41K