Os agentes parecem mágicos em uma demonstração. eles entram em colapso na produção. A razão é simples: eles não conseguem se lembrar, não conseguem aterrar e não conseguem se adaptar quando o fluxo de trabalho se desvia. As pessoas estão jogando tudo no problema: blocos de rascunho, troncos de árvores, gráficos de conhecimento aparafusados. a maior parte é fita adesiva. Mas agora está claro: memória e contexto são o fosso. Os gráficos de conhecimento não são novos. Eles começaram no final dos anos noventa, tornaram-se populares quando o Google criou a sua própria marca em 2012 e têm impulsionado silenciosamente a pesquisa, os anúncios, o comércio eletrônico e a detecção de fraudes desde então. Fora da Big Tech, eles nunca se destacaram, pois eram muito caros para construir, muito difíceis de manter atualizados, muito dependentes de especialistas. Agora a equação mudou. Os modelos de linguagem podem extrair entidades, mapear relacionamentos e manter gráficos atualizados em tempo real. De repente, os gráficos são menos sobrecarga acadêmica e mais base prática. Mas os gráficos não substituem a pesquisa entre incorporações. eles o complementam. O que funciona na produção é a recuperação híbrida: -Wide recall através de vetores: "mostre-me coisas assim" -raciocínio preciso através de gráficos: "mostre-me exatamente como essas coisas se conectam" -fundido pelo agente para fornecer amplitude e profundidade O que estamos vendo ao vivo: -agentes sem memória persistente se agitam após seis semanas. Os usuários não treinarão novamente todas as manhãs. -Os compradores não se importam com prompts inteligentes. Eles se preocupam com a confiança: a capacidade de avaliar, reverter, auditar e impor permissões antes que um agente execute uma ação. O que está funcionando: híbridos verticais. um agente financeiro baseado em contas, políticas e permissões. um agente de saúde baseado em códigos médicos, medicamentos e regras de conformidade. memória, contexto e confiança não são recursos. eles são infraestrutura.
42,91K