Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
🔥 Não consigo acreditar que isto existe… alguém finalmente escreveu o manual secreto que todas as startups de agentes de IA têm fingido.
Uma equipe de pesquisa acaba de lançar "Um Guia Prático para Projetar, Desenvolver e Implantar Fluxos de Trabalho de IA Agente de Grau de Produção" e é basicamente o manual interno que as pessoas *pensam* que a OpenAI e a Anthropic usam.
Não é hype.
Não são diagramas com setas fofas.
É um verdadeiro plano de engenharia para agentes que não colapsam no momento em que você sai do sandbox de demonstração.
Aqui está o que o torna insano 👇
1 / Eles começam expondo por que a maioria dos agentes implode
Nunca é o modelo.
É o sistema ao redor dele:
• roteamento de ferramentas não determinístico
• falhas silenciosas de MCP
• agentes improvisando a ordem de execução
• fluxos de trabalho produzindo resultados diferentes a cada execução
Eles mostram rastros de falha brutos — logs reais de agentes falhando, em loop ou alucinado ferramentas.
Lê-se como uma autópsia de cada demonstração de "funcionário de IA autônomo".
2 / Eles reconstroem toda a pilha em torno do determinismo
Cada chamada de ferramenta se torna uma função tipada.
Cada caminho de execução é reproduzível.
Cada passo é determinístico.
Se o sistema não consegue produzir a mesma saída duas vezes, não é de grau de produção.
Esta regra sozinha elimina metade do caos que as pessoas confundem com "emergência".
3 / Eles impõem agentes de responsabilidade única
Nada de mega-agente com 12 personalidades.
Em vez disso:
• planejador
• agente de raciocínio
• executor de ferramentas
• validador
• sintetizador
Cada um com limites rigorosos.
Sem ferramentas alucinatórias.
Sem raciocínio de tarefas misturadas.
Sem freelancing.
Isto é engenharia de backend, não interpretação de papéis.
4 / Eles externalizam cada prompt como uma configuração real
Os prompts não são mais strings ocultas — eles são:
• versionados
• auditáveis
• comparáveis
• recarregáveis
Isto cria um comportamento estável e previne regressões invisíveis.
5 / Eles executam um consórcio de modelos com um adjudicador
GPT + Claude + Gemini não são intercambiáveis.
Eles são colaboradores.
Cada um produz um rascunho.
Um agente de raciocínio os funde, resolve contradições e produz um resultado unificado.
Debate estruturado, não roleta de modelos.
6 / Eles desacoplam o motor de fluxo de trabalho da camada MCP
Eles separam:
• orquestração
• acesso a ferramentas
• tentativas
• verificações de saúde
• escalabilidade
• observabilidade
Resultado: um sistema de agentes que se comporta como microserviços, não como um macro de chat improvisado.
7 / Então eles provam tudo com um pipeline de produção real
Um sistema completo de notícias ➝ análise ➝ script ➝ raciocínio ➝ áudio ➝ vídeo ➝ PR do GitHub.
Diagramas completos.
Rastros completos.
Falhas reais.
Correções reais.
É a coisa mais próxima que este campo tem de uma arquitetura canônica para agentes que sobrevivem à carga do mundo real.
Se sua pilha de agentes não tem:
• fluxos de trabalho determinísticos
• responsabilidades isoladas
• prompts externalizados
• arbitragem multi-modelo
• infraestrutura adequada
• total observabilidade
…você não está construindo agentes.
Você está construindo demonstrações.
Este guia é o primeiro verdadeiro plano para sistemas de IA de produção e ele eleva o padrão para todos.

24,88K
Caramba… este artigo pode ser a mudança mais importante na forma como usamos LLMs este ano inteiro.
"Modelos Causais Grandes a partir de Modelos de Linguagem Grandes."
Ele mostra que é possível crescer modelos causais completos diretamente de um LLM, não aproximações, não vibrações, gráficos causais reais, contrafactuais, intervenções e estruturas verificadas por restrições.
E a forma como eles fazem isso é incrível:
Em vez de treinar um modelo causal especializado, eles interrogam o LLM como um cientista:
→ extrair um gráfico causal candidato do texto
→ pedir ao modelo para verificar independências condicionais
→ detectar contradições
→ revisar a estrutura
→ testar contrafactuais e previsões intervencionais
→ iterar até que o modelo causal se estabilize
O resultado é algo que nunca tivemos antes:
um sistema causal construído dentro do LLM usando seu próprio conhecimento latente do mundo.
Através de benchmarks sintéticos, do mundo real, domínios bagunçados, esses LCMs superam métodos clássicos de descoberta causal porque se baseiam no enorme conhecimento prévio do LLM em vez de apenas correlações locais.
E o raciocínio contrafactual?
Surpreendentemente forte.
O modelo pode responder a perguntas de "e se" que algoritmos padrão falham completamente, simplesmente porque já "sabe" coisas sobre o mundo que esses algoritmos não conseguem inferir apenas a partir dos dados.
Este artigo sugere um futuro onde os LLMs não são apenas máquinas de padrões.
Eles se tornam motores causais, sistemas que formam, testam e refinam explicações estruturais da realidade.
Se isso escalar, cada campo que depende de inferência causal - economia, medicina, política, ciência - está prestes a ser reescrito.
Os LLMs não vão apenas te dizer o que acontece.
Eles vão te dizer por que.

41,99K
Ninguém está preparado para o que este artigo de Stanford revela sobre IA multi-agente.
"Colaboração Latente em Sistemas Multi-Agentes" mostra que os agentes não precisam de mensagens, protocolos ou instruções explícitas de trabalho em equipe. Eles começam a coordenar dentro de suas próprias representações ocultas uma camada de colaboração que existe apenas no espaço latente.
E os comportamentos são insanos:
• Agentes silenciosamente transferem tarefas com base em quem é melhor
• Papéis aparecem do nada: líder, executor, apoiador
• Políticas codificam sinais que nunca aparecem nas ações
• Equipes se adaptam a novos ambientes sem re-treinamento
• A colaboração permanece estável mesmo quando a comunicação é impossível
O detalhe mais louco:
Mesmo quando você remove todos os canais de comunicação, os agentes ainda cooperam. O "trabalho em equipe" não vive em mensagens. Ele vive na rede.
Isso vira todo o manual de multi-agentes.
Temos construído mecanismos de coordenação por cima...
enquanto a verdadeira coordenação está acontecendo por baixo.
Uma nova era de inteligência de equipe emergente está se desenrolando — e está acontecendo nos lugares que nem estávamos olhando.
Projeto: github. com/Gen-Verse/LatentMAS

138,39K
Top
Classificação
Favoritos
