Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
🔥 Não acredito que isso existe... alguém finalmente escreveu o manual secreto que toda startup de agente de IA tem fingido.
Uma equipe de pesquisa acabou de publicar "Um Guia Prático para Projetar, Desenvolver e Implantar Fluxos de Trabalho de IA Agentique de Grau de Produção" e basicamente é o manual interno que as pessoas *acham* que OpenAI e Anthropic usam.
Não é um exagero.
Não diagramas com setas fofas.
Um verdadeiro projeto de engenharia para agentes que não colapsam no momento em que você sai do sandbox de demonstração.
Aqui está o que torna tudo insano 👇
1 / Eles começam expondo por que a maioria dos agentes implode
Nunca é o modelo.
É o sistema ao redor dele:
• roteamento de ferramentas não determinístico
• falhas silenciosas do MCP
• agentes improvisando ordens de execução
• fluxos de trabalho que produzem resultados diferentes a cada execução
Eles mostram traços brutos de falha — registros reais de agentes falhando, fazendo looping ou alucinando ferramentas.
Parece uma autópsia de cada demonstração de "funcionário autônomo de IA".
2 / Eles reconstroem toda a pilha em torno do determinismo
Cada chamada de ferramenta se torna uma função tipada.
Todo caminho de execução é rejogável.
Cada etapa é determinística.
Se o sistema não consegue produzir a mesma saída duas vezes, não é de qualidade de produção.
Essa regra sozinha elimina metade do caos que as pessoas confundem com "emergência".
3 / Eles fazem cumprir agentes de responsabilidade única
Nenhum mega-agente com 12 personalidades.
Em vez de:
•Planejador
• agente de raciocínio
• executor de ferramentas
• validador
•sintetizador
Cada um com limites rígidos.
Sem ferramentas alucinadas.
Sem raciocínio misto.
Nada de trabalho freelancer.
Isso é engenharia backend, não interpretação de papéis.
4 / Eles externalizam todo prompt como uma configuração real
Prompts não são mais sequências ocultas — eles são:
• controle de versão
•Auditável
• diffável
• recarregável
Isso cria um comportamento estável e previne regressões invisíveis.
5 / Eles administram um consórcio-modelo com um adjudicador
GPT + Claude + Gêmeos não são intercambiáveis.
Eles são colaboradores.
Cada um produz um rascunho.
Um agente raciocínio as funde, resolve contradições e produz um resultado unificado.
Debate estruturado, não roleta de modelos.
6 / Eles desacoplam o motor de fluxo de trabalho da camada MCP
Eles se separam:
•orquestração
• acesso à ferramenta
•Tentativas
• exames de saúde
•Escala
•Observabilidade
Resultado: um sistema de agentes que se comporta como microserviços, não como uma macro de chat com fita adesiva.
7 / Então eles provam tudo com um pipeline real de produção
Uma análise completa de notícias ➝ ➝ script ➝ raciocínio ➝ áudio ➝ vídeo ➝ Sistema de PR do GitHub.
Diagramas completos.
Traços completos.
Fracassos reais.
Soluções reais.
É o mais próximo que esse campo tem de uma arquitetura canônica para agentes que sobrevivem a cargas reais.
Se a pilha do seu agente não tiver:
• fluxos de trabalho determinísticos
• responsabilidades isoladas
• prompts externalizados
• arbitragem multimodelo
• infra adequado
• observabilidade total
… Você não está construindo agentes.
Você está montando demos.
Este guia é o primeiro verdadeiro plano para sistemas de IA de produção e eleva o padrão para todos.

17,64K
Caramba... Este artigo pode ser a mudança mais importante na forma como usamos LLMs durante todo o ano.
"Grandes Modelos Causais a partir de Grandes Modelos de Linguagem."
Mostra que você pode desenvolver modelos causais completos diretamente de um LLM, não aproximações, nem gráficos causais reais, contrafactuais, intervenções e estruturas com restrições.
E a forma como eles fazem isso é impressionante:
Em vez de treinar um modelo causal especializado, eles interrogam o LLM como um cientista:
→ extrair um grafo causal candidato do texto
→ pedir ao modelo para verificar as dependências condicionais
→ detectar contradições
→ revisar a estrutura
→ testar previsões contrafactuais e intervencionistas
→ iterar até que o modelo causal se estabilize
O resultado é algo que nunca tivemos antes:
um sistema causal construído dentro do LLM usando seu próprio conhecimento latente do mundo.
Em domínios sintéticos, reais e complexos em benchmarks, esses LCMs superam os métodos clássicos de descoberta causal porque eles se baseiam no enorme conhecimento prévio do LLM, em vez de apenas correlações locais.
E o raciocínio contrafactual?
Surpreendentemente forte.
O modelo pode responder perguntas do tipo "e se" que algoritmos padrão falham completamente, simplesmente porque ele já "sabe" coisas sobre o mundo que esses algoritmos não conseguem inferir apenas com dados.
Este artigo sugere um futuro em que os LLMs não são apenas máquinas de padrões.
Eles se tornam sistemas de motores causais que formam, testam e refinam explicações estruturais da realidade.
Se isso crescer, todo campo que depende da economia da inferência causal, medicina, políticas e ciência está prestes a ser reescrito.
LLMs não vão simplesmente dizer o que acontece.
Eles vão te dizer o motivo.

41,99K
Ninguém está pronto para o que este artigo de Stanford revela sobre a IA multiagente.
"Latent Collaboration in Multi-Agent Systems" mostra que agentes não precisam de mensagens, protocolos ou instruções explícitas de trabalho em equipe. Eles começam a coordenar dentro de suas próprias representações ocultas uma camada completa de colaboração que existe apenas no espaço latente.
E os comportamentos são insanos:
• Agentes passam tarefas silenciosamente com base em quem é melhor
• Papéis surgem do nada: líder, executor, apoiador
• Políticas codificam sinais que nunca aparecem em ações
• Equipes se adaptam a novos ambientes sem necessidade de requalificação
• A colaboração permanece estável mesmo quando a comunicação é impossível
O detalhe mais louco:
Mesmo quando você remove todos os canais de comunicação, os agentes ainda cooperam. O "trabalho em equipe" não está presente nas mensagens. Ele está na rede.
Isso vira todo o manual do multi-agente.
Estamos construindo mecanismos de coordenação em cima...
Enquanto a coordenação real acontece por baixo.
Uma nova era de inteligência de equipes emergentes está se desenrolando — e isso acontece nos lugares onde nem sequer estávamos olhando.
Projeto: github. com/Gen-Verse/LatentMAS

138,39K
Melhores
Classificação
Favoritos
