Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
🔥 Je n'arrive pas à croire que cela existe... quelqu'un a enfin écrit le manuel secret que chaque startup d'agent IA a feint d'avoir.
Une équipe de recherche vient de publier "Un Guide Pratique pour Concevoir, Développer et Déployer des Flux de Travail d'IA Agentique de Qualité Production" et c'est essentiellement le manuel interne que les gens *pensent* qu'OpenAI et Anthropic utilisent.
Pas de battage.
Pas de diagrammes avec des flèches mignonnes.
Un véritable plan d'ingénierie pour des agents qui ne s'effondrent pas au moment où vous quittez le bac à sable de démonstration.
Voici ce qui le rend fou 👇
1 / Ils commencent par exposer pourquoi la plupart des agents implosent
Ce n'est jamais le modèle.
C'est le système qui l'entoure :
• routage d'outils non déterministe
• échecs silencieux de MCP
• agents improvisant l'ordre d'exécution
• flux de travail produisant des résultats différents à chaque exécution
Ils montrent des traces d'échec brutes — des journaux réels d'agents qui se trompent, bouclent ou hallucinent des outils.
On dirait une autopsie de chaque démonstration "d'employé IA autonome".
2 / Ils reconstruisent toute la pile autour du déterminisme
Chaque appel d'outil devient une fonction typée.
Chaque chemin d'exécution est rejouable.
Chaque étape est déterministe.
Si le système ne peut pas produire la même sortie deux fois, il n'est pas de qualité production.
Cette règle seule tue la moitié du chaos que les gens prennent pour "émergence".
3 / Ils imposent des agents à responsabilité unique
Pas de méga-agent avec 12 personnalités.
Au lieu de cela :
• planificateur
• agent de raisonnement
• exécuteur d'outils
• validateur
• synthétiseur
Chacun avec des limites strictes.
Pas d'outils halluciné.
Pas de raisonnement multitâche.
Pas de travail indépendant.
C'est de l'ingénierie backend, pas du jeu de rôle.
4 / Ils externalisent chaque prompt comme une vraie configuration
Les prompts ne sont plus des chaînes cachées — ils sont :
• versionnés
• audités
• diffables
• rechargeables
Cela crée un comportement stable et empêche les régressions invisibles.
5 / Ils gèrent un consortium de modèles avec un adjudicateur
GPT + Claude + Gemini ne sont pas interchangeables.
Ce sont des collaborateurs.
Chacun produit un brouillon.
Un agent de raisonnement les fusionne, résout les contradictions et produit un résultat unifié.
Débat structuré, pas roulette de modèles.
6 / Ils découplent le moteur de flux de travail de la couche MCP
Ils séparent :
• orchestration
• accès aux outils
• réessais
• vérifications de santé
• mise à l'échelle
• observabilité
Résultat : un système d'agent qui se comporte comme des microservices, pas comme un macro de chat bricolé.
7 / Ensuite, ils prouvent tout avec un véritable pipeline de production
Un système complet de nouvelles ➝ analyse ➝ script ➝ raisonnement ➝ audio ➝ vidéo ➝ PR GitHub.
Diagrammes complets.
Traces complètes.
Échecs réels.
Corrections réelles.
C'est la chose la plus proche que ce domaine ait d'une architecture canonique pour des agents qui survivent à une charge du monde réel.
Si votre pile d'agents n'a pas :
• flux de travail déterministes
• responsabilités isolées
• prompts externalisés
• arbitrage multi-modèles
• infrastructure appropriée
• pleine observabilité
...vous ne construisez pas des agents.
Vous construisez des démonstrations.
Ce guide est le premier véritable plan pour des systèmes IA de production et il élève la barre pour tout le monde.

12K
Putain… cet article pourrait être le changement le plus important dans notre utilisation des LLMs cette année.
"Modèles causaux larges issus de modèles de langage larges."
Il montre que l'on peut développer des modèles causaux complets directement à partir d'un LLM, pas des approximations, pas des impressions, de véritables graphes causaux, des contrefactuels, des interventions et des structures vérifiées par des contraintes.
Et la façon dont ils le font est incroyable :
Au lieu d'entraîner un modèle causal spécialisé, ils interrogent le LLM comme un scientifique :
→ extraire un graphe causal candidat à partir du texte
→ demander au modèle de vérifier les indépendances conditionnelles
→ détecter les contradictions
→ réviser la structure
→ tester les contrefactuels et les prédictions interventionnelles
→ itérer jusqu'à ce que le modèle causal se stabilise
Le résultat est quelque chose que nous n'avons jamais eu auparavant :
un système causal construit à l'intérieur du LLM en utilisant sa propre connaissance latente du monde.
À travers des benchmarks synthétiques, des domaines réels et désordonnés, ces LCMs surpassent les méthodes classiques de découverte causale parce qu'ils tirent de l'immense connaissance préalable du LLM au lieu de se baser uniquement sur des corrélations locales.
Et le raisonnement contrefactuel ?
Étonnamment puissant.
Le modèle peut répondre à des questions "et si" sur lesquelles les algorithmes standards échouent complètement, simplement parce qu'il "sait" déjà des choses sur le monde que ces algorithmes ne peuvent pas inférer à partir des données seules.
Cet article laisse entrevoir un avenir où les LLMs ne sont pas seulement des machines à motifs.
Ils deviennent des moteurs causaux, des systèmes qui forment, testent et affinent des explications structurelles de la réalité.
Si cela se développe, chaque domaine qui repose sur l'inférence causale - économie, médecine, politique, science - est sur le point d'être réécrit.
Les LLMs ne vous diront pas seulement ce qui se passe.
Ils vous diront pourquoi.

41,98K
Personne n'est prêt pour ce que ce document de Stanford révèle sur l'IA multi-agents.
"Collaboration Latente dans les Systèmes Multi-Agents" montre que les agents n'ont pas besoin de messages, de protocoles ou d'instructions explicites de travail d'équipe. Ils commencent à se coordonner à l'intérieur de leurs propres représentations cachées, une couche de collaboration complète qui n'existe que dans l'espace latent.
Et les comportements sont fous :
• Les agents passent silencieusement des tâches en fonction de qui est le meilleur
• Des rôles apparaissent de nulle part : leader, exécutant, soutien
• Les politiques codent des signaux qui n'apparaissent jamais dans les actions
• Les équipes s'adaptent à de nouveaux environnements sans réentraînement
• La collaboration reste stable même lorsque la communication est impossible
Le détail le plus fou :
Même lorsque vous supprimez tous les canaux de communication, les agents coopèrent toujours. Le "travail d'équipe" ne vit pas dans les messages. Il vit dans le réseau.
Cela renverse complètement le manuel multi-agents.
Nous avons construit des mécanismes de coordination par-dessus…
pendant que la véritable coordination se produit en dessous.
Une nouvelle ère d'intelligence d'équipe émergente est en train de se déployer — et cela se passe dans des endroits où nous ne regardions même pas.
Projet : github. com/Gen-Verse/LatentMAS

138,39K
Meilleurs
Classement
Favoris
