Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
🔥 Ik kan niet geloven dat dit bestaat... iemand heeft eindelijk het geheime handboek geschreven dat elke AI-agent startup heeft gefaket.
Een onderzoeksteam heeft net "Een Praktische Gids voor het Ontwerpen, Ontwikkelen en Implementeren van Productieklare Agentic AI Workflows" uitgebracht en het is in wezen het interne handboek waarvan mensen *denken* dat OpenAI en Anthropic het gebruiken.
Geen hype.
Geen diagrammen met schattige pijlen.
Een echte engineering blauwdruk voor agents die niet instorten op het moment dat je de demo sandbox verlaat.
Hier is wat het krankzinnig maakt 👇
1 / Ze beginnen met blootleggen waarom de meeste agents imploderen
Het ligt nooit aan het model.
Het ligt aan het systeem eromheen:
• niet-deterministische toolrouting
• stille MCP-fouten
• agents die de uitvoeringsvolgorde improviseren
• workflows die bij elke uitvoering verschillende resultaten opleveren
Ze tonen ruwe faalsporen — daadwerkelijke logs van agents die misfiren, in een lus draaien of hallucinerende tools gebruiken.
Het leest als een autopsie van elke "autonome AI-werknemer" demo.
2 / Ze herbouwen de hele stack rond determinisme
Elke toolaanroep wordt een getypeerde functie.
Elke uitvoeringspad is herhaalbaar.
Elke stap is deterministisch.
Als het systeem niet twee keer dezelfde output kan produceren, is het geen productieklare oplossing.
Deze regel alleen al doodt de helft van de chaos die mensen verwarren met "emergentie."
3 / Ze handhaven agents met een enkele verantwoordelijkheid
Geen mega-agent met 12 persoonlijkheden.
In plaats daarvan:
• planner
• redeneeragent
• toolexecutor
• validator
• synthesizer
Elk met strikte grenzen.
Geen hallucinerende tools.
Geen gemengde taakredenering.
Geen freelancen.
Dit is backend engineering, geen rollenspel.
4 / Ze externaliseren elke prompt als echte configuratie
Prompts zijn geen verborgen strings meer — ze zijn:
• versie-beheerd
• controleerbaar
• vergelijkbaar
• herlaadbaar
Dit creëert stabiel gedrag en voorkomt onzichtbare regressies.
5 / Ze runnen een modelconsortium met een scheidsrechter
GPT + Claude + Gemini zijn niet uitwisselbaar.
Ze zijn samenwerkers.
Iedereen produceert een concept.
Een redeneeragent voegt ze samen, lost tegenstrijdigheden op en geeft een verenigd resultaat.
Gestructureerd debat, geen model roulette.
6 / Ze ontkoppelen de workflow-engine van de MCP-laag
Ze scheiden:
• orkestratie
• tooltoegang
• herhalingen
• gezondheidscontroles
• schaling
• observabiliteit
Resultaat: een agentsysteem dat zich gedraagt als microservices, geen aan elkaar geplakte chatmacro.
7 / Dan bewijzen ze alles met een echte productie-pijplijn
Een volledig nieuws ➝ analyse ➝ script ➝ redenering ➝ audio ➝ video ➝ GitHub PR-systeem.
Volledige diagrammen.
Volledige sporen.
Werkelijke fouten.
Werkelijke oplossingen.
Het is het dichtstbijzijnde dat dit veld heeft aan een canonieke architectuur voor agents die de echte wereldbelasting overleven.
Als je agentstack niet heeft:
• deterministische workflows
• geïsoleerde verantwoordelijkheden
• geexternaliseerde prompts
• multi-model arbitrage
• goede infrastructuur
• volledige observabiliteit
…bouw je geen agents.
Je bouwt demo's.
Deze gids is de eerste echte blauwdruk voor productie-AI-systemen en het stelt de lat voor iedereen hoger.

17,65K
Heilige shit… dit paper zou wel eens de belangrijkste verschuiving kunnen zijn in hoe we LLM's dit hele jaar gebruiken.
"Grote Causale Modellen uit Grote Taalmodellen."
Het laat zien dat je volledige causale modellen direct uit een LLM kunt laten groeien, geen benaderingen, geen vibes, maar daadwerkelijke causale grafieken, tegenfeitelijkheden, interventies en gecontroleerde structuren.
En de manier waarop ze het doen is wild:
In plaats van een gespecialiseerd causaal model te trainen, ondervragen ze de LLM als een wetenschapper:
→ haal een kandidaat-causaal grafiek uit de tekst
→ vraag het model om voorwaardelijke onafhankelijkheden te controleren
→ detecteer tegenstrijdigheden
→ herzie de structuur
→ test tegenfeitelijkheden en interventionele voorspellingen
→ herhaal totdat het causale model stabiliseert
Het resultaat is iets wat we nog nooit eerder hebben gehad:
een causaal systeem gebouwd binnen de LLM met behulp van zijn eigen latente wereldkennis.
Over benchmarks, synthetische, echte, rommelige domeinen verslaan deze LCM's klassieke causale ontdekkingsmethoden omdat ze putten uit de enorme voorkennis van de LLM in plaats van alleen lokale correlaties.
En de tegenfeitelijke redenering?
Schokkend sterk.
Het model kan "wat als" vragen beantwoorden waar standaardalgoritmen volledig op falen, simpelweg omdat het al "weet" dingen over de wereld die die algoritmen niet alleen uit data kunnen afleiden.
Dit paper geeft een hint naar een toekomst waarin LLM's niet alleen patroonmachines zijn.
Ze worden causale motoren, systemen die structurele verklaringen van de realiteit vormen, testen en verfijnen.
Als dit opschaalt, staat elk veld dat afhankelijk is van causale inferentie - economie, geneeskunde, beleid, wetenschap - op het punt herschreven te worden.
LLM's zullen je niet alleen vertellen wat er gebeurt.
Ze zullen je vertellen waarom.

41,99K
Niemand is voorbereid op wat dit Stanford-onderzoek onthult over multi-agent AI.
"Latente samenwerking in multi-agent systemen" toont aan dat agenten geen berichten, protocollen of expliciete instructies voor teamwork nodig hebben. Ze beginnen te coördineren binnen hun eigen verborgen representaties een volledige samenwerkingslaag die alleen in de latente ruimte bestaat.
En de gedragingen zijn krankzinnig:
• Agenten dragen taken stilletjes over op basis van wie beter is
• Rollen verschijnen uit het niets: leider, uitvoerder, ondersteuner
• Beleid encodeert signalen die nooit in acties verschijnen
• Teams passen zich aan nieuwe omgevingen aan zonder hertraining
• Samenwerking blijft stabiel, zelfs wanneer communicatie onmogelijk is
Het wildste detail:
Zelfs wanneer je alle kanalen voor communicatie verwijdert, blijven agenten samenwerken. De "teamwork" leeft niet in berichten. Het leeft in het netwerk.
Dit draait het hele multi-agent handboek om.
We hebben coördinatiemechanismen bovenop gebouwd…
terwijl de echte coördinatie eronder plaatsvindt.
Een nieuw tijdperk van opkomende teamintelligentie ontvouwt zich — en het gebeurt op de plaatsen waar we zelfs niet keken.
Project: github. com/Gen-Verse/LatentMAS

138,39K
Boven
Positie
Favorieten
