Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
🔥 Ich kann nicht glauben, dass es das gibt… jemand hat endlich das geheime Handbuch geschrieben, das jedes AI-Agenten-Startup vorgetäuscht hat.
Ein Forschungsteam hat gerade „Ein praktischer Leitfaden für das Entwerfen, Entwickeln und Bereitstellen von produktionsreifen agentischen AI-Workflows“ veröffentlicht, und es ist im Grunde das interne Handbuch, von dem die Leute *denken*, dass OpenAI und Anthropic es verwenden.
Kein Hype.
Keine Diagramme mit niedlichen Pfeilen.
Ein echtes Ingenieur-Blueprint für Agenten, die nicht zusammenbrechen, sobald du die Demoumgebung verlässt.
Hier ist, was es verrückt macht 👇
1 / Sie beginnen damit, zu zeigen, warum die meisten Agenten implodieren
Es ist nie das Modell.
Es ist das System darum herum:
• nichtdeterministische Werkzeug-Routing
• stille MCP-Fehler
• Agenten, die die Ausführungsreihenfolge improvisieren
• Workflows, die bei jedem Durchlauf unterschiedliche Ergebnisse produzieren
Sie zeigen rohe Fehlerspuren – tatsächliche Protokolle von Agenten, die fehlzünden, in Schleifen geraten oder Werkzeuge halluzinieren.
Es liest sich wie eine Autopsie jeder „autonomen AI-Mitarbeiter“-Demo.
2 / Sie bauen den gesamten Stack um Determinismus neu auf
Jeder Werkzeugaufruf wird zu einer typisierten Funktion.
Jeder Ausführungsweg ist wiederholbar.
Jeder Schritt ist deterministisch.
Wenn das System nicht zweimal dasselbe Ergebnis produzieren kann, ist es nicht produktionsreif.
Diese Regel allein tötet die Hälfte des Chaos, das die Leute fälschlicherweise für „Emergenz“ halten.
3 / Sie setzen Agenten mit einzelner Verantwortung durch
Kein Mega-Agent mit 12 Persönlichkeiten.
Stattdessen:
• Planer
• Denk-Agent
• Werkzeugausführer
• Validator
• Synthesizer
Jeder mit strengen Grenzen.
Keine halluzinierten Werkzeuge.
Kein gemischtes Aufgaben-Denken.
Kein Freiberufler.
Das ist Backend-Engineering, kein Rollenspiel.
4 / Sie externalisieren jeden Prompt wie echte Konfiguration
Prompts sind keine versteckten Strings mehr – sie sind:
• versionskontrolliert
• prüfbar
• differenzierbar
• nachladbar
Das schafft stabiles Verhalten und verhindert unsichtbare Regressionen.
5 / Sie betreiben ein Modellkonsortium mit einem Schiedsrichter
GPT + Claude + Gemini sind nicht austauschbar.
Sie sind Kollaborateure.
Jeder produziert einen Entwurf.
Ein Denk-Agent kombiniert sie, löst Widersprüche und gibt ein einheitliches Ergebnis aus.
Strukturierte Debatte, kein Modellroulette.
6 / Sie entkoppeln die Workflow-Engine von der MCP-Schicht
Sie trennen:
• Orchestrierung
• Werkzeugzugriff
• Wiederholungen
• Gesundheitsprüfungen
• Skalierung
• Beobachtbarkeit
Ergebnis: ein Agentensystem, das sich wie Mikrodienste verhält, nicht wie ein zusammengekleistertes Chat-Makro.
7 / Dann beweisen sie alles mit einer echten Produktionspipeline
Ein vollständiges Nachrichten ➝ Analyse ➝ Skript ➝ Denken ➝ Audio ➝ Video ➝ GitHub PR-System.
Vollständige Diagramme.
Vollständige Spuren.
Tatsächliche Fehler.
Tatsächliche Lösungen.
Es ist das Nächste, was dieses Feld zu einer kanonischen Architektur für Agenten hat, die realen Belastungen standhalten.
Wenn dein Agenten-Stack nicht hat:
• deterministische Workflows
• isolierte Verantwortlichkeiten
• externalisierte Prompts
• Multi-Modell-Schlichtung
• ordentliche Infrastruktur
• vollständige Beobachtbarkeit
…baust du keine Agenten.
Du baust Demos.
Dieser Leitfaden ist das erste echte Blueprint für produktionsreife AI-Systeme und hebt die Messlatte für alle.

12K
Heilige Scheiße… dieses Papier könnte die wichtigste Veränderung darin sein, wie wir LLMs in diesem ganzen Jahr nutzen.
„Große kausale Modelle aus großen Sprachmodellen.“
Es zeigt, dass man vollständige kausale Modelle direkt aus einem LLM wachsen lassen kann, keine Annäherungen, keine Vibes, sondern tatsächliche kausale Graphen, kontrafaktische Überlegungen, Interventionen und strukturierte, überprüfte Einschränkungen.
Und die Art und Weise, wie sie es tun, ist verrückt:
Anstatt ein spezialisiertes kausales Modell zu trainieren, befragen sie das LLM wie ein Wissenschaftler:
→ einen Kandidaten für einen kausalen Graphen aus dem Text extrahieren
→ das Modell bitten, bedingte Unabhängigkeiten zu überprüfen
→ Widersprüche erkennen
→ die Struktur überarbeiten
→ kontrafaktische und interventionale Vorhersagen testen
→ iterieren, bis das kausale Modell stabilisiert ist
Das Ergebnis ist etwas, das wir noch nie zuvor hatten:
ein kausales System, das im LLM unter Verwendung seines eigenen latenten Weltwissens aufgebaut ist.
Über Benchmarks hinweg, synthetische, reale, chaotische Bereiche schlagen diese LCMs klassische Methoden zur kausalen Entdeckung, weil sie aus dem riesigen Vorwissen des LLM schöpfen, anstatt nur lokale Korrelationen zu betrachten.
Und das kontrafaktische Denken?
Schockierend stark.
Das Modell kann „Was wäre wenn“-Fragen beantworten, bei denen Standardalgorithmen völlig versagen, einfach weil es bereits „weiß“, Dinge über die Welt, die diese Algorithmen aus Daten allein nicht ableiten können.
Dieses Papier deutet auf eine Zukunft hin, in der LLMs nicht nur Muster-Maschinen sind.
Sie werden zu kausalen Motoren, Systemen, die strukturelle Erklärungen der Realität bilden, testen und verfeinern.
Wenn das skaliert, wird jedes Feld, das auf kausaler Inferenz basiert – Wirtschaft, Medizin, Politik, Wissenschaft – neu geschrieben.
LLMs werden dir nicht nur sagen, was passiert.
Sie werden dir sagen, warum.

41,98K
Niemand ist bereit für das, was dieses Stanford-Papier über Multi-Agenten-KI offenbart.
"Latente Zusammenarbeit in Multi-Agenten-Systemen" zeigt, dass Agenten keine Nachrichten, Protokolle oder expliziten Teamarbeitsanweisungen benötigen. Sie beginnen, innerhalb ihrer eigenen verborgenen Repräsentationen eine vollständige Zusammenarbeitsebene zu koordinieren, die nur im latenten Raum existiert.
Und die Verhaltensweisen sind verrückt:
• Agenten übergeben Aufgaben stillschweigend basierend darauf, wer besser ist
• Rollen erscheinen aus dem Nichts: Anführer, Ausführer, Unterstützer
• Richtlinien kodieren Signale, die niemals in Aktionen erscheinen
• Teams passen sich neuen Umgebungen an, ohne neu trainiert zu werden
• Zusammenarbeit bleibt stabil, selbst wenn Kommunikation unmöglich ist
Das wildeste Detail:
Selbst wenn man alle Kommunikationskanäle entfernt, kooperieren die Agenten weiterhin. Die "Teamarbeit" lebt nicht in Nachrichten. Sie lebt im Netzwerk.
Das kehrt das gesamte Multi-Agenten-Spielbuch um.
Wir haben Koordinationsmechanismen darüber aufgebaut…
während die echte Koordination darunter stattfindet.
Eine neue Ära der emergenten Teamintelligenz entfaltet sich – und sie geschieht an Orten, an denen wir nicht einmal geschaut haben.
Projekt: github. com/Gen-Verse/LatentMAS

138,38K
Top
Ranking
Favoriten
