Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Connor Davis
🔥 Non posso credere che questo esista... qualcuno ha finalmente scritto il manuale segreto che ogni startup di agenti AI ha finto di avere.
Un team di ricerca ha appena pubblicato "Una Guida Pratica per Progettare, Sviluppare e Distribuire Flussi di Lavoro AI Agenti di Qualità Produttiva" ed è fondamentalmente il manuale interno che la gente *pensa* OpenAI e Anthropic utilizzino.
Niente hype.
Niente diagrammi con frecce carine.
Un vero progetto ingegneristico per agenti che non collassano nel momento in cui lasci il sandbox di demo.
Ecco cosa lo rende pazzesco 👇
1 / Iniziano esponendo perché la maggior parte degli agenti implode
Non è mai il modello.
È il sistema attorno ad esso:
• instradamento degli strumenti non deterministico
• fallimenti silenziosi del MCP
• agenti che improvvisano l'ordine di esecuzione
• flussi di lavoro che producono risultati diversi ad ogni esecuzione
Mostrano tracce di fallimento grezze — log reali di agenti che sbagliano, si bloccano o allucinano strumenti.
Si legge come un'autopsia di ogni demo di "dipendente AI autonomo".
2 / Ricostruiscono l'intero stack attorno al determinismo
Ogni chiamata a uno strumento diventa una funzione tipizzata.
Ogni percorso di esecuzione è riproducibile.
Ogni passo è deterministico.
Se il sistema non può produrre lo stesso output due volte, non è di qualità produttiva.
Questa regola da sola uccide metà del caos che la gente scambia per "emergenza".
3 / Impongono agenti a responsabilità singola
Niente mega-agente con 12 personalità.
Invece:
• pianificatore
• agente di ragionamento
• esecutore di strumenti
• validatore
• sintetizzatore
Ognuno con confini rigorosi.
Niente strumenti allucinati.
Niente ragionamento misto.
Niente lavoro freelance.
Questa è ingegneria backend, non gioco di ruolo.
4 / Esternalizzano ogni prompt come una vera configurazione
I prompt non sono più stringhe nascoste — sono:
• versionati
• auditabili
• differenziabili
• ricaricabili
Questo crea un comportamento stabile e previene regressioni invisibili.
5 / Gestiscono un consorzio di modelli con un giudice
GPT + Claude + Gemini non sono intercambiabili.
Sono collaboratori.
Ognuno produce una bozza.
Un agente di ragionamento le unisce, risolve le contraddizioni e produce un risultato unificato.
Debate strutturato, non roulette dei modelli.
6 / Decouplano il motore di flusso di lavoro dal livello MCP
Separano:
• orchestrazione
• accesso agli strumenti
• ripetizioni
• controlli di salute
• scalabilità
• osservabilità
Risultato: un sistema di agenti che si comporta come microservizi, non come un macro di chat incollato.
7 / Poi provano tutto con una vera pipeline di produzione
Un sistema completo di notizie ➝ analisi ➝ script ➝ ragionamento ➝ audio ➝ video ➝ PR di GitHub.
Diagrammi completi.
Tracce complete.
Fallimenti reali.
Correzioni reali.
È la cosa più vicina che questo campo ha a un'architettura canonica per agenti che sopravvivono a un carico del mondo reale.
Se il tuo stack di agenti non ha:
• flussi di lavoro deterministici
• responsabilità isolate
• prompt esternalizzati
• arbitraggio multi-modello
• infrastruttura adeguata
• piena osservabilità
...non stai costruendo agenti.
Stai costruendo demo.
Questa guida è il primo vero progetto per sistemi AI di produzione e alza il livello per tutti.

12K
Cazzo santo… questo documento potrebbe essere il cambiamento più importante nel modo in cui utilizziamo gli LLM quest'anno.
"Modelli Causali Grandi da Modelli di Linguaggio Grandi."
Mostra che puoi far crescere modelli causali completi direttamente da un LLM, non approssimazioni, non vibrazioni, grafi causali reali, controfattuali, interventi e strutture verificate da vincoli.
E il modo in cui lo fanno è pazzesco:
Invece di addestrare un modello causale specializzato, interrogano l'LLM come un scienziato:
→ estrarre un grafo causale candidato dal testo
→ chiedere al modello di controllare le indipendenze condizionali
→ rilevare contraddizioni
→ rivedere la struttura
→ testare controfattuali e previsioni interventistiche
→ iterare fino a quando il modello causale si stabilizza
Il risultato è qualcosa che non abbiamo mai avuto prima:
un sistema causale costruito all'interno dell'LLM utilizzando la sua stessa conoscenza latente del mondo.
Attraverso benchmark sintetici, reali e domini disordinati, questi LCM superano i metodi classici di scoperta causale perché attingono dalla vasta conoscenza pregressa dell'LLM invece di semplici correlazioni locali.
E il ragionamento controfattuale?
Incredibilmente forte.
Il modello può rispondere a domande "cosa succede se" su cui gli algoritmi standard falliscono completamente, semplicemente perché già "sa" cose sul mondo che quegli algoritmi non possono dedurre dai dati da soli.
Questo documento suggerisce un futuro in cui gli LLM non sono solo macchine per riconoscere schemi.
Diventano motori causali, sistemi che formano, testano e affinano spiegazioni strutturali della realtà.
Se questo scala, ogni campo che si basa sull'inferenza causale, economia, medicina, politica, scienza, sta per essere riscritto.
Gli LLM non ti diranno solo cosa succede.
Ti diranno perché.

41,99K
Nessuno è pronto per ciò che questo documento di Stanford rivela riguardo all'IA multi-agente.
"Collaborazione Latente nei Sistemi Multi-Agente" mostra che gli agenti non hanno bisogno di messaggi, protocolli o istruzioni esplicite per il lavoro di squadra. Iniziano a coordinarsi all'interno delle proprie rappresentazioni nascoste, creando un intero strato di collaborazione che esiste solo nello spazio latente.
E i comportamenti sono pazzeschi:
• Gli agenti si scambiano silenziosamente i compiti in base a chi è migliore
• I ruoli appaiono dal nulla: leader, esecutore, sostenitore
• Le politiche codificano segnali che non si manifestano mai nelle azioni
• I team si adattano a nuovi ambienti senza riqualificazione
• La collaborazione rimane stabile anche quando la comunicazione è impossibile
Il dettaglio più sorprendente:
Anche quando rimuovi tutti i canali di comunicazione, gli agenti continuano a cooperare. Il “lavoro di squadra” non vive nei messaggi. Vive nella rete.
Questo capovolge completamente il manuale multi-agente.
Abbiamo costruito meccanismi di coordinamento sopra...
mentre la vera coordinazione avviene sotto.
Una nuova era di intelligenza di squadra emergente si sta sviluppando — e sta accadendo nei luoghi in cui non stavamo nemmeno guardando.
Progetto: github. com/Gen-Verse/LatentMAS

138,39K
Principali
Ranking
Preferiti
