Cazzo santo… questo documento potrebbe essere il cambiamento più importante nel modo in cui utilizziamo gli LLM quest'anno. "Modelli Causali Grandi da Modelli di Linguaggio Grandi." Mostra che puoi far crescere modelli causali completi direttamente da un LLM, non approssimazioni, non vibrazioni, grafi causali reali, controfattuali, interventi e strutture verificate da vincoli. E il modo in cui lo fanno è pazzesco: Invece di addestrare un modello causale specializzato, interrogano l'LLM come un scienziato: → estrarre un grafo causale candidato dal testo → chiedere al modello di controllare le indipendenze condizionali → rilevare contraddizioni → rivedere la struttura → testare controfattuali e previsioni interventistiche → iterare fino a quando il modello causale si stabilizza Il risultato è qualcosa che non abbiamo mai avuto prima: un sistema causale costruito all'interno dell'LLM utilizzando la sua stessa conoscenza latente del mondo. Attraverso benchmark sintetici, reali e domini disordinati, questi LCM superano i metodi classici di scoperta causale perché attingono dalla vasta conoscenza pregressa dell'LLM invece di semplici correlazioni locali. E il ragionamento controfattuale? Incredibilmente forte. Il modello può rispondere a domande "cosa succede se" su cui gli algoritmi standard falliscono completamente, semplicemente perché già "sa" cose sul mondo che quegli algoritmi non possono dedurre dai dati da soli. Questo documento suggerisce un futuro in cui gli LLM non sono solo macchine per riconoscere schemi....