La naiba... Această lucrare ar putea fi cea mai importantă schimbare în modul în care folosim LLM-urile în acest an. "Modele cauzale mari din modele lingvistice mari." Arată că poți dezvolta modele cauzale complete direct dintr-un LLM, nu aproximări, nu grafice cauzale reale, contrafactuale, intervenții și structuri controlate prin constrângeri. Și modul în care o fac este nebunesc: În loc să antreneze un model cauzal specializat, ei interoghează LLM-ul ca un om de știință: → extragerea unui graf cauzal candidat din text → cere modelului să verifice dependențele condiționate → detectează contradicțiile → revizuim structura → testează contrafactualele și predicțiile intervenționale → itera până când modelul cauzal se stabilizează Rezultatul este ceva ce nu am mai avut până acum: un sistem cauzal construit în interiorul LLM-ului folosind propria sa cunoaștere latentă a lumii. Prin repere – domenii sintetice, reale, complicate, aceste LCM-uri depășesc metodele clasice de descoperire cauzală pentru că se bazează pe cunoștințele anterioare masive ale LLM-ului, nu doar din corelațiile locale. Și raționamentul contrafactual? Șocant de puternic. Modelul poate răspunde la întrebări "ce-ar fi dacă" la care algoritmii standard eșuează complet, pur și simplu pentru că deja "știe" lucruri despre lume pe care acei algoritmi nu le pot deduce doar din date. Această lucrare sugerează un viitor în care LLM-urile nu vor mai fi doar mașini de modele....