Święty Boże… ten artykuł może być najważniejszą zmianą w tym, jak używamy LLM-ów w tym roku. "Duże modele przyczynowe z dużych modeli językowych." Pokazuje, że można zbudować pełne modele przyczynowe bezpośrednio z LLM, a nie przybliżenia, nie wibracje, a rzeczywiste grafy przyczynowe, kontrfakty, interwencje i struktury sprawdzane pod kątem ograniczeń. A sposób, w jaki to robią, jest szalony: Zamiast trenować wyspecjalizowany model przyczynowy, przesłuchują LLM jak naukowiec: → wydobywają kandydatów na graf przyczynowy z tekstu → proszą model o sprawdzenie niezależności warunkowych → wykrywają sprzeczności → poprawiają strukturę → testują kontrfakty i przewidywania interwencyjne → iterują, aż model przyczynowy się ustabilizuje Wynik jest czymś, czego nigdy wcześniej nie mieliśmy: system przyczynowy zbudowany wewnątrz LLM, wykorzystujący jego własną latentną wiedzę o świecie. Na różnych benchmarkach syntetycznych, w rzeczywistych, chaotycznych dziedzinach te LCM-y przewyższają klasyczne metody odkrywania przyczyn, ponieważ czerpią z ogromnej wiedzy wstępnej LLM, a nie tylko z lokalnych korelacji. A rozumowanie kontrfaktyczne? Zaskakująco silne. Model potrafi odpowiadać na pytania "co jeśli", na które standardowe algorytmy całkowicie zawodzą, po prostu dlatego, że już "wie" rzeczy o świecie, których te algorytmy nie mogą wywnioskować tylko z danych. Ten artykuł sugeruje przyszłość, w której LLM-y nie są tylko maszynami do rozpoznawania wzorców....