Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Święty Boże… ten artykuł może być najważniejszą zmianą w tym, jak używamy LLM-ów w tym roku.
"Duże modele przyczynowe z dużych modeli językowych."
Pokazuje, że można zbudować pełne modele przyczynowe bezpośrednio z LLM, a nie przybliżenia, nie wibracje, a rzeczywiste grafy przyczynowe, kontrfakty, interwencje i struktury sprawdzane pod kątem ograniczeń.
A sposób, w jaki to robią, jest szalony:
Zamiast trenować wyspecjalizowany model przyczynowy, przesłuchują LLM jak naukowiec:
→ wydobywają kandydatów na graf przyczynowy z tekstu
→ proszą model o sprawdzenie niezależności warunkowych
→ wykrywają sprzeczności
→ poprawiają strukturę
→ testują kontrfakty i przewidywania interwencyjne
→ iterują, aż model przyczynowy się ustabilizuje
Wynik jest czymś, czego nigdy wcześniej nie mieliśmy:
system przyczynowy zbudowany wewnątrz LLM, wykorzystujący jego własną latentną wiedzę o świecie.
Na różnych benchmarkach syntetycznych, w rzeczywistych, chaotycznych dziedzinach te LCM-y przewyższają klasyczne metody odkrywania przyczyn, ponieważ czerpią z ogromnej wiedzy wstępnej LLM, a nie tylko z lokalnych korelacji.
A rozumowanie kontrfaktyczne?
Zaskakująco silne.
Model potrafi odpowiadać na pytania "co jeśli", na które standardowe algorytmy całkowicie zawodzą, po prostu dlatego, że już "wie" rzeczy o świecie, których te algorytmy nie mogą wywnioskować tylko z danych.
Ten artykuł sugeruje przyszłość, w której LLM-y nie są tylko maszynami do rozpoznawania wzorców....

Najlepsze
Ranking
Ulubione
