Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Herregud... denna artikel kan vara den viktigaste förändringen i hur vi använder LLM:er under hela året.
"Stora kausala modeller från stora språkmodeller."
Det visar att man kan utveckla fullständiga kausala modeller direkt ur en LLM, inte approximationer, inte vibbar – faktiska kausala grafer, kontrafaktuala exempel, interventioner och begränsningskontrollerade strukturer.
Och sättet de gör det på är galet:
Istället för att träna en specialiserad kausal modell ifrågasätter de LLM som en vetenskapsman:
→ extrahera en kandidatkausal graf från text
→ be modellen kontrollera villkorliga independencies
→ upptäcker motsägelser
→ revidera strukturen
→ testar kontrafaktiska och interventionella förutsägelser
→ iterera tills den kausala modellen stabiliseras
Resultatet är något vi aldrig haft förut:
ett kausalt system byggt inom LLM med sin egen latenta världskunskap.
Över benchmarks syntetiska, verkliga, röriga domäner slår dessa LCM:er klassiska metoder för kausala upptäckter eftersom de hämtar från LLM:ns massiva förkunskap istället för bara lokala korrelationer.
Och den kontrafaktiska motiveringen?
Chockerande stark.
Modellen kan svara på "tänk om"-frågor som standardalgoritmer helt misslyckas med, helt enkelt för att den redan "vet" saker om världen som dessa algoritmer inte kan dra slutsatser om enbart data.
Denna artikel antyder en framtid där LLM:er inte bara är mönstermaskiner....

Topp
Rankning
Favoriter
