Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Heilige shit… dit paper zou wel eens de belangrijkste verschuiving kunnen zijn in hoe we LLM's dit hele jaar gebruiken.
"Grote Causale Modellen uit Grote Taalmodellen."
Het laat zien dat je volledige causale modellen direct uit een LLM kunt laten groeien, geen benaderingen, geen vibes, maar daadwerkelijke causale grafieken, tegenfeitelijkheden, interventies en gecontroleerde structuren.
En de manier waarop ze het doen is wild:
In plaats van een gespecialiseerd causaal model te trainen, ondervragen ze de LLM als een wetenschapper:
→ haal een kandidaat-causaal grafiek uit de tekst
→ vraag het model om voorwaardelijke onafhankelijkheden te controleren
→ detecteer tegenstrijdigheden
→ herzie de structuur
→ test tegenfeitelijkheden en interventionele voorspellingen
→ herhaal totdat het causale model stabiliseert
Het resultaat is iets wat we nog nooit eerder hebben gehad:
een causaal systeem gebouwd binnen de LLM met behulp van zijn eigen latente wereldkennis.
Over benchmarks, synthetische, echte, rommelige domeinen verslaan deze LCM's klassieke causale ontdekkingsmethoden omdat ze putten uit de enorme voorkennis van de LLM in plaats van alleen lokale correlaties.
En de tegenfeitelijke redenering?
Schokkend sterk.
Het model kan "wat als" vragen beantwoorden waar standaardalgoritmen volledig op falen, simpelweg omdat het al "weet" dingen over de wereld die die algoritmen niet alleen uit data kunnen afleiden.
Dit paper geeft een hint naar een toekomst waarin LLM's niet alleen patroonmachines zijn....

Boven
Positie
Favorieten
