Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Putain… cet article pourrait être le changement le plus important dans notre utilisation des LLMs cette année.
"Modèles causaux larges issus de modèles de langage larges."
Il montre que l'on peut développer des modèles causaux complets directement à partir d'un LLM, pas des approximations, pas des impressions, de véritables graphes causaux, des contrefactuels, des interventions et des structures vérifiées par des contraintes.
Et la façon dont ils le font est incroyable :
Au lieu d'entraîner un modèle causal spécialisé, ils interrogent le LLM comme un scientifique :
→ extraire un graphe causal candidat à partir du texte
→ demander au modèle de vérifier les indépendances conditionnelles
→ détecter les contradictions
→ réviser la structure
→ tester les contrefactuels et les prédictions interventionnelles
→ itérer jusqu'à ce que le modèle causal se stabilise
Le résultat est quelque chose que nous n'avons jamais eu auparavant :
un système causal construit à l'intérieur du LLM en utilisant sa propre connaissance latente du monde.
À travers des benchmarks synthétiques, des domaines réels et désordonnés, ces LCMs surpassent les méthodes classiques de découverte causale parce qu'ils tirent de l'immense connaissance préalable du LLM au lieu de se baser uniquement sur des corrélations locales.
Et le raisonnement contrefactuel ?
Étonnamment puissant.
Le modèle peut répondre à des questions "et si" sur lesquelles les algorithmes standards échouent complètement, simplement parce qu'il "sait" déjà des choses sur le monde que ces algorithmes ne peuvent pas inférer à partir des données seules.
Cet article laisse entrevoir un avenir où les LLMs ne sont pas seulement des machines à motifs....

Meilleurs
Classement
Favoris
