Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Черт возьми… эта статья может стать самым важным изменением в том, как мы используем LLM в этом году.
"Большие причинные модели из больших языковых моделей."
Она показывает, что можно вырастить полные причинные модели прямо из LLM, а не приближения, не ощущения, а настоящие причинные графы, контрфакты, интервенции и структуры с проверенными ограничениями.
И способ, которым они это делают, дикий:
Вместо того чтобы обучать специализированную причинную модель, они допрашивают LLM как ученые:
→ извлекают кандидатный причинный граф из текста
→ просят модель проверить условные независимости
→ обнаруживают противоречия
→ пересматривают структуру
→ тестируют контрфакты и интервенционные предсказания
→ итерация до тех пор, пока причинная модель не стабилизируется
Результат — это то, чего у нас никогда не было раньше:
причинная система, построенная внутри LLM, используя его собственные скрытые знания о мире.
На всех бенчмарках — синтетических, реальных, запутанных областях — эти LCM превосходят классические методы причинного открытия, потому что они используют обширные предварительные знания LLM, а не просто локальные корреляции.
А контрфактическое рассуждение?
Удивительно сильное.
Модель может отвечать на вопросы "что если", на которые стандартные алгоритмы полностью не справляются, просто потому, что она уже "знает" вещи о мире, которые эти алгоритмы не могут вывести только из данных.
Эта статья намекает на будущее, где LLM не просто машины для распознавания шаблонов....

Топ
Рейтинг
Избранное
