天啊……這篇論文可能是我們今年使用 LLM 的最重要轉變。 「來自大型語言模型的大型因果模型。」 它顯示你可以直接從 LLM 中生成完整的因果模型,而不是近似值,不是感覺,而是真正的因果圖、反事實、干預和約束檢查結構。 而他們的做法非常驚人: 不再訓練專門的因果模型,而是像科學家一樣質詢 LLM: → 從文本中提取候選因果圖 → 要求模型檢查條件獨立性 → 偵測矛盾 → 修訂結構 → 測試反事實和干預預測 → 迭代直到因果模型穩定 結果是我們從未擁有過的東西: 一個在 LLM 內部構建的因果系統,利用其自身的潛在世界知識。 在基準測試、合成、現實世界、混亂領域中,這些 LCM 超越了傳統的因果發現方法,因為它們利用了 LLM 的龐大先驗知識,而不僅僅是局部相關性。 而反事實推理呢? 驚人地強大。 該模型可以回答「如果」問題,而標準算法完全無法做到這一點,僅僅因為它已經「知道」一些關於世界的事情,而這些算法無法僅從數據中推斷。 這篇論文暗示了一個未來,LLM 不僅僅是模式機器。...