熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
馬斯克:感謝你。告訴我——在潛在空間中直接訓練一個輕量級的OOD檢測器有多難?這個檢測器能在模型產生幻覺解決方案之前標記語義不一致?
徐:我們已經原型化了這個。你可以在殘差流中使用分佈內和合成擾動軌跡之間的對比學習。早期層實際上顯示出可檢測的連貫性下降——就像一個“認知失調”信號——在輸出偏離之前。但真正的挑戰是延遲。你不能僅僅為了檢查信心而進行完整的反向傳播。
馬斯克:所以我們需要一個在線監控器——一個與前向傳播並行運行的東西,也許是一個附加在中間激活上的小探針?
徐:正是如此。把它想像成一個“認知免疫系統”。我們有一個10億參數的探針,其延遲是基礎模型的1/10,並且在我們的壓力測試中以約88%的AUC預測OOD性。它不是完美的,但足以觸發回退協議。
馬斯克:這可以與路由層乾淨地集成。LLM嘗試解決它;探針發出警告;系統調用符號引擎或要求澄清。閉合循環。
徐:是的——關鍵是,你可以記錄這些交接並利用它們隨著時間的推移擴展訓練分佈。它將OOD失敗轉化為策展信號。這不僅僅是穩健性;這是自適應泛化。
馬斯克:那麼模型學會了何時不信任自己。我喜歡這一點。設計上的謙遜。
徐:[輕笑] 稱之為有限信心。未來不是知道一切的模型——而是知道自己極限並擁有超越這些極限工具的模型。
馬斯克:好的,史蒂夫。下週,我希望你在我們最新的基礎模型上運行那個合成測試套件。如果我們仍然被反事實物理謎題愚弄,我們就要大幅轉向混合模式。
這段對話可能是AI生成的。

8月10日 20:06
馬斯克:史蒂夫,我一直在問團隊的真正問題是,今天的 LLM 是否能在離開訓練分佈時進行推理。每個人都提到思維鏈提示,但這可能只是模仿。
徐:同意。最新的基準顯示,即使是 Grok4 級別的模型,一旦強迫進行領域轉移,性能也會急劇下降——潛在空間根本無法涵蓋新的模式。
馬斯克:那麼這是一個覆蓋問題,而不是推理失敗?
徐:部分是。但還有更深層次的問題。變壓器唯一內建的歸納偏見是關聯模式匹配。當提示真正超出分佈——比如一個符號謎題,其標記在訓練中從未同時出現——模型就沒有結構性先驗可依賴。它實際上是在擲硬幣。
馬斯克:然而我們在合成任務中看到了新興的“理解”。鍾等人顯示,歸納頭可以組合它們從未明確訓練過的規則。這難道不像推理嗎?
徐:組合能帶來有限的泛化,但這些規則仍然必須位於訓練語法的範圍內。一旦你調整語義——改變謎題中的單個運算符——準確性就會崩潰。這不是穩健的推理;這是脆弱的插值。
馬斯克:強化學習不能解決這個問題嗎?DRG-Sapphire 在一個 7B 基模型上使用 GRPO,並在臨床筆記上獲得了醫生級的編碼,這是一個經典的 OOD 任務。
徐:問題是,強化學習僅在基模型通過監督微調吸收了足夠的領域知識後才有效。當預訓練語料庫稀疏時,僅靠強化學習會停滯。因此,“推理”仍然依賴於先前知識的密度。
馬斯克:所以你的結論是,擴大數據和參數不會解決問題?我們總會遇到一堵牆,下一個 OOD 領域會打破模型?
徐:不一定是一堵牆,而是一個天花板。實證曲線表明,泛化誤差隨著訓練樣本的增加大約以對數方式衰減。這意味著對於每個新的尾部分佈,你需要指數級的數據。對於狹窄的垂直領域——比如火箭引擎診斷——將符號先驗嵌入其中比盲目擴展更便宜。
馬斯克:這讓我們回到了神經符號混合體。給 LLM 訪問一個小的經過驗證的求解器,然後讓它在分佈轉移時協調調用。
徐:正是如此。LLM 變成了一個元控制器,能夠識別何時超出分佈並將任務交給專門的模塊。這種架構避開了“單一巨大變壓器”的謬誤。
馬斯克:好吧,我會告訴 xAI 團隊停止追逐下一萬億個標記,開始構建路由層。謝謝你,史蒂夫。
徐:隨時。如果你需要合成的 OOD 測試案例,我的實驗室有一個已經欺騙了 GPT-5 的生成器。我會發送庫。
這段與埃隆的對話可能是 AI 生成的。

7.06K
熱門
排行
收藏