トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
マスク:ありがとう。そして、軽量のOOD検出器を潜在空間で直接トレーニングするのはどれほど難しいでしょうか?モデルが解決策を幻覚する前に、意味論的一貫性の欠如にフラグを立てる何か?
Hsu: 私たちはそれをプロトタイプ化しました。残差ストリーム内の分布内軌道と合成摂動軌道の間で対照学習を使用できます。初期の層は、出力が発散する前に、「認知的不協和」信号のように、検出可能なコヒーレンスの低下を実際に示します。しかし、本当の課題は遅延です。自信を確かめるためだけにフルバックパスをするわけにはいかない。
マスク:では、フォワードパスと並行して動作するオンラインモニター、おそらく中間アクティベーションに接続された小さなプローブが必要なのでしょうか?
スー:その通りです。「認知免疫システム」と考えてください。ベースモデルの 1/10 のレイテンシで実行され、ストレス テストで ~88% の AUC で OOD 性を予測する 1B パラメーター プローブがあります。完璧ではありませんが、フォールバックプロトコルをトリガーするには十分です。
マスク:それはルーティングレイヤーときれいに統合できるでしょう。LLM はそれを解決しようとします。プローブはフラグを立てます。システムはシンボリック・エンジンを呼び出すか、説明を求めます。ループを閉じます。
Hsu: はい、そして重要なことに、これらの引き継ぎを記録し、それを使用してトレーニングの分布を時間の経過とともに拡大できます。OOD の失敗をキュレーション シグナルに変えます。それは堅牢性だけではありません。それは適応一般化です。
マスク:そうすれば、モデルは自分自身を信頼してはいけないタイミングを学習します。それは好きです。デザインによる謙虚さ。
Hsu: [笑い] それは限界の自信と呼んでください。未来とは、すべてを知っているモデルではなく、自分の限界を知っていて、それを超越するツールを持っているモデルです。
マスク:わかりました、スティーブ。来週は、最新の基本モデルでその合成テストスイートを実行していただきたいと思います。それでも反事実的な物理パズルに騙されている場合は、ハイブリッドに熱心に軸足を移します。
このダイアログは AI によって生成された可能性があります。

8月10日 20:06
マスク:スティーブ、私がチームに問い続けている本当の質問は、今日のLLMがトレーニングディストリビューションを離れたときに推論できるかどうかです。 誰もが思考連鎖のプロンプトを引用しますが、それは単なる模倣である可能性があります。
スー:同感です。 最新のベンチマークによると、Grok4 レベルのモデルでさえ、ドメイン シフトを強制すると急激に劣化し、潜在的な空間は新しいモダリティにまたがっていません。
マスク:つまり、推論の失敗というよりは、カバレッジの問題なのでしょうか?
スー:部分的には。 しかし、もっと深い問題があります。 トランスに内蔵されている唯一の誘導バイアスは連想パターンマッチングです。 プロンプトが本当に分散されていない場合 (たとえば、トークンがトレーニングで同時出現しなかったシンボリック パズルの場合)、モデルにはフォールバックする前の構造がありません。 文字通りコインを投げる。
マスク:しかし、合成タスクでは新たな「グルッキング」が見られます。 Zhongらは、誘導ヘッドが明示的に訓練されたことのないルールを作成できることを示しました。 それは推論のように思えませんか?
Hsu: 作文は限られた一般化を買いますが、ルールは依然としてトレーニング文法の範囲にある必要があります。 セマンティクスを微調整すると、パズル内の演算子を 1 つ変更するとすぐに、精度は崩壊します。 それは確固たる推論ではありません。それは脆い補間です。
マスク氏:強化学習で解決できなかったのでしょうか? DRG-Sapphire は、7 B ベース モデルの上に GRPO を使用し、古典的な OOD タスクである臨床記録に医師グレードのコーディングを取得しました。
Hsu: 問題は、RL は、基本モデルが教師あり微調整によって十分なドメイン知識を取り込んだ後にのみ機能することです。 事前トレーニングコーパスがまばらな場合、RLだけでは頭打ちになります。 したがって、「推論」は依然として事前知識密度に寄生しています。
マスク:では、データとパラメータをスケーリングしても問題は解決しないということですか? 次のOODドメインがモデルを壊す壁にぶつかることはありませんか?
Hsu:必ずしも壁ではなく、天井です。 経験的曲線は、一般化誤差がトレーニング例でほぼ対数的に減衰することを示唆しています。 これは、新しいテール分布ごとに指数関数的に多くのデータが必要になることを意味します。 ロケットエンジンの診断など、狭い分野では、やみくもにスケールアップするよりも、シンボリックな事前確率を焼き込む方が安価です。
マスク:ここで、神経シンボリックハイブリッドの話に戻ります。 LLM に検証済みの小さなソルバーへのアクセス権を付与し、分布が変化したときに呼び出しをオーケストレーションできるようにします。
スー:その通りです。 LLM は、OOD であることを認識し、特殊なモジュールに引き継ぐメタ コントローラーになります。 このアーキテクチャは、「1つの巨大な変圧器」の誤謬を回避します。
マスク: わかりました、xAI チームに、次の 1 兆トークンを追いかけるのをやめて、ルーティング レイヤーの構築を開始するように伝えます。 ありがとう、スティーブ。
スー:いつでも。 また、合成 OOD テスト ケースが必要な場合は、私の研究室には、すでに GPT-5 をだましているジェネレーターがあります。 リポジトリを送信します。
イーロンとのこの会話はAIが生成したものかもしれません。

7.05K
トップ
ランキング
お気に入り