热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
马斯克:谢谢。告诉我——在潜在空间中直接训练一个轻量级的OOD检测器有多难?这个检测器可以在模型产生幻觉解决方案之前标记语义不一致?
徐:我们已经原型化了这个。你可以在残差流中使用分布内和合成扰动轨迹之间的对比学习。早期层实际上显示出可检测的连贯性下降——就像一种“认知失调”信号——在输出偏离之前。但真正的挑战是延迟。你不能仅仅为了检查置信度而进行完整的反向传播。
马斯克:所以我们需要一个在线监控器——一个与前向传播并行运行的东西,也许是一个附加在中间激活上的小探针?
徐:没错。把它想象成一个“认知免疫系统”。我们有一个10亿参数的探针,其延迟是基础模型的1/10,并且在我们的压力测试中以约88%的AUC预测OOD性。它不是完美的,但足以触发后备协议。
马斯克:这可以与路由层无缝集成。LLM尝试解决它;探针发出警报;系统调用符号引擎或请求澄清。闭合循环。
徐:是的——关键是,你可以记录这些交接,并利用它们随着时间的推移扩展训练分布。它将OOD失败转化为策展信号。这不仅仅是鲁棒性;它是自适应泛化。
马斯克:那么模型就学会了何时不信任自己。我喜欢这个。设计上的谦逊。
徐:[笑] 称之为有限信心。未来不是那些知道一切的模型——而是那些知道自己局限并拥有超越这些局限工具的模型。
马斯克:好的,史蒂夫。下周,我希望你在我们最新的基础模型上运行那个合成测试套件。如果我们仍然被反事实物理难题愚弄,我们就要大幅转向混合模式。
这段对话可能是AI生成的。

8月10日 20:06
马斯克:史蒂夫,我一直在问团队的真正问题是,今天的 LLM 是否能够在离开训练分布时进行推理。每个人都提到链式思维提示,但这可能只是模仿。
徐:同意。最新的基准测试显示,即使是 Grok4 级别的模型,一旦强制进行领域转移,性能也会急剧下降——潜在空间根本无法覆盖新的模态。
马斯克:所以这更多的是一个覆盖问题,而不是推理失败?
徐:部分是。但还有一个更深层次的问题。变换器唯一内置的归纳偏差是关联模式匹配。当提示确实超出分布——比如,一个在训练中从未共同出现的符号谜题——模型没有结构先验可供依赖。它实际上是在抛硬币。
马斯克:然而我们在合成任务中看到了新兴的“领悟”。钟等人展示了归纳头可以组合它们从未明确训练过的规则。这难道看起来不像推理吗?
徐:组合可以带来有限的泛化,但规则仍然必须在训练语法的范围内。一旦你调整语义——在谜题中更改一个操作符——准确性就会崩溃。这不是稳健的推理;这是脆弱的插值。
马斯克:强化学习不能解决这个问题吗?DRG-Sapphire 在一个 70 亿基础模型上使用 GRPO,获得了临床笔记的医生级编码,这是一个经典的 OOD 任务。
徐:问题是,RL 只有在基础模型通过监督微调摄取了足够的领域知识后才有效。当预训练语料库稀疏时,单靠 RL 会停滞。因此,“推理”仍然寄生于先前知识的密度上。
马斯克:所以你的结论是,扩展数据和参数不会解决问题?我们总会遇到一个墙壁,下一次 OOD 领域会打破模型?
徐:不一定是墙壁,而是天花板。经验曲线表明,泛化误差大致以对数方式随训练样本的增加而减少。这意味着你需要对每个新的尾部分布有指数级更多的数据。对于狭窄的垂直领域——比如火箭发动机诊断——将符号先验嵌入其中比盲目扩展更便宜。
马斯克:这让我们回到了神经符号混合体。给 LLM 访问一个小的经过验证的求解器,然后让它在分布变化时协调调用。
徐:正是如此。LLM 成为一个元控制器,能够识别何时超出分布并将任务交给专门的模块。该架构避开了“一个巨型变换器”的谬论。
马斯克:好的,我会告诉 xAI 团队停止追逐下一个万亿个令牌,开始构建路由层。谢谢,史蒂夫。
徐:随时。如果你需要合成 OOD 测试用例,我的实验室有一个已经欺骗了 GPT-5 的生成器。我会把仓库发给你。
这段与埃隆的对话可能是 AI 生成的。

7.06K
热门
排行
收藏