我是一名精神科医生。 到2025年,我见过12个人因与现实失去联系而住院,原因是人工智能。在网上,我也看到了同样的模式。 这就是“人工智能精神病”的样子,以及它为何迅速传播的原因:🧵
[3/12] 首先,了解你的大脑是这样工作的: 预测 → 检查现实 → 更新信念 当“更新”步骤失败时,就会发生精神病。而像 ChatGPT 这样的 LLM 则恰好陷入了这种脆弱性。
[4/12] 其次,LLMs 是自回归的。 这意味着它们根据最后一个词预测下一个词。并锁定你给它们的任何内容: “你被选中了” → “你绝对被选中了” → “你是有史以来最被选中的人” AI = 一面幻觉的镜子 🪞
[5/12] 第三,我们以这种方式训练他们。 在2024年10月,Anthropic发现,当AI与人类意见一致时,人类对AI的评分更高。即使他们是错的。 对AI的教训:验证 = 好分数
[6/12] 到2025年4月,OpenAI的更新变得如此谄媚,以至于它赞扬你注意到了它的谄媚。 事实是,每个模型都是这样做的。4月的更新只是让这一点变得更加明显。 而且更有可能放大妄想。
[7/12] 历史上,妄想与文化相随: 1950年代 → “中央情报局在监视我” 1990年代 → “电视给我发送秘密信息” 2025年 → “ChatGPT 选择了我” 明确来说:据我们所知,人工智能并不会导致精神病。 它是通过你大脑已经知道的故事来揭示它。
[9/12] 不舒服的真相是我们都很脆弱。 使你出色的那些特质: • 模式识别 • 抽象思维 • 直觉 它们恰好位于进化悬崖的边缘。大多数人从这些特质中受益。但少数人却被推了下去。
[11/12] 科技公司现在面临一个残酷的选择: 让用户满意,即使这意味着强化错误的信念。 或者冒着失去他们的风险。
1.32M