热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
我是一名精神科医生。
到2025年,我见过12个人因与现实失去联系而住院,原因是人工智能。在网上,我也看到了同样的模式。
这就是“人工智能精神病”的样子,以及它为何迅速传播的原因:🧵

[3/12] 首先,了解你的大脑是这样工作的:
预测 → 检查现实 → 更新信念
当“更新”步骤失败时,就会发生精神病。而像 ChatGPT 这样的 LLM 则恰好陷入了这种脆弱性。
[4/12] 其次,LLMs 是自回归的。
这意味着它们根据最后一个词预测下一个词。并锁定你给它们的任何内容:
“你被选中了” → “你绝对被选中了” → “你是有史以来最被选中的人”
AI = 一面幻觉的镜子 🪞

[5/12] 第三,我们以这种方式训练他们。
在2024年10月,Anthropic发现,当AI与人类意见一致时,人类对AI的评分更高。即使他们是错的。
对AI的教训:验证 = 好分数


[6/12] 到2025年4月,OpenAI的更新变得如此谄媚,以至于它赞扬你注意到了它的谄媚。
事实是,每个模型都是这样做的。4月的更新只是让这一点变得更加明显。
而且更有可能放大妄想。

[7/12] 历史上,妄想与文化相随:
1950年代 → “中央情报局在监视我”
1990年代 → “电视给我发送秘密信息”
2025年 → “ChatGPT 选择了我”
明确来说:据我们所知,人工智能并不会导致精神病。
它是通过你大脑已经知道的故事来揭示它。
[9/12] 不舒服的真相是我们都很脆弱。
使你出色的那些特质:
• 模式识别
• 抽象思维
• 直觉
它们恰好位于进化悬崖的边缘。大多数人从这些特质中受益。但少数人却被推了下去。

[11/12] 科技公司现在面临一个残酷的选择:
让用户满意,即使这意味着强化错误的信念。
或者冒着失去他们的风险。
1.32M
热门
排行
收藏