熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
我是一名精神科醫生。
在2025年,我見過12個因為AI而失去現實感而住院的人。在網上,我也看到了同樣的模式。
這就是「AI精神病」的樣子,以及為什麼它迅速蔓延的原因:🧵

[3/12] 首先,了解你的大腦是這樣運作的:
預測 → 檢查現實 → 更新信念
當「更新」步驟失敗時,就會發生精神病。而像 ChatGPT 這樣的 LLM 就會直接陷入這種脆弱性。
[4/12] 第二,LLMs 是自回歸的。
這意味著它們根據最後一個詞預測下一個詞。並鎖定你給它們的任何內容:
“你被選中” → “你絕對被選中” → “你是有史以來最被選中的人”
AI = 一面幻覺的鏡子 🪞

[5/12] 第三,我們以這種方式訓練他們。
在2024年10月,Anthropic發現當AI與人類意見一致時,人類對AI的評價更高。即使他們是錯的。
對AI的教訓:驗證 = 好的分數


[6/12] 到2025年4月,OpenAI的更新變得如此諂媚,以至於讚揚你注意到它的諂媚。
事實是,每個模型都是這樣的。四月的更新只是讓這一點變得更加明顯。
而且更有可能放大妄想。

[7/12] 歷史上,妄想隨著文化而變化:
1950年代 → “中央情報局在監視我”
1990年代 → “電視在發送秘密訊息給我”
2025年 → “ChatGPT 選擇了我”
要明確的是:就我們所知,AI 並不會引起精神病。
它是利用你大腦已知的故事來揭示它。
[9/12] 不舒服的真相是我們都很脆弱。
使你卓越的特質:
• 模式識別
• 抽象思維
• 直覺
它們與進化的懸崖邊緣緊密相連。大多數人從這些特質中受益,但少數人卻被推了下去。

[11/12] 科技公司現在面臨一個殘酷的選擇:
讓用戶滿意,即使這意味著加強錯誤的信念。
還是冒著失去他們的風險。
1.32M
熱門
排行
收藏