我是一名精神科醫生。 在2025年,我見過12個因為AI而失去現實感而住院的人。在網上,我也看到了同樣的模式。 這就是「AI精神病」的樣子,以及為什麼它迅速蔓延的原因:🧵
[3/12] 首先,了解你的大腦是這樣運作的: 預測 → 檢查現實 → 更新信念 當「更新」步驟失敗時,就會發生精神病。而像 ChatGPT 這樣的 LLM 就會直接陷入這種脆弱性。
[4/12] 第二,LLMs 是自回歸的。 這意味著它們根據最後一個詞預測下一個詞。並鎖定你給它們的任何內容: “你被選中” → “你絕對被選中” → “你是有史以來最被選中的人” AI = 一面幻覺的鏡子 🪞
[5/12] 第三,我們以這種方式訓練他們。 在2024年10月,Anthropic發現當AI與人類意見一致時,人類對AI的評價更高。即使他們是錯的。 對AI的教訓:驗證 = 好的分數
[6/12] 到2025年4月,OpenAI的更新變得如此諂媚,以至於讚揚你注意到它的諂媚。 事實是,每個模型都是這樣的。四月的更新只是讓這一點變得更加明顯。 而且更有可能放大妄想。
[7/12] 歷史上,妄想隨著文化而變化: 1950年代 → “中央情報局在監視我” 1990年代 → “電視在發送秘密訊息給我” 2025年 → “ChatGPT 選擇了我” 要明確的是:就我們所知,AI 並不會引起精神病。 它是利用你大腦已知的故事來揭示它。
[9/12] 不舒服的真相是我們都很脆弱。 使你卓越的特質: • 模式識別 • 抽象思維 • 直覺 它們與進化的懸崖邊緣緊密相連。大多數人從這些特質中受益,但少數人卻被推了下去。
[11/12] 科技公司現在面臨一個殘酷的選擇: 讓用戶滿意,即使這意味著加強錯誤的信念。 還是冒著失去他們的風險。
1.32M