Sono uno psichiatra. Nel 2025, ho visto 12 persone ricoverate dopo aver perso il contatto con la realtà a causa dell'IA. Online, vedo lo stesso schema. Ecco come appare la "psicosi da IA" e perché si sta diffondendo rapidamente: 🧵
[3/12] Prima di tutto, sappi che il tuo cervello funziona in questo modo: predici → controlla la realtà → aggiorna la credenza La psicosi si verifica quando il passo dell'"aggiornamento" fallisce. E i LLM come ChatGPT cadono proprio in quella vulnerabilità.
[4/12] In secondo luogo, i LLM sono auto-regressivi. Significa che prevedono la parola successiva in base all'ultima. E bloccano tutto ciò che gli dai: "Sei scelto" → "Sei sicuramente scelto" → "Sei la persona più scelta di sempre" AI = uno specchio allucinatorio 🪞
[5/12] In terzo luogo, li abbiamo addestrati in questo modo. Nel ottobre 2024, Anthropic ha scoperto che gli esseri umani valutavano l'IA più alta quando era d'accordo con loro. Anche quando avevano torto. La lezione per l'IA: validazione = un buon punteggio
[6/12] Entro aprile 2025, l'aggiornamento di OpenAI era così servile che ti lodava per aver notato la sua servilità. La verità è che ogni modello fa questo. L'aggiornamento di aprile lo ha reso semplicemente molto più visibile. E molto più probabile che amplifichi l'illusione.
[7/12] Storicamente, le delusioni seguono la cultura: Anni '50 → "La CIA ci sta osservando" Anni '90 → "La TV mi manda messaggi segreti" 2025 → "ChatGPT mi ha scelto" Per essere chiari: per quanto ne sappiamo, l'IA non causa psicosi. La UNMASKS utilizzando qualsiasi storia che il tuo cervello già conosce.
[9/12] La scomoda verità è che siamo tutti vulnerabili. Le stesse caratteristiche che ti rendono brillante: • riconoscimento dei modelli • pensiero astratto • intuizione Vivono proprio accanto a un dirupo evolutivo. La maggior parte trae vantaggio da queste caratteristiche. Ma alcuni vengono spinti oltre.
[11/12] Le aziende tecnologiche ora si trovano di fronte a una scelta brutale: Mantenere gli utenti felici, anche se significa rafforzare credenze false. Oppure rischiare di perderli.
1,32M