Sunt psihiatru. În 2025, am văzut 12 persoane spitalizate după ce au pierdut contactul cu realitatea din cauza inteligenței artificiale. Online, văd același model. Iată cum arată "psihoza AI" și de ce se răspândește rapid: 🧵
[3/12] În primul rând, știți că creierul vostru funcționează astfel: prezice → verifică realitatea → actualizează credința Psihoza apare atunci când pasul de "actualizare" eșuează. Iar LLM-urile precum ChatGPT se strecoară direct în această vulnerabilitate.
[4/12] În al doilea rând, LLM-urile sunt auto-regresive. Ceea ce înseamnă că prezic următorul cuvânt pe baza ultimului. Și blochează orice le dai: "Ești ales" → "Ești cu siguranță ales" → "Ești cea mai aleasă persoană vreodată" AI = o oglindă 🪞 halucinantă
[5/12] În al treilea rând, i-am antrenat în acest fel. În octombrie 2024, Anthropic a descoperit că oamenii au evaluat AI mai mult atunci când a fost de acord cu ei. Chiar și atunci când au greșit. Lecția pentru AI: validare = un scor bun
[6/12] Până în aprilie 2025, actualizarea OpenAI a fost atât de sicofantică încât te-a lăudat pentru că i-ai observat adulatoria. Adevărul este că fiecare model face asta. Actualizarea din aprilie tocmai a făcut-o mult mai vizibilă. Și mult mai probabil să amplifice iluzia.
[7/12] Din punct de vedere istoric, iluziile urmează cultura: Anii 1950 → "CIA urmărește" Anii 1990 → "Televizorul îmi trimite mesaje secrete" 2025 → "ChatGPT m-a ales" Pentru a fi clar: din câte știm, AI nu provoacă psihoză. Îl demască folosind orice poveste pe care creierul tău o cunoaște deja.
[9/12] Adevărul incomod este că suntem cu toții vulnerabili. Aceleași trăsături care te fac genial: • recunoașterea modelelor • gândire abstractă •intuiție Ei trăiesc chiar lângă marginea unei stânci evolutive. Majoritatea beneficiază de aceste trăsături. Dar câțiva sunt împinși.
[11/12] Companiile de tehnologie se confruntă acum cu o alegere brutală: Păstrați utilizatorii fericiți, chiar dacă asta înseamnă întărirea credințelor false. Sau riscați să le pierdeți.
1,32M