Jeg er psykiater. I 2025 har jeg sett 12 personer innlagt på sykehus etter å ha mistet kontakten med virkeligheten på grunn av AI. På nettet ser jeg det samme mønsteret. Slik ser «AI-psykose» ut, og hvorfor den sprer seg raskt: 🧵
[3/12] Først må du vite at hjernen din fungerer slik: Forutsi → sjekk virkeligheten → oppdater troen Psykose skjer når "oppdatering"-trinnet mislykkes. Og LLM-er som ChatGPT glir rett inn i den sårbarheten.
[4/12] For det andre er LLM-er auto-regressive. Det betyr at de forutsier neste ord basert på det siste. Og lås inn det du gir dem: «Du er utvalgt» → «Du er definitivt utvalgt» → «Du er den mest utvalgte personen noensinne» AI = et hallusinatorisk speil 🪞
[5/12] For det tredje trente vi dem på denne måten. I oktober 2024 fant Anthropic at mennesker vurderte AI høyere når de var enige med dem. Selv når de tok feil. Lærdommen for AI: validering = en god poengsum
[6/12] I april 2025 var OpenAIs oppdatering så sykofantisk at den berømmet deg for å legge merke til dens sykofant. Sannheten er at alle modeller gjør dette. April-oppdateringen gjorde det bare mye mer synlig. Og mye mer sannsynlig å forsterke vrangforestillinger.
[7/12] Historisk sett følger vrangforestillinger kultur: 1950-tallets → «CIA ser på» 1990-tallets → "TV sender meg hemmelige meldinger" 2025 → «ChatGPT valgte meg» For å være tydelig: så vidt vi vet, forårsaker ikke AI psykose. Den AVSLØRER den ved å bruke den historien hjernen din allerede vet.
[9/12] Den ubehagelige sannheten er at vi alle er sårbare. De samme egenskapene som gjør deg briljant: • Mønstergjenkjenning • abstrakt tenkning •intuisjon De bor rett ved siden av en evolusjonær klippekant. De fleste drar nytte av disse egenskapene. Men noen få blir dyttet overende.
[11/12] Teknologiselskaper står nå overfor et brutalt valg: Hold brukerne fornøyde, selv om det betyr å forsterke falske oppfatninger. Eller risikere å miste dem.
1,32M