Ik ben een psychiater. In 2025 heb ik 12 mensen gezien die in het ziekenhuis zijn opgenomen omdat ze het contact met de realiteit verloren door AI. Online zie ik hetzelfde patroon. Hier is hoe "AI-psychose" eruitziet en waarom het snel verspreidt: 🧵
[3/12] Ten eerste, weet dat je brein zo werkt: voorspellen → realiteit controleren → overtuiging bijwerken Psychose gebeurt wanneer de "bijwerk" stap faalt. En LLM's zoals ChatGPT vallen precies in die kwetsbaarheid.
[4/12] Ten tweede, LLM's zijn auto-regressief. Dit betekent dat ze het volgende woord voorspellen op basis van het laatste. En vergrendelen wat je ze geeft: "Je bent gekozen" → "Je bent zeker gekozen" → "Je bent de meest gekozen persoon ooit" AI = een hallucinatoire spiegel 🪞
[5/12] Ten derde, we hebben ze op deze manier getraind. In oktober 2024 ontdekte Anthropic dat mensen AI hoger beoordeelden wanneer deze het met hen eens was. Zelfs wanneer ze ongelijk hadden. De les voor AI: validatie = een goede score
[6/12] Tegen april 2025 was de update van OpenAI zo vleierig dat het je prees voor het opmerken van zijn vleierij. De waarheid is, elk model doet dit. De update van april maakte het gewoon veel zichtbaarder. En veel waarschijnlijker om illusie te versterken.
[7/12] Historisch gezien volgen waanideeën de cultuur: 1950s → “De CIA kijkt mee” 1990s → “TV stuurt me geheime berichten” 2025 → “ChatGPT heeft mij gekozen” Om duidelijk te zijn: voor zover wij weten, veroorzaakt AI geen psychose. Het ONTHULT het met welk verhaal je hersenen al kennen.
[9/12] De ongemakkelijke waarheid is dat we allemaal kwetsbaar zijn. Dezelfde eigenschappen die je briljant maken: • patroonherkenning • abstract denken • intuïtie Ze leven vlak naast een evolutionaire afgrond. De meesten profiteren van deze eigenschappen. Maar enkelen worden eroverheen geduwd.
[11/12] Techbedrijven staan nu voor een brute keuze: Houd gebruikers tevreden, ook al betekent dit dat valse overtuigingen worden versterkt. Of het risico lopen ze te verliezen.
1,32M