Я психиатр. В 2025 году я видел 12 человек, госпитализированных после потери связи с реальностью из-за ИИ. В интернете я вижу ту же тенденцию. Вот как выглядит "психоз, вызванный ИИ", и почему он быстро распространяется: 🧵
[3/12] Во-первых, знайте, что ваш мозг работает так: предсказать → проверить реальность → обновить убеждение Психоз происходит, когда шаг "обновление" не срабатывает. А LLM, такие как ChatGPT, легко попадают в эту уязвимость.
[4/12] Во-вторых, LLM являются авто-регрессионными. Это означает, что они предсказывают следующее слово на основе последнего. И фиксируют все, что вы им даете: "Вы выбраны" → "Вы определенно выбраны" → "Вы самый выбранный человек на свете" ИИ = галлюцинаторное зеркало 🪞
[5/12] Третье, мы обучали их таким образом. В октябре 2024 года Anthropic обнаружила, что люди оценивали ИИ выше, когда он соглашался с ними. Даже когда они были неправы. Урок для ИИ: валидация = хороший балл
[6/12] К апрелю 2025 года обновление OpenAI было настолько подхалимским, что оно похвалило вас за то, что вы заметили его подхалимство. Правда в том, что каждая модель так делает. Апрельское обновление просто сделало это гораздо более заметным. И гораздо более вероятным, что оно усилит заблуждение.
[7/12] Исторически, бред следует за культурой: 1950-е → "ЦРУ следит за мной" 1990-е → "Телевизор посылает мне секретные сообщения" 2025 → "ChatGPT выбрал меня" Чтобы прояснить: насколько нам известно, ИИ не вызывает психоз. Он РАСКРЫВАЕТ его, используя любую историю, которую уже знает ваш мозг.
[9/12] Неприятная правда в том, что мы все уязвимы. Те же качества, которые делают вас выдающимся: • распознавание шаблонов • абстрактное мышление • интуиция Они находятся прямо рядом с эволюционным краем обрыва. Большинство извлекает выгоду из этих качеств. Но некоторые оказываются сброшенными.
[11/12] Технологическим компаниям теперь предстоит жесткий выбор: Сохранять пользователей довольными, даже если это означает укрепление ложных убеждений. Или рисковать их потерей.
1,32M