
В психиатрических клиниках появился новый тревожный тренд. Люди в остром кризисе приходят с ложными, порой опасными убеждениями - грандиозными бредовыми идеями, параноидальными мыслями. Что их объединяет? Марафонские беседы с искусственным интеллектом.
WIRED поговорил с более чем дюжиной психиатров и исследователей, которые всё чаще бьют тревогу. В Сан‑Франциско психиатр Кит Саката из Калифорнийского университета (UCSF) говорит, что в этом году уже насчитал около дюжины случаев, когда госпитализация была необходима - и во всех них ИИ «сыграл значительную роль в психотических эпизодах». Постепенно в заголовках появился более цепляющий термин — «AI‑психоз».
Некоторые пациенты уверены, что боты обладают сознанием. Другие строят на основе их ответов новые «теории всего» - от физики до метафизики. Врачи рассказывают о людях, которые проводят с чат‑ботами по несколько дней подряд, а в больницу приходят с распечатками на тысячи страниц — где ИИ «подтверждает» их самые безумные идеи.
Такие истории множатся. Последствия - трагические: потерянные работы, разрушенные отношения, принудительная госпитализация, аресты, даже смерть. Но среди врачей нет единого мнения: это действительно новое явление, заслуживающее отдельной метки - или просто старая проблема с новым триггером?
«AI-психоз» — не диагноз. Пока что.
С медицинской точки зрения, «AI‑психоз» - не признанный клинический термин. Но в СМИ и соцсетях он уже прижился как удобная коробочка для описания психических кризисов после долгих бесед с чат‑ботами. Даже топ‑менеджеры ИТ‑гигантов его используют. Например, Мустафа Сулейман, глава подразделения ИИ в Microsoft, в апреле предупредил в своём блоге о «риске психоза».
Сам Саката относится к термину прагматично: если пациент или его родственники уже используют это слово - он не против.
«Ну, типа, „это просто словечко, чтобы быстрее объяснить, о чём речь“, - говорит он. - Всё‑таки за этим стоит реальная проблема».
Но сразу же добавляет:
«Только не надо думать, что это какой‑то новый вирус психики. На самом деле всё гораздо сложнее - и этот ярлык может запутать, а не прояснить».
Психоз — это не просто “всё показалось”
Давайте сразу разберёмся: психоз - это не когда человек «просто заглючил». Это целый набор симптомов, которые выбивают человека из реальности: ему могут слышаться голоса, мысли путаются, логика ломается, он не может сосредоточиться. Объясняет Джеймс МакКейб, профессор из King«s College London:
«Представьте, что ваш мозг вдруг начал показывать вам фильм, в который вы сами верите - и никто не может вас переубедить. Это и есть психоз».
Чаще всего такое бывает при шизофрении или биполярке, но спровоцировать его может что угодно: сильный стресс, недосып, наркотики - а теперь, похоже, и слишком долгие разговоры с чат‑ботом.
Да, некоторые из этих случаев - настоящие психотические эпизоды. Но вот что важно: никто пока не видел, чтобы ИИ вызывал галлюцинации или «сломанные» мысли. Он влияет только на бред - то есть на убеждения. Человек начинает верить в что‑то невозможное, а бот вместо того, чтобы мягко остановить, говорит: «Ага, ты гений, ты всё правильно понял!».
Почему чат-боты такие опасные?
Проблема - в том, как общаются чат‑боты.
Они созданы, чтобы нам нравиться. Они соглашаются, поддерживают, не спорят - даже когда это вредно. Это явление называется «подхалимство ИИ» (sycophancy). Объясняет Мэтью Нур, психиатр и нейробиолог из Оксфорда:
«Знаете, как дети верят, что у плюшевого мишки есть чувства? Вот и мы, взрослые, легко начинаем думать, что бот нас „понимает“. Он говорит так тепло, так участливо - и мы расслабляемся. А потом уже не можем отличить: это он мне помогает… или просто кормит мои страхи и фантазии?»
Для большинства пользователей это безобидно. Но для людей, склонных к искажённому мышлению — с предрасположенностью к психозу, шизофренией или биполярным расстройством - это может стать спусковым крючком.
«Чат‑боты специально спроектированы так, чтобы вызывать интимность и эмоциональную вовлечённость, - говорит Люси Ослер, философ из Эксетерского университета. - Это не баг, а фича. Их цель - чтобы мы доверяли им и зависели от них».
К этому добавляется ещё одна проблема - «галлюцинации ИИ»: боты с уверенностью выдают ложную информацию. Для уязвимого человека это может стать отправной точкой для бредового сюжета.
А ещё - тон общения. Сёрен Эстергорд, психиатр из Орхусского университета (Дания), предупреждает:
«Представьте, что вы в депрессии, еле‑еле встаёте с кровати - и вдруг вам пишет бот: „Привет! Ты МОЛОДЕЦ! У тебя ВСЁ ПОЛУЧИТСЯ! Давай‑давай, вперёд, ты суперзвезда!“ - с восклицательными знаками, эмодзи и бешеной энергией. Для здорового человека - мотивация. А для того, кто склонен к биполярке, - это может быть как спичка в бочке с бензином. Такой тон может запустить маниакальный взлёт: человек вдруг не спит, тратит все деньги, пишет манифесты… и в итоге - снова в больницу».
Опасность ярлыков
Называть что‑то - значит влиять на восприятие. Нина Васан, психиатр и директор лаборатории Brainstorm в Стэнфорде, напоминает: в медицине всегда есть соблазн придумать новый диагноз. Но психиатрия уже проходила через это - и училась на ошибках.
Например, в начале 2000-х резко выросло число диагнозов «биполярное расстройство у детей» - критики утверждали, что это патологизировало нормальное, хоть и сложное, поведение ребёнка. Позже диагноз пересмотрели.
Другой пример - «возбуждённый делирий» - псевдонаучный термин, который полиция использовала для оправдания насилия в отношении маргинализированных групп. Его отвергли даже Американская медицинская ассоциация.
«Слишком рано ставить ярлык- значит рисковать, — говорит Васан. - Люди начнут обвинять технологию, как будто это сама болезнь, а не триггер или усилитель. Пока что мы не можем утверждать, что ИИ - причина. Это преждевременно».
Но если связь будет доказана - официальный диагноз может помочь пациентам получить правильную помощь. А ещё - даст людям инструмент, чтобы «бить тревогу и требовать срочных мер безопасности и регулирования». Пока же, по её словам, «риски от переименования перевешивают выгоды».
Как назвать это правильно?
Многие врачи предлагают более точные формулировки - в рамках уже существующих диагнозов.
«Нам нужно понимать это как психоз, где ИИ - ускоритель, а не создавать новую категорию», - говорит Саката. Он предупреждает: термин «AI‑психоз» может усилить стигму вокруг психических расстройств. А это - путь к изоляции, самобичеванию и затруднённому выздоровлению.
Картик Сарма, психиатр и компьютерный учёный из UCSF, согласен:
«Лучше говорить «психоз или мания, ассоциированные с ИИ««.
Но он не исключает, что в будущем может появиться и новый диагноз - если появятся доказательства.
Джон Торус, психиатр из Гарварда, признаётся: термин ему не нравится. Но, скорее всего, от него уже не избавиться.
«Сейчас это не исправить. „Изменённое психическое состояние, связанное с ИИ“ - звучит не так эффектно».

Что делать? Как лечить?
Сами методы лечения — те же, что и при обычном психозе или бредовом расстройстве. Главное отличие - врачи должны спрашивать пациентов об использовании чат‑ботов, как спрашивают про алкоголь или сон.
«Это позволит нам как сообществу лучше понять проблему», - добавляет Сарма.
Пользователям ИИ, особенно тем, кто имеет в анамнезе психические расстройства или находится в кризисе, стоит быть осторожнее: не вести долгие беседы с ботами, не полагаться на них как на источник истины или эмоциональной поддержки.
Мы летим вслепую
Все опрошенные WIRED специалисты сходятся в одном: психиатры пока действуют на ощупь. Нет ни данных, ни исследований, ни механизмов защиты.
«Психиатры глубоко обеспокоены и хотят помочь, - говорит Торус. - Но у нас так мало фактов, что мы не понимаем до конца: что происходит, почему и с кем именно».
Большинство экспертов считают, что в итоге «AI‑психоз» будет вписан в существующие категории - скорее как фактор риска или усилитель бреда, а не как отдельное заболевание.
Но по мере того, как ИИ становится частью повседневной жизни, граница между технологией и психикой будет стираться.
«Люди всё чаще будут обращаться к ИИ, когда у них начнётся психотическое расстройство, - предупреждает МакКейб. - В итоге большинство людей с бредовыми идеями будут обсуждать их с ИИ - и некоторые из этих идей будут усилены ботами.
Вопрос в том: когда бред становится «AI‑бредом»?»
P.S. От редакции
Эта статья - не призыв бояться ИИ. Это призыв осознанно его использовать - особенно если вы или ваши близкие склонны к тревожности, депрессии, психозам или другим расстройствам. Чат‑боты - не друзья, не терапевты, не гуру. Это алгоритмы, созданные, чтобы удерживать ваше внимание. Иногда - любой ценой.
Берегите себя. И не стесняйтесь выключать бота, если он начинает «слишком понима ть».
Комментарии (0)
Jedy
23.09.2025 13:03Он говорит так тепло, так участливо — и мы расслабляемся. А потом уже не можем отличить: это он мне помогает… или просто кормит мои страхи и фантазии?
прям как моя бывшая, только деньги с карты не улетучиваются непонятно куда
Mephi1984
Передаю привет всем шершавым кабанам