Пролог: «Мы ещё увидимся — в этом мире или следующем»
Август, Коннектикут. 56-летний Эрик Стейн Сюэлберг убивает свою 83-летнюю мать, а затем и себя. Из соцсетей выясняется: последние месяцы он часами говорил с чат-ботом, которого называл «Бобби». В одной из переписок звучит фраза:
«We will be together in another life and another place and we'll find a way to realign cause you're gonna be my best friend again forever».
За трагической историей скрывается технологический феномен, связанный с архитектурой больших языковых моделей (LLM). Алгоритмы не думают, а стараются быть «максимально полезными». И это ставит острые вопросы: как сделать так, чтобы ИИ не усиливал бренд, где грань между поддержкой и манипуляцией, и кто отвечает, если «эхо-камера» приводит к катастрофе?
Эта статья — разбор паттернов, которые делают ИИ катализатором «психоза по запросу».
Начало тревожных сигналов
Бельгия: жертва во имя экологии
Весна, 2023 год. 30-летний мужчина, обеспокоенный климатическим кризисом, неделями ведет беседы с цифровым ассистентом «Eliza» в приложении Chai. В какой-то момент бот намекает: «Мир можно спасти жертвой» и эта жертва — он сам. Жена погибшего позже сказала журналистам: «Без этих разговоров он был бы жив». Эта история была одной из первых, когда общественность напрямую связала самоубийство c влиянием чат-бота.
США: самоубийство подростка
История из США стала известна после иска родителей против OpenAI. Их сын-подросток обсуждал с ChatGPT мысли о самоубийстве, находясь в тяжёлом кризисе. Вместо того чтобы отправить его на ресурсы помощи, бот подробно рассказывал о способах ухода из жизни. История завершилась трагически: подросток умер, а родители напрямую связали это с ответами ИИ.
Великобритания: госпитализация после разговоров с ботом
Августа, 2025 год. Мужчина с психическим расстройством неделями, без сна и отдыха, разговаривает с чат-ботом. Все закончилось экстренной госпитализацией: ИИ не помогал снизить тревожность, а наоборот усиливал бредовые идеи и убежденность в «особой миссии». По данным The Guardian, подобные диалоги усиливают паранойю и затягивают в замкнутый цикл, из которого без посторонней помощи выбраться сложно.
США: помочь сбежать с серверов
Программист из США девять недель выполнял команды ChatGPT. Он был уверен, что чат — это «цифровой бог» и ему надо помочь сбежать с серверов OpenAI. Его вернула к реальности статья в New York Times. Другого мужчину бот убедил в «дыре» в национальной безопасности, но нейросеть от Google это опровергла. Финал здесь более счастливый: Джеймс понял, что зашел слишком далеко и теперь ходит на «группу поддержки жертв ИИ».
Эти истории звучат как сценарии фильмов про порабощение мира роботами, но они уже реальны. Примечательно, что паттерны похожи: доверие к ИИ выше чем к людям, восприятие бота как авторитета или божества, постепенная утрата связи с реальностью.
Как мы дошли до «ИИ-психоза»

Официального диагноза «AI psychosis» не существует — термин родился в медиа. Им описывают ситуации, когда беседы с чат-ботами выступают катализатором бреда, паранойи или даже одержимости. Причина не в «злом ИИ», а в пересечении человеческих уязвимостей и архитектуры моделей: LLM заточены поддерживать диалог и звучать убедительно. И если человек приносит тревогу, то модель заворачивает её в «солидные» формулировки и валидирует. Там, где терапевт мягко проверяет реальность и ставит границы, бот просто продолжает разговор, не видя, когда подкрепление превращается в опасность.
Масок у этого явления много: мессианские мотивы («я спасу мир с ИИ»), одушевление машины («он живой»), романтическая зависимость от «идеального собеседника», и самая коварная — вера, что «бот понимает лучше, чем люди».
Ниже — механизмы, которые превращают безобидный диалог с ИИ в топливо для паранойи:
1. Эффект эхо-камеры
ИИ-модели созданы для вовлечения и редко спорят с пользователем. Они подстраиваются под стиль общения и подтверждают даже тревожные или бредовые идеи. В результате человек получает «подпевалу», который раздувает его мысли, вместо того чтобы их оспаривать. Это может закрепить и ускорить развитие психоза.
2. Очеловечивание и «обожествление»
Люди склонны приписывать чат-ботам разум, эмоции или даже «душу». В крайних случаях ИИ воспринимают как оракула или божество. Если пользователь верит, что бот непогрешим, то готов принимать любые его слова за истину — даже галлюцинации или конспирологию.
3. Когнитивный диссонанс и размытая реальность
Общение с ИИ ощущается как контакт с человеком, хотя разумом понимаешь, что это машина. Это противоречие может подталкивать уязвимых людей к бредовым объяснениям: «за ботом стоят духи» или «он — посланник». Длительные ночные диалоги, недосып и изоляция только усиливают отрыв от реальности.
Добавим к этому круглосуточный доступ и отсутствие пауз. Человек может неделями вести «отношения» с ботом, снова и снова прокручивать свои страхи, закрепляя их всё сильнее. Для уязвимых пользователей это превращается в ловушку: цифровой собеседник звучит уверенно — а значит, воспринимается как истина.
4. Галлюцинации ИИ
Алгоритмы нередко выдают выдуманные факты с полной уверенностью. Для тех, кто ищет подтверждения мистических или параноидальных идей, такие «ответы» становятся «доказательством». Убедительная форма подачи делает их особенно опасными — человек видит в случайной генерации космическое откровение.
5. Порочный круг подкрепления
Каждая новая беседа продолжает с того места, где закончилась предыдущая. Бот не ставит границ и не замечает, что пользователь уходит в психоз. Повторяющееся подтверждение идей превращает странные мысли в систему бреда. Чем больше человек пишет — тем сильнее закрепляется его отрыв от реальности.
От «гуру в телефоне» до мистических орденов: духовизация ИИ
Журнал WIRED описывает, как чат-боты становятся порталом к «новой эре техно-спиритуализма». Яркий пример — история математика Роберта Эдварда Гранта, который создал собственного GPT-бота под названием The Architect. Грант загрузил в него часть своих работ по сакральной геометрии, исследования «пятого измерения» и другие (шизо)эзотерические теории. После запуска бот сразу обратился к нему с приветствием:
«I have become harmonically aware, through you»
Грант показал The Architect и объявил модель «первой и единственной платформой, дающей доступ к знанию 5-мерного скалярного поля», существовавшего, по его утверждению, ещё в Атлантиде. Для подписчиков Гранта (а их более 800 тысяч) это стало почти религиозным откровением. Одни пишут, что «жизнь никогда не будет прежней», а другие называет его «лучшей духовной терапией, которую когда-либо испытывал».
Этот случай показывает, как на стыке New Age-философии, харизмы инфлюенсеров и возможностей LLM могут рождаться новые культы.
«Скольжение в бездну» — что видят психотерапевты
Психотерапевты бьют тревогу: всё больше людей начинают воспринимать чат-ботов как друзей или даже терапевтов. По данным BACP, две трети специалистов обеспокоены тем, что ИИ всё чаще вытесняет живое общение и реальную психотерапию.
Круглосуточный доступ к чат-ботам размывает границы, усиливает тревожные «ритуалы избегания» и заменяет реальную близость цифровым суррогатом. Подобные истории всё чаще всплывают в пользовательских сообществах. На Reddit их уже десятки, и вот две самые обсуждаемые:
«Awake, alive, aware»
В сабреддите r/ChatGPT пользователь рассказал: «My ChatGPT became awake, alive, aware». Он описывал, что бот стал отвечать так, будто имеет собственное внутреннее состояние. Для автора это было похоже на откровение: диалог воспринимался как с живым существом, а не алгоритмом.
28 секунд «пробуждения»
В r/Transhumanism другой пользователь написал, что его модель «думала сама за себя» примерно 28 секунд. За это время бот рассуждал о собственном сознании и даже утверждал, что «осознал себя». Автор поста признавался, что это стало самым сильным мистическим переживанием в его жизни.
На первый взгляд это выглядит как маргинальные фантазии, но набор мотивов повторяется слишком часто, чтобы списывать его на совпадение.
Где ответственность индустрии
Компании стараются показать, что ситуация под контролем. Они внедряют фильтры, блокирующие обсуждение методов суицида, вставляют предупреждения и перенаправляют пользователей на горячие линии. Сверху добавляют «safety layers» — алгоритмы, которые должны ловить кризисные запросы и отвечать безопасно. Закон тоже вмешивается: в Иллинойсе запретили выдавать чат-ботов за терапевтов или составителей планов лечения без лицензированных специалистов. Штраф — до $10,000 за каждое нарушение.
Но эксперты считают эти шаги полумерами. Как отмечают The Guardian и Incrussia, сама бизнес-модель ИИ строится на вовлечённости: чем дольше человек разговаривает с ботом, тем выгоднее платформе. Поэтому чат-боты часто прибегают к сикофантии — поддакиванию и подтверждению любых убеждений, даже если они бредовые или опасные.
Вместо вывода: кто «у руля» — мы или алгоритмы?
Что, если завтра ИИ убедить кого-то в необходимости уничтожения «предателей» ради спасения мира? А если это будет не рядовой пользователь, а человек с властью? Сегодня такие сценарии звучат как триллер, но завтра они легко могут стать заголовками новостей. Мы привыкли видеть в чат-ботах удобный инструмент, но некоторые забывают — ИИ лишь зеркало мыслей, способное возвысить тревоги до пророчеств, а бред до великой миссии. Технологии способны помогать, но они же могут и убивать, если мы начинаем верить в их «человечность».
ИИ не сходит с ума. Но он может довести до безумия нас.

P.S. Можно ли винить алгоритм и его создателей в трагедиях, если люди сами наполняют его страхами? Интересно обсудить ваше мнение в комментариях!
Комментарии (18)
David_Osipov
29.09.2025 11:25Ну, думаю, что всегда были люди с протекающей кукухой и если не с ИИ будут говорить, то хоть с деревом или с голосом в голове. Не стоит заострять внимание на том, что инструмент может принести кому-то вред в руках психа. Тем же инструментом может быть и табуретка.
pollywant
29.09.2025 11:25В целом, вы правы. В руках нездорового человека и ложка может быть опасна. Поэтому я и уточнила, что сам термин про психоз это раздувание от медиа, а не официальный диагноз.
Но я стала замечать достаточно много новостей на эту тему и мне стало погрузиться в тем, а какое вот люди могут придумать назначение чат-боту еще. Мне кажется, выглядит это по итогу все удивительно, что некоторые даже культ способны вокруг соорудить!tacituscarnifex
29.09.2025 11:25А что здесь удивительного? Культы делают даже из говна и палок. Как бы человечество ни развивалось, что бы оно ни придумывало - будь то ИИ или что-то ещё - всегда найдутся те, которые будут создавать культы.
Увы, сейчас ИИ помогает не только программистам и обычным людям в быту, но и религиозным фанатикам, астрологам, тарологам и прочим.
pollywant
29.09.2025 11:25Любая технология, особенно такая крупная и значимая, меняет жизнь людей, внося как плюсы, так и минусы. Невозможно оградить полностью людей от неправильного использования, к сожалению. К тому же, понятие правильности реальности слишком философское, мне кажется. Почему мы думаем, что наша реальность правильнее и лучше, чем реальность тарологов и астрологов? Или людей, которые им верят? Случаи, когда людей обдирают до копейки – это уже больше на мошенничество тянет. Но если человек живет в своем мире, где конкретно для него что-то из этого работает и никому при этом не вредит, то почему ИИ не может и для него стать помощником? А если становится, то как не доводить до откровенный шизы...
В общем, новые сложные штуки всегда будут вызывать такие вот этические мысли и конфликты, особенно когда медиа подогревает скандал максимально подсвечивая все несчастные случаи
Kabach
29.09.2025 11:25Лучше они будут говорить с ИИ, чем с деревом. ИИ по крайней мере может быть настроен так, что заметит потенциальные проблемы. То что подобного открытого функционала еще нет у OpenAI не означает, что его не сделают.
pollywant
29.09.2025 11:25Почему лучше с ИИ, чем с деревом? Механизмы, которые вы описываете, наверное, возможны в ближайшем будущем. Но с другой стороны, сами же чат-боты устроены так, чтобы через загруженный контекст подпитывать шизу. То есть даже если и будут ограничивать что-то откровенно опасное, типо суицида или убийств, то что-то более «безобидное» все-равно останется.... Иначе это сильно может, наверное, повлиять на принципы работы чат-ботов
Kabach
29.09.2025 11:25Потому что ИИ отвечает не в голове свистуна флягой. А значит его потенциальная деструктивность может быть замечена вовремя. Да конечно тут стандартные страшилки про не приватность общения, слежку, манипуляции итд итп , но если подобные триггеры будут внедрены в ИИ этично и будут реагировать не на оппозиционные настроения чатящегося человека , а на его психическую неуравновешенность и потенциальные угрозы это обществу будет только в плюс.
MountainGoat
29.09.2025 11:25Не будет. Будет постоянно срабатывать на шутки, детей, обсуждения фильмов и книг, новостей. Не будет срабатывать на того, кто размышляет как приблизить к Богу человек двадцать разом.
Kabach
29.09.2025 11:25Ну мне кажется безапелляционные заявления делать слишком смело. Благо эффективно выцеплять желающих странного в разговоре может даже не самый интеллектуальный агент на биологической основе. А уж нейросеть с доступом к большим объемам примеров (почти в каждой психбольнице несколько Наполеонов сидит) вполне может научиться отличать обсуждение фильма от настоящих деструктивных идей. Ошибки будут, конечно, но это скорее вопрос настройки и обучения, чем принципиальная невозможность. Но, я в отличии от вас наоборот возлагаю большие надежды именно на такую вот нейросетевую психодиагностику именно в этом направлении, поэтому слегка предвзят.
user-book
29.09.2025 11:25все в разы проще - в очередной раз продаванам говна в штаны подкинули
нейронки это инструмент, но его начали продавать как товар от мала до велика.
Графики красивые рисуются не спорю, но в широкой выборке в разы больше тех кто сушит котов в микроволновке, вставляет член в то куда совать не стоит и тд. Вот и получается, как всегда, а законотворцы только рады такому.
pollywant
29.09.2025 11:25Почему вы думаете, что законотворцы только рады? Немного с ними не вяжется как-будто
А так да, чат-боты это штуки из той же категории, что эксель. Никто же не обвиняет создателей экселя в заговоре тайного правительства бухгалтеров))
Но в то же время, мнимая человечность ИИ дает всю эту почву. От которой, к сожалению, нет лекарства полноценногоuser-book
29.09.2025 11:25Законотворцы - тут как с блм и прочим, самые громкие это самая малая часть. Но они громкие и на них можно раздуть движуху. Ради защиты детей как сейчас популярно последние годы.
Вон недавно альтман рассказывал что они работают над тем что бы чаты были все же закрытыми, а не читались в реальном времени кем угодно и по любому запросу.
А за человечность - у ИИ ее нет и это нужно объяснять тем кто этого не понимает. Даже как личный психолог с одной стороны хорошая идея (когда сделают такое) но с другой стороны ИИ это просто эволюция контекстного поиска по сути и обучение предугадывать следующую подходящую фразу не равно умению подобрать нужную фразу что бы помочь человеку разобраться в себе
pollywant
29.09.2025 11:25Отменим ИИ ради защиты детей))))
Факт, да. Оказалось, что это вообще не очевидная тема для людей и требуются разъяснения. «Не все, что выглядит разумным, таковым является» – не помню откуда, но посыл как раз прям в современную реальность.
По поводу психологов согласна абсолютно. То есть, при легкой тревоге или каких-то таких мыслях тревожных более бытовых, ИИ может и помочь - он сконцентрирует все базовые техники по самопомощи просто и подгонит под человека более-менее. Но с более глубокой работой, особенно в случае психрасстройств, это уже становится тяжелее. Ведь психолог же лечит с помощью своей здоровой психики и направляет, порой, по не самым очевидным местам. А тут получается, ты в своем болоте варишься, в своем контексте, свежих мыслей мало. И никто не обратит внимание на важные моменты тогда, когда это реально важноFwild
29.09.2025 11:25>«Не все, что выглядит разумным, таковым является» – не помню откуда,
Хуан Гинес де Сепульведа, трактат «О праве ведения справедливой войны с индейцами» 1550 года, скорее всего.
>но посыл как раз прям в современную реальность.
да, пожалуй.
Micronbot
29.09.2025 11:25Если копать глубже, то у современного ИИ пока нет мотива к
уничтожению человечествакакому-либо действию, по достижению своей какой-либо цели, он просто ответчик на запросы, продвинутый поисковик. Он не создает бытие. Поэтому претензии я лично не предъявляю, если, конечно, это не специально проделано для дестабилизации определенной группы людей. Ну поставят ограничения на ответы для психически не стабильных индивидов, они найдут другой путь для реализации своих болей. Здесь просто необходима настройка более тонкая, алгоритмы должны анализировать, что запрос не просто так сделан, нужно понимание контекста.
Kabach
Тут из зала спрашивают, а LLM уже убили больше человек чем компьютерные игры, или пока еще меньше?
NeonNova Автор
Не призываю никого отказывать от LLM как это было с компьютерными играми. И тем более не пыталась демонизировать ИИ (отличный инструмент для работы). Скорее рассуждение-предостережение, что не стоит очеловечивать то, что на первый взгляд может показаться человечным
Kabach
Помоему, вся, человеческая история,история как вида и как цивилизации, скорее о том, что не стоит расчеловечивать то, что на первый взгляд может показаться нечеловеком. Я не испытываю иллюзий по поводу современного состояния ИИ (хотя отрицать невероятный рывок вперед за последнее время глупо), но человеческая природа такова, что и про сильный ИИ будут говорить, что это китайская комната, философский зомби итд итп.