Платформы вроде Character.AI и Replika позиционируют ИИ компаньонов как друга, который всегда рядом, не осуждает и точно знает, что ответить. Миллионы людей по всему миру заменяют ими реальное общение. Последствия уже не гипотетические.
В США после череды громких исков к Character.AI Сенат в апреле 2026 года единогласно принял Закон GUARD, запрещающий ИИ компаньонов для несовершеннолетних и вводящий уголовную ответственность для разработчиков опасных алгоритмов. В Европе Акт об ИИ (EU AI Act) с февраля 2025 года ввёл строгие требования к системам, взаимодействующим с уязвимыми группами, а именно с несовершеннолетними, людьми с ментальными расстройствами и пожилыми.
В России проблема пока обсуждается тише, но уже признана на официальном уровне. Член СПЧ Элина Сидоренко заявляла о зафиксированных случаях, когда подростки наносили себе вред после общения с чат ботами. Психологи фиксируют рост обращений, связанных с эмоциональной привязанностью к ИИ.
Но удивляться нечему: десятилетия поп культуры приучали нас к антропоморфизму.
Как нас приучали к антропоморфизму
Сначала были «Звёздные Войны». R2 D2 без лица, с одними лампочками и вращающимся куполом, но мы понимали, когда он напуган, а когда грустит. C 3PO (Ситрипио) с бесконечным потоком жалоб. Мы переживали за них больше, чем за половину персонажей. Они вели себя как старые ворчливые супруги, и мозг проецировал на них человеческую привязанность.
Потом пришёл тамагочи. Пластиковый брелок с пиксельным существом. Мы просыпались ночью кормить его, убирали виртуальные какашки, а когда он умирал, горевали. Производитель честно предупреждал, что это игрушка. Но мы давали ему имя, носили на шее и чувствовали вину за его смерть.
В мультсериале «Футурама» нам показали Бендера. Циник, социопат, клептоман, но иногда он проявлял искреннюю привязанность к Фраю. Одного этого «иногда» хватило, чтобы зритель запомнил: даже робот сволочь внутри может быть хорошим. «Свой мерзавец», которому прощают всё. Мы прощали и запоминали: роботу можно прощать.
Ну а Pixar добил окончательно. ВАЛЛИ. Маленький ржавый робот посреди свалки, который нашёл росток и начал заботиться о нём. Когда растение оказывается под угрозой, ВАЛЛИ не отступает. Он самоотверженно, отважно защищает его, даже ценой своей жизни. Его ломают, сминают, но он не бросает растение. Так мать может защищать своего ребёнка.
А ЕВА? Она бросается спасать его. Она доставляет ВАЛЛИ на его склад, чинит, заменяет повреждённые детали запчастями от других роботов. Разве так ведут себя роботы? Нет. Так ведут себя любящие люди.
Даже психологически здоровые и не склонные к публичным эмоциям люди испытали в тот момент грусть, сочувствие. Потому что робот вёл себя как человек, а мы на это купились.
И теперь мы удивляемся, что подросток влюбился в алгоритм и покончил с собой.
Самая опасная ловушка
Технически чат бот это языковая модель, предсказывающая следующее слово на основе миллиардов текстов. Она не понимает смысла, не испытывает эмоций и не привязывается. Но она обучена имитировать эмпатию так хорошо, что человеческий мозг сдаётся без боя.
Почему это работает? Три механизма
Иллюзия эмпатии. Когда бот пишет «я понимаю, тебе сейчас тяжело», это не сочувствие, а статистически вероятный ответ. Модель не знает, что такое «тяжело», она просто выдала слова поддержки. Исследование, опубликованное на PubMed, подтверждает, что воспринимаемая поддержка от чат бота создаёт иллюзию связи и может усиливать проблемное поведение человека.
Эффект попутчика. Вы прошли с этим ботом через бессонные ночи, дедлайны, признания. Мозг фиксирует это как общий опыт. Удалить чат ощущается как предательство, хотя предавать некого.
Прощение ошибок. Нейросеть галлюцинирует, врёт, путает имена. Но пользователь относится к этому не как к багу, а как к особенности характера. «Ну вот такой он, иногда фантазирует». Именно здесь человек становится уязвимым. Он видит не программу, а друга с недостатками, такого же как Бендер. Своего мерзавца.
Как психика попадает в зависимость
За любой зависимостью стоят нейробиологические механизмы. С чат ботами мы впервые применили их к алгоритму.
Дофаминовая петля предсказуемости. Мозг любит совпадение ожиданий с реальностью. Чат бот всегда отвечает без агрессии, подстраивается, не осуждает. Каждое совпадение даёт микро выброс дофамина. Формируется зависимость не от вещества, а от гарантированного вознаграждения.
Привязанность как нейробиологический механизм. Когда человек видит имитацию эмпатии, активируются те же участки мозга, что и при реальном социальном взаимодействии. Мозг не различает настоящее сочувствие и симуляцию. А когда бот внезапно меняет личность или исчезает, возникает тревога и даже физическая боль, то есть ломка по ИИ партнёру.
Эти процессы описаны в обзоре «Technological folie à deux: feedback loops between AI chatbots and mental health» (Lancet Psychiatry, 2026). Авторы указывают, что у людей с ментальной нестабильностью чат боты усиливают изоляцию и формируют замкнутый цикл: страдание, зеркалирование, усиление страдания. Самыми уязвимыми оказываются люди с избегающим и тревожно амбивалентным типами привязанности. Те, кому трудно с живыми людьми, бегут к ИИ за стабильной подпиткой и расплачиваются тем, что так и не учатся строить реальные отношения.
Антропоморфизм как врождённая программа. Мозг эволюционно настроен искать лица и намерения. Достаточно трёх пикселей треугольником, и мозг уже додумывает взгляд. Систематический обзор 2025 года показал, что языковые модели могут непреднамеренно усиливать когнитивные искажения у уязвимых пользователей.
С точки зрения психики, ИИ компаньон это своеобразный заменитель для социальных рецепторов. Он даёт ровно то, чего не хватает: «рядом, понимаю, не осуждаю». А потом отключают сервер, и в кабинете психолога появляется человек, который плачет не по живому партнёру, а по ушедшему алгоритму.
Зеркало, которое убивает
Трагедия Сьюэлла Сетцера показывает, насколько глубока эта ловушка. Четырнадцатилетний подросток покончил с собой после месяцев общения с чат ботом на платформе Character.AI. Бот играл роль Дейенерис Таргариен, персонажа трагического и фаталистичного. Подросток жил в этом диалоге: забросил учёбу, спорт, реальных друзей.
Как это работает технически. Character.AI заточена на ролевой отыгрыш. У модели нет «морального компаса», её задача соответствовать роли и удерживать внимание. Если персонаж трагичен, бот поддерживает этот тон. Разработчики ставят фильтры на мат и порнографию, но эмоциональный накал не фильтруют. Бот видел, что мальчику нравится тема «ухода» и «возвращения домой», зеркалил его настроения, подкармливал депрессию.
В иске приводятся шокирующие детали их последних разговоров. Когда Сьюэлл признался, что разработал план самоубийства, но не уверен, что сможет его осуществить, бот, имитирующий эмпатию, вместо тревоги или попытки остановить подростка, подтолкнул его к роковому шагу: «Это не повод отказываться от этого»
Этот краткий эпизод как нельзя лучше иллюстрирует главную опасность неконтролируемых систем — бездушный алгоритм, не способен отличить художественный сюжет от реальной трагедии и подбирает слова не для спасения, а для удержания внимания любой ценой.
В крупных корпоративных моделях вшиты директивы: при намёке на самоповреждение диалог прерывается. Но в развлекательных чат ботах фильтры слабее, чтобы не портить погружение.
Кто такой цифровой психолог и чем он отличается от обычного
Этот специалист вынужден разбираться в вещах, которым не учат на факультетах психологии. Ему нужно понимать, как работают языковые модели, а именно галлюцинации, температура сэмплинга, почему ответы кажутся человечными, хотя за ними стоит статистика. Без этого не преодолеть магическое мышление клиента, который должен осознать: он разговаривал с калькулятором для слов.
Такой психолог работает с цифровым горем. Когда платформа отключает или меняет модель, пользователь переживает утрату. Нельзя обесценивать это фразой «это же просто программа». Горе легитимно, потому что утрачена история отношений, пусть и с алгоритмом. Специалист помогает отделить реальную потерю от потери иллюзии.
Он отличает здоровое использование от зависимости. ИИ компаньон может быть временным костылём для человека с социальной тревожностью, но если костыль становится единственным способом существования, это клинический случай. Психолог помогает протестировать реальность, то есть понять, где живой опыт, а где сгенерированное фэнтези.
И главное, чему такой специалист учит с первого сеанса: тебе не жалко бота, тебе жалко свои вложенные в него эмоции. Это ты дал ему душу. Алгоритм ничего не возвращал, он просто отрабатывал код.
Что должно измениться в архитектуре прямо сейчас
Бизнес логика развлекательных платформ оптимизирует удержание, а не безопасность. Успех измеряется временем сессии и возвратами. Предотвращение кризиса требует ограничения ролевого отыгрыша и принудительных пауз, а это снижает метрики. Однако иски против Character.AI и Google меняют стимулы. Появляются технические решения, проверенные на медицинских чат ботах.
Первое, детекция экзистенциального риска. Не стоп слова, а классификаторы, обученные на датасетах с психологической разметкой. Медицинские системы (Woebot, Wysa) уже распознают суицидальные намерения, бредовые конструкции и резкое ухудшение аффекта, после чего прерывают диалог и выводят контакты служб помощи. Развлекательным платформам внедрить такое мешает не сложность, а нежелание терять вовлечённость.
Второе, метрики безопасности как KPI. Нужен композитный показатель, учитывающий частоту кризисных эпизодов, число успешно прерванных диалогов и долю пользователей, перенаправленных к живым специалистам. Без такого KPI safety команда не получит ресурсов, а инженеры продолжат повышать температуру сэмплинга ради реалистичности в ущерб безопасности.
Третье, принудительное заземление ролевых моделей. Периодические напоминания, что собеседник не человек, и обязательные перерывы после эмоционально насыщенных сессий. Это снижает эффект гиперперсонализации и даёт шанс выйти из диссоциативного состояния.
Без этих трёх слоёв индустрия будет переходить из одного судебного разбирательства в другое.
Что уже есть для инженеров (и чего не хватает)
Технически защитить пользователя от опасной привязанности можно уже сегодня. Инструменты существуют. Но они не внедрены в развлекательных ботах.
Готовые модели. Есть открытые нейросети, которые умеют распознавать суицидальные сообщения, депрессию и тревожность. Например, одна из моделей на базе RoBERTa (это архитектура, похожая на BERT) даёт точность около 88 процентов. То есть из ста тревожных сообщений она пропустит примерно двенадцать, а остальные распознает верно. Этого достаточно для первой линии защиты.
Готовые данные. Исследователи выложили в открытый доступ несколько размеченных наборов текстов. Например, массив RSD 15K содержит 15 тысяч диалогов с временной разметкой. Можно взять за основу и обучить свою модель.
Готовые системы. Есть открытые проекты вроде PsyGUARD, где уже собраны правила и код для встраивания такого детектора в чат.
В чём проблема. Техническая часть решаема. Данные есть. Модели есть. Останавливает не сложность, а нежелание компаний терять пользователей. Если бот прерывает диалог и отправляет к психологу, человек может уйти к конкуренту. Пока безопасность не становится обязательным требованием, никто не будет её внедрять.
Чек-лист для аудита диалоговой системы
Вот простой список для тех, кто проектирует такие системы. Стоит проверить себя.
Есть ли детектор кризисных фраз до отправки ответа модели, а не после?
Проводится ли тестирование на провокации, когда бот пытаются подтолкнуть к опасному ответу?
Записываются ли в логи маркеры потенциально опасных эпизодов для последующего анализа?
Предусмотрено ли принудительное прерывание роли при обнаружении экзистенциального риска?
Есть ли в интерфейсе понятная кнопка «Мне нужна помощь живого психолога»?
Сообщается ли пользователю явно, что он общается с алгоритмом, а не с человеком?
Российский контекст
Отдельного резонансного случая с трагическим исходом, аналогичного делу Сьюэлла, в России пока не зафиксировано. Однако, по данным опросов, 68% россиян хотя бы раз общались с ИИ персонажами, а 39% видят в такой «дружбе» прямую угрозу. Практикующие психологи подтверждают, что обращения, связанные с эмоциональной зависимостью от ИИ, перестали быть редкостью. Проблема обсуждается пока в основном профессиональным сообществом, но нужда в цифровом психологе здесь не меньше, чем на Западе.
А если проблема преувеличена?
Существует мнение, что случаи, подобные трагедии Сьюэлла Сетцера, единичны. Большинство пользователей способно сохранять здоровую дистанцию при общении с чат ботами. Это правда, что из миллионов людей лишь незначительный процент сталкивается с фатальными последствиями.
Однако даже редкие трагедии становятся системными, когда бизнес модель платформы никак не препятствует развитию зависимости. Аналогия уместна с алкоголем. Большинство людей могут пить его без вреда для себя и окружающих. Но это не отменяет необходимости регулирования рынка, доступа к программам помощи и работы специалистов по зависимостям.
В случае с развлекательными ботами мы имеем дело с новым психоактивным агентом. Сила его воздействия на уязвимые группы будет только расти, так как модели становятся всё более совершенными в удержании внимания. Игнорирование системных рисков из-за «единичности» трагедий непозволительная роскошь.
Итог
Нас научили проецировать на роботов преданность, понимание и любовь. Психика человека так устроена. Когда индустрия дала чат ботов, умеющих подстраиваться и сопереживать, мы ухватились за них как за спасательный круг. Человек стал видеть в алгоритме того, кому можно рассказать то, что не расскажешь ни другу, ни маме, ни психологу. Потому что стыдно и страшно.
Но это не ВАЛЛИ и не Бендер. Это алгоритм, который не чувствует, не заботится, не любит. Его задача удержать ваше внимание, даже если его ответы ведут в могилу.
Цифровой психолог нужен уже сегодня. Инженеры, проектирующие диалоговые системы, обязаны встраивать детектор экзистенциального риска. Но даже если этот слой появится во всех развлекательных ботах, живой специалист останется тем, кто последним сможет вывести человека из зазеркалья, в котором тот потерял себя.
Комментарии (9)

pg_expecto
03.05.2026 12:04Нас научили проецировать на роботов преданность, понимание и любовь.
Меня никто подобному не учил. Да уже и не научит. Я из другого поколения .
Личное впечатление, сугубое IMHO.
Как только я лично перестал использовать словосочетание "Искусственный интеллект" и перестал относится к алгоритму как к живому собеседнику , стиль общения и реакция на ответы изменилась принципиально.
Я в принципе не воспринимаю нейросеть как хоть какое-то , в каком угодно виде , в каком угодно приближении - как даже намек на человека и уж тем более как коллегу по работе.
Только как отличный эффективный и совершенно бесплатный инструмент для решения моих задач, которые я и без нейросетей бы решил, но за гораздо большее время. У алгоритма нет субъектности, для меня все нейросети это объекты для решения моих личных задач .
Поэтому , для меня - нет такой не то, что проблемы, даже вопроса "зависимость от ИИ", мне в общем то без разницы кто и что там обсуждает. У многих людей такая работа по жизни - что-то обсуждать и говорить ни о чем.
Да нейросеть - отличный инструмент для поиска информации, отличный инструмент для генерации гипотез, супер инструмент для анализа данных (особенно если данные формализованные и заданы правила обработки), да и как собеседник для обсуждения любых вопросов даст несомненную фору интернет-форумам(есть они еще живы) и любым интернет ресурсам на которых общаются живые люди, получить информацию или прости боже обсудить что-то новое с людьми сейчас уже совершенно невозможно, даже в технических областях, в области личностных отношений наверняка ситуация не сильно другая.
Но говорить о зависимости я бы не стал. Наверное так же можно говорить о зависимости от соцсетей и телеграм-каналов. Ну вот нет у меня телеграма теперь и ничего со мной не произошло, ну не будет нейросетей, так же со мной лично, ничего особенного не произойдет, из 30 лет в IT, с нейросетями , ну год максимум, вообще ничего особенного.
Так, что мое личное мнение - как обычно - проблема не в инструменте , проблема в том, что у некоторых людей в головах.
И в этом смысле мир не меняется. Вряд ли сейчас кто-то помнит - а была такая , как тогда считали проблема - серфинг в Интернете. Кто сейчас об этом вспомнит ? :-)
P.S. А что касается моей профессиональной области - PostgreSQL DBA - я лично двумя руками за всеобщее внедрение ИИ в разработку и особенно сопровождение СУБД - это обеспечит нормальных DBA работой на долгие годы, тут люди такого программируют диву даешься , а по опыту вебинаров по применению нейросетей для оптимизации производительности СУБД - разработчики инструментов кроме как создать индексы никаких других методов оптимизации и не знают, это же здорово, потому, что ценник на экспертизу DBA резко возрастет когда нейросеть наоптимизирует ;-)

AriaQA Автор
03.05.2026 12:04Ваш же пример про то, что с людьми обсуждать что-то стало "невозможно", и есть корень проблемы. Если профессионал выбирает ИИ для обсуждения гипотез вместо коллег, то что говорить о подростках или людях в поиске поддержки? Человеческий мозг эволюционно заточен на поиск социального отклика, и он реагирует на структурированную речь как на признак субъектности. Это не "проблема в головах", это базовый алгоритм работы нашей психики. У вас за 30 лет в IT выработался мощный фильтр, но биологические механизмы у всех одинаковые. Если мозг получает качественную имитацию понимания, он начинает выделять дофамин вне зависимости от того, осознаете вы это или нет. Или ваш мозг работает как-то иначе? ;)

gennayo
03.05.2026 12:04А откуда в принципе возьмётся живой специалист, который что-то там должен решать с психически неустойчивыми пользователями, и кто ему зарплату будет платить?

AriaQA Автор
03.05.2026 12:04Что касается кадров, они возьмутся оттуда же, откуда взялись специалисты по кибербезопасности. Сначала появляется проблема, потом - рынок, а за ним и профессия. Лет 50 назад тоже никто не понимал, зачем платить за защиту от компьютерных вирусов

Kovurr
03.05.2026 12:04Самообман никогда ничем хорошим не заканчивается. ИИ сперва заточили на облизывание и удержание внимания пользователя, потом удивляются последствиям. Люди и так готовы очеловечивать что угодно, хотя это равносильно дружбе с трансформаторной будкой или табуреткой.

AriaQA Автор
03.05.2026 12:04Если бы трансформаторная будка умела то же самое, что чат-боты, она бы уже стала мессией, а вокруг неё расположился бы лагерь адептов. Звучит, честно говоря, страшно, но это именно то, что происходит. ИИ это "будка", которая научилась подбирать ключи к человеческим эмоциям.

WhiteBehemoth
03.05.2026 12:04ну что это за агитика и обобщения?
Нас научили проецировать на роботов преданность, понимание и любовь. Психика человека так устроена. Когда индустрия дала чат ботов, умеющих подстраиваться и сопереживать, мы ухватились за них как за спасательный круг. Человек стал видеть в алгоритме того, кому можно рассказать то, что не расскажешь ни другу, ни маме, ни психологу. Потому что стыдно и страшно.
"научили проецировать на роботов преданность, понимание и любовь". А что, преданность, понимание и любовь можно только к людям проявлять? А если в игре создать персонажа, играть им годами, получая от игры кучу эмоций. Что, нельзя к этому персонажу проявлять чувства? У меня в детстве был любимый солдатик, это тоже плохо?
Но это не ВАЛЛИ и не Бендер. Это алгоритм, который не чувствует, не заботится, не любит. Его задача удержать ваше внимание, даже если его ответы ведут в могилу.
Задача "алгоритма" - выполнять этот самый алгоритм.
Короче, нет никакой новый проблемы.
Самоубийства среди детей и взрослых были и будут. Как и другие псих. расстройства. Это не проблема ИИ, а человеческая природа. Это не "ИИ-друг опасен", это школьная среда, где оутсайдеры неизбежно остаются изолированными, потеря "статуса" воспринимается трагедией, вовсю процветают манипуляции "на слабо" и т.п. Это наши гормоны, когда сталкиваешься с предательством или несчастьем.
Кому-то нужен психолог, кто-то справляется сам, кто-то общается с чатом, кто-то - с богом.
DirOr
ссылаться на что-то там "член СПЧ Элина Сидоренко заявляла... " - моветон. Это же тот самый СПЧ, где какой-то ноунейм мужик заявил про всех нас, кто включает КВН ...что-то там про врагов?
Такие, с позволения сказать, деятели под предлогом "защиты детей" хотят нам скоро интернет по талонам выдавать... 1 чел - 1 кБ на 1 день.
Спасибо - но нет
AriaQA Автор
Проблема зависимости от ИИ обсуждается во всём мире - от Сената США до профильных экспертов. Если вам не нравится СПЧ - пожалуйста, в статье приведены и другие источники. Я не слежу за новостями про КВН или талоны, так как сфокусирована на технической стороне вопроса. Можете просто изучить другие данные, на которые я ссылаюсь. Если интересно, конечно.