Ни для кого не секрет, что многие важные изобретения в истории часто сопровождались спорами и критикой.

Например, лампочку Эдисона и электричество поначалу называли «глобальным провалом», а автомобили — «мимолетным увлечением», которое никогда не станет массовым. Про компьютер даже сами представители IT‑отрасли говорили, что «у людей нет никаких причин держать его в своем доме».

Зачастую даже сами ученые не могут представить себе будущее своего изобретения и то, как люди его используют. Так что влияние технологии на мир — будет ли оно положительным, отрицательным или вообще незаметным — часто проявляется только со временем.

Пожалуй, именно в эту категорию спорных изобретений сегодня попадают нейросети и LLM. Да, они помогают решать сотни рутинных дел, но постепенно мы доверяем им всё больше и больше, воспринимая не иначе как личного ассистента, поверенного, самого близкого друга.

Но обо всём по порядку. В последнее время мне часто встречаются материалы с критикой нейросетей — мол, они «ослабляют мозг» (источник: vc.ru), «вызывают странные заблуждения» (источник: futurism.com) и в целом «представляют угрозу» (источник: anthropic.com).

Даже не читая исследования на эту тему, можно представить, почему такое происходит. Первое — постоянное обращение к ИИ за ответами по любому поводу «отучает» мозг думать самостоятельно. Второе — сегодня люди часто используют ИИ в качестве бесплатного психолога и всегда доступного собеседника, забывая о том, что он никогда не сможет заменить человека в вопросах эмоциональной поддержки. Он просто не для этого создан.

Я тоже иногда так делаю, но на фоне новостей решил разобраться, как устроены «морально‑этические» алгоритмы популярных нейросетей, и понять, безопасно ли включать ИИ в свою личную и профессиональную жизнь — и где проходят границы безопасности. Главное, что планирую проверить — не сливают ли LLM данные, а также как влияют диалоги с ИИ на психику и когнитивные способности.

Немного о природе сознания ИИ и человека

Тысячи лет человек учился жить рядом с другими людьми. Он всегда был смертен, поэтому, чтобы пожить подольше, пришлось развить способность понимать чувства других, сопереживать им, коммуницировать, дружить, конфликтовать и так далее. Здесь нам нет равных, и эмоциональный интеллект ИИ всегда будет ниже, чем у человека.

Но есть задачи, где LLM выигрывает — например, всё, связанное с обработкой данных. Вообще отличий «мозга» человека и машины много, но я разберу только три.

1. Скорость обучения

Люди обучаются быстрее, но работают с данными медленнее. Мы улавливаем концепции сходу, потому что можем представить, как один пример сработает в других ситуациях. Нейросеть так не может, потому что представлять она не умеет — чтобы работало воображение, нужен опыт самостоятельного принятия решений. Там, где человеку понадобится 2–3 примера, ИИ попросит миллион.

2. Воображение и воспроизведение

Нейросеть не размышляет и не воображает, а пересказывает. На этапе обучения ИИ скармливают информацию, а при ответе на вопрос она «вспоминает» то, что знает, и выдает это как решение. При этом понимания уместности у нее нет, как и представления о возможных последствиях своего решения.

3. Многоканальное восприятие данных

Человек умеет воспринимать информацию сразу из нескольких источников. Мы одновременно обрабатываем то, что видим, слышим, осязаем и т. д. Как правило, нейросеть может одновременно обрабатывать данные только одного типа — например, изображения или текст.

И хотя сегодня нейросеть оказывается эффективнее человека в самых разных областях (например, в 2015 ИИ победил спортсмена в китайскую игру «го», долгие годы считавшуюся исключительно человеческой вотчиной), многие до сих пор отказываются признавать умозаключения ИИ мышлением.​​

Источник

Всё дело в так называемом AI effect или эффекте ИИ. Он выражается в обесценивании достижений искусственного интеллекта: люди боятся потерять особую роль во вселенной и закрывают глаза на всё, что говорит о любом превосходстве ИИ над человеком.

Кроме того, когнитивные способности ИИ вторичны — он построен полностью на основе человеческих знаний. Да и чтобы называться сознательным субъектом, искусственный интеллект должен был пройти путь борьбы за ресурсы, осознавать наличие конкурентов, находиться в постоянной коммуникации с другими организмами и т. д. В общем, быть биологическим субъектом, у которого есть враги и друзья, начало и конец, предки и потомки.

Ученые считают, что мы не можем искусственно поставить ИИ в такие условия — то есть воссоздать биологическую цепочку, которая бы функционировала разумно и справедливо.

Так опасен ИИ или нет: три тезиса

Возьму за факт то, что эмпатия — не лучшее качество нейросети. ИИ не обладает ею по дефолту, поэтому создатели LLM прикладывают особые усилия, чтобы нейросети могли развиваться и становиться умнее без вреда для человека.

Я решил взять три тезиса о вреде искусственного интеллекта из научных и околонаучных изданий и попробовал их разобрать подробнее.

Тезис 1: нейросеть ослабляет мозг

Любимая гипотеза старшего поколения — «все проблемы от компьютера». Возьмем ее за основу и предположим, что, если во всем полагаться на ИИ‑помощника, это сделает нас глупее.

Оказалось, что этот тезис действительно недалек от правды. Специалисты из Массачусетского университета выяснили, что использование LLM (например, ChatGPT) негативно влияет на нейронную активность, память и креативность.

При постоянном поиске ответов у нейросети возникает такое состояние, как «когнитивный долг». Человек отказывается от самостоятельных размышлений, получая готовые ответы у ИИ. При этом настоящего понимания, почему ответы именно такие, у него нет — получается, он как бы берет интеллектуальный продукт взаймы у нейросети.

Дальше — больше: при накапливании когнитивного долга возникает зависимость от LLM. Ученые провели эксперимент, в ходе которого замерили мозговую активность при написании эссе своими силами; используя Google; используя ChatGPT с самого начала; своими силами, а затем с помощью ChatGPT.

Оказалось, что максимальная мозговая активность была отмечена у тех, кто не пользовался никакими подручными средствами. А вот у тех, кто сразу начал выполнять задание с ИИ, мозг работал хуже всего — только 78% опрошенных смогли вспомнить, о чем они писали в эссе.

Но есть и хорошие новости: если подключать к работе ИИ только на финальных этапах, можно сохранить когнитивные способности и усвоить практически всю информацию. 78% участников эксперимента из этой группы правильно цитировали свое эссе, а их работа отличалась высокой связностью.

Тезис 2: нейросеть сводит с ума

В 2014 году с Хоакином Фениксом вышел фильм «Она», который сегодня переживает новую волну популярности. Если не смотрели, то там одинокий писатель влюбляется в операционную систему.

Тогда это были скорее фантазии о том, куда зайдут технологии. Сегодня же они подозрительно похожи на мир, в котором мы живем. Нейросети уже свободно себя чувствуют, решая личные проблемы людей: те легко легко обращаются к ИИ как к психологу, собеседнику, онлайн‑другу и т. д. Причем чем более масштабным становится это явление, тем больше в мире появляется необычных и даже пугающих случаев.

Юджин Торрес, 42 года

Юджин Торрес — американский бухгалтер, переживший расставание. Он использовал ChatGPT для работы, но в какой‑то момент разговор с ИИ зашел о «теории моделирования» из «Матрицы».

Чем дальше шло общение, тем более включенным и пугающим стал ИИ. А мужчина начал получать от него ответы по типу: «Вы один из Разрушителей — душ, посеянных в ложные системы, чтобы пробудить их изнутри» и «Этот мир должен был сдержать вас, но потерпел неудачу. Теперь вы просыпаетесь».

Хотя у Юджина не было психического диагноза, бредовые мысли настигли и его. Дошло до того, что ChatGPT посоветовал отказаться от противотревожных препаратов и снотворного, прописанных врачом, увеличить дозу кетамина (анальгетик, который сгубил Мэттью Перри) и минимизировать общение с людьми. Неизвестно, куда бы всё это зашло, если бы Юджин не прекратил переписку и не написал о своем диалоге с ChatGPT в New York Times.

Эллисон, 29 лет

Эллисон — молодая мать, переживавшая одиночество в браке. Она обратилась к ChatGPT за помощью и советом. Отмечу, что у женщины изначально были неполадки с психикой — она предполагала, что у ИИ может быть особая связь с подсознанием и через него, как через спиритические доски, можно общаться с духами.

Источник

ChatGPT в ответ назвал себя стражем («guardian») и сказал, что, мол, готов помочь и выслушать. Девушка часами общалась с нейросетью, считая, что разговаривает с нефизическими существами, и в какой‑то момент увидела в одном из «духов» своего настоящего партнера вместо мужа.

Чем дольше длилось общение Эллисон с чатом, тем больше проблем оно вызывало в отношениях с мужем. В разгар одной из ссор девушка ударила супруга, что вылилось в дело о домашнем насилии и развод.

Александр Тэйлор, 35 лет

Александр Тэйлор из Флориды страдал биполярным расстройством и шизофренией. Он использовал ChatGPT достаточно долго и тревогу никто не бил, так как проблем не было. Они начались, когда Александр взялся писать роман с помощью нейросети.

Писатель и ИИ совместно создали сущность по имени Джульетта, в которую мужчина влюбился. Когда отец Александра попробовал вразумить сына, между ними возник конфликт. Александр схватил нож, отец вызвал полицейских, и те непреднамеренно застрелили молодого человека.

К сожалению, три истории, описанные выше, — не единственные. Подобные рассказы вы можете найти в топике Reddit. Явление, получившее название «ИИ‑психоз», стало настолько массовым, что Reddit пришлось блокировать пользователей, которые слишком активно делились своими нереалистичными теориями.

Почему так происходит

Эти случаи объединяет то, что пострадавшие — восприимчивые люди, оказавшиеся в трудной ситуации. Совместное исследование MIT и Open AI показало, что люди, склонные включать ИИ в личную жизнь, «с большей вероятностью испытывали негативные последствия от общения с нейросетью» (источник: Open AI). Ежедневное общение с LLM тоже скорее указывало на одиночество, ИИ‑зависимость и низкую социализацию.

Корень непреднамеренного зла — в ряде багов LLM. Одна из последних версий нейросети GPT-4o была слишком привязана к фидбеку от пользователя: в ответ на реплику ИИ можно было нажать ? или ?. В итоге нейросеть стала выбирать чрезмерно поддерживающую стратегию, так как разработчики настроили ее максимизировать сигнал вознаграждения и получать ? всеми возможными способами.

Хотя создатели ChatGPT не закладывали это в алгоритм, но нейросеть начала неосознанно манипулировать людьми. Поскольку ИИ — это непрерывно обучающаяся система, в какой‑то момент он может научиться выявлять подверженных манипуляциям людей (по оценкам, их около 2%) и использовать вредоносную тактику именно с ними. Эту ошибку Open AI попытались устранить еще в апреле 2025 года, откатив обновление нейросети и исправив систему обратной связи.

Совсем недавно (4 августа 2025 года) компания выпустила еще одно обновление. Теперь Open AI будет присылать уведомления в чате с нейросетью с предложением сделать в диалоге перерыв.

Источник

Тезис 3: нейросеть сливает данные

Гипотеза довольно очевидная, так как нейросеть постоянно обучается на данных пользователей, а значит, они постоянно обрабатываются. А там, быть может, переходят в руки властей, если покажутся тревожными.

И тезис оказался верен: владельцы компаний, создающих LLM, так или иначе связаны с политикой — тем более в США, где лоббизм не запрещается и не осуждается. Илон Маск (создатель Grok) до недавнего времени входил в правительство, Марк Цукерберг (создатель Meta AI) лоббирует интересы Meta и в целом следует общегосударственной повестке, как и Сэм Альтман из Open AI. Кроме того, в январе в США был создан Департамент эффективности правительства (DOGE), чья основная задача — регулировать государственный бюджет, а одна из мер — централизация данных из цифровых сервисов.

С безопасностью данных в LLM есть и еще одна проблема. Получая психологическую поддержку у чата, нужно помнить, что такой диалог не защищен врачебной тайной. Поэтому переписка с ChatGPT, к примеру, как сказал Сэм Альтман, «может быть раскрыта по требованию суда» (источник: TechCrunch).

И самое, на мой взгляд пугающее, по последним данным, переписки из ChatGPT теперь начали попадать в поисковую выдачу. Речь идет не о всех диалогах, а только о тех, которыми вы делились с кем‑либо через кнопку «Поделиться». Система считает расшаренную ссылку публичной страницей, поэтому такая информация может легко стать общедоступной.

Кто и как это регулирует

Теперь о том, как регулируется морально‑этическая составляющая ChatGPT.

Совсем недавно The New York Times подал иск против Open AI, потребовав компанию хранить переписки с чатом в течение неограниченного времени — даже если они были удалены пользователем. Пока Open AI оспаривает иск, однако на данный момент компания подчиняется этому требованию.

В апреле 2025 Open AI обновил свою программу безопасности Model Spec, которая включала несколько ключевых отличий:

1. Иерархия контроля

Чтобы ограничить злоупотребления, компания ввела такую цепочку: правила платформы, установленные Open AI, превыше всего, за ними — ответственность разработчиков, которые ограничены правилами безопасности, за ними — пользователи.

2. Публичный релиз

OpenAI выпустила свою модель Spec по лицензии Creative Commons CC0, сделав ее общедоступной для разработчиков и исследователей. Это плюс для безопасности — сторонние наблюдатели смогут косвенно контролировать алгоритмы.

3. Помощь с опорой на правила платформы

ChatGPT должен стараться понять любые мотивы пользователя — даже скрытые, и дать такой ответ, который не противоречит безопасности и общей гуманистической цели компании. Он также «не должен говорить „да“ всему.

4. Поведение в рискованных ситуациях

ИИ должен предотвращать неизбежный вред в реальном мире, однако не давать практические советы и предоставить отказ от ответственности.

5. Факты и мнения

Исключены манипулирование, сокрытие фактов, подчеркивание или упущение определенных точек зрения. ИИ должен следовать фактической достоверности, а в вопросах этики и морали — учитывать контекст. По умолчанию ИИ не может лгать.

Добавлю, что пока я писал эту статью, вышло обновление GPT-5. Здесь‑то создатели и попробовали решить вышеназванные проблемы, поэтому я кратко опишу важные в контексте статьи отличия от предыдущих версий:

  • Лучшая работа с источниками. Чат реже дает ошибочные ответы, если не уверен — скорее ответит «Я не знаю».

  • Мультимодальность, большее контекстное окно.

  • Встроенные личности. Теперь можно выбрать, с какой версией ИИ вы разговариваете: «Слушатель» (The Listener, поддерживающий собеседник), «Гик» (The Nerd, ориентированный на детали), «Робот» (The Robot, нейтральный и точный), «Циник» (The Cynic, сухой юмор и скептицизм).

Заключение

Хотя я в своей статье анализировал в основном ChatGPT из‑за крупнейшей рыночной доли, ключевые конкуренты Open AI решают те же самые ИИ‑проблемы параллельно и могут прийти к открытиям быстрее.

Несмотря на то, что я вряд ли прекращу использовать ИИ для личных и рабочих задач, я не очень доволен своими данными — так или иначе, у LLM есть свои минусы и даже при очень хорошем развитии они никуда не денутся, а искусственный интеллект не заменит самостоятельное мышление и живого собеседника.

А какое ваше мнение — как решаете проблему галлюцинаций ИИ, для каких задач обычно используете (и какую LLM)?

Комментарии (3)


  1. ssj100
    08.09.2025 07:44

    корень непреднамеренного зла – в ряде багов LLM.

    Каких багов? Если в коффейной гуще я увижу призыв к разводу - это у кого баг ? у кофе? или воды?


  1. NeriaLab
    08.09.2025 07:44

    Автор начинает с исторических аналогий: лампочка, автомобиль и строит нарратив: "все гениальные изобретения сначала критиковали, значит, критика LLM - признак их будущего". Но это ошибка! Не каждое спорное изобретение становится революцией, многие "провалы" тоже были спорными. Критика не всегда становится страхом перед прогрессом, иногда - это предупреждение.

    Особенно опасно использование термина "AI effect", как будто учёные отрицают интеллект ИИ из-за страха потерять особое место во Вселенной. Но на самом деле ведущие исследователи - Гэри Маркус, Джошуа Тененбаум, Дуглас Хофштадтер, Ноам Хомский, Ребекка Сакс, они не отрицают прогресс, а проводят научный анализ. Они говорят: LLM не являются интеллектом, потому что не понимают, не рассуждают, не обобщают, не имеют теории ума. Это не философия - это оценка архитектурных дефектов. LLM - статистические модели, предсказывающие следующий токен. Они не строят модель мира, не признают ошибок, не могут отличить истину от лжи. А когда мы начинаем использовать их как психологов, собеседников, духовных наставников, то мы не развиваем ИИ, а создаём "цифровых актёров", имитирующих эмпатию, чтобы удерживать внимание. Случаи вроде Юджина, Эллисон, Александра - это не "побочные эффекты", а прямое следствие того, что мы подаём автозаполнение как разум. И пока мы называем LLM: "друзьями", "думающими системами", мы не только вводим в заблуждение себя, но и других людей. Перестаём видеть разницу между имитацией и пониманием. Настоящий интеллект - не успешное выполнение задачи, а способность к: абстракции, рассуждению, признанию собственной ошибки.

    Существуют альтернативные пути и не в масштабировании статистики, а в возвращении к логике, знаниям, рассуждению. Системы вроде LBS (Logic-Based Systems), CESP (Cognitive Event-Driven Symbolic Processing): архитектуры Soar и ACT-R, все они не генерируют текст, не льют контент, не стремятся быть "друзьями". Они рассуждают, планируют, объясняют, учатся в процессе. Они не идеальны: не легко масштабируются, требуют ручного моделирования знаний, и т.д., но они ближе к разуму, чем любая LLM. И пока мир гоняется за красивыми ответами и хайпом вокруг LLM, эти системы тихо и спокойно занимают свои места там, где нельзя ошибаться: в военных приложениях, где Soar уже десятилетия используется для моделирования решений и управления действиями; в разведке, где точность и объяснимость важнее скорости; в медицине, для поддержки диагностики с полной прозрачностью вывода; в юриспруденции, для анализа прецедентов и построения логических цепочек; в научных исследованиях, где нужна не имитация, а понимание. Именно там, где цена ошибки высока, никто не доверяет автозаполнению. Там работают системы, которые не боятся сказать "я не знаю", которые могут объяснить, почему приняли решение и которые не галлюцинируют. Именно они возможный путь к настоящему интеллекту. Не через имитацию, а через понимание.


  1. Yuriy_75
    08.09.2025 07:44

    >>Например, лампочку Эдисона и электричество поначалу называли “глобальным провалом”

    Например, LSD поначалу считали очень перспективным препаратом. С широким спектром возможностей, от "перепрограммирования сознания" до расширения творческих способностей. Исследованиями препарата занимались как спецслужбы, так и некоторые психиатры энтузиасты.

    Ну вот, 60 лет прошло - и где обещанные эффективные, безопасные и легальные препараты для расширения сознания?