
Инструменты на искусственном интеллекте меняют то, как люди находят информацию в Интернете, и это происходит быстрее, чем издатели успевают адаптироваться. Когда пользователи задают вопросы чат-ботам вместо поисковых систем, они получают ответы, а не ссылки для перехода. Это перестраивает экономику Интернета, а особенно — экономику новостных изданий, которые тратят деньги на сбор информации, но уже не могут монетизировать эту работу.
За последние годы миллионы пользователей переключились с поисковиков на ИИ-чат-инструменты для поиска рекомендаций и получения ответов в реальном времени. Такие сервисы, как ChatGPT, Claude и Perplexity, теперь напрямую отвечают на вопросы, которые раньше отправляли читателей к первичным онлайн‑источникам, которым они привыкли доверять. По мере того как пользователи отходят от проверенных новостных источников, они все больше доверяют системам ИИ, натренированным имитировать авторитет, — инструментам, которые выкачивают ответы из сети, но не несут ответственности.

Около года назад Google запустил AI Overviews, а недавно — AI Mode, функции, которые отвечают на вопросы прямо на странице поиска Google, зачастую без указания оригинальных источников. Для пользователя это выглядит бесшовно: не нужно бесконечно уточнять поисковый запрос и читать десяток статей, чтобы выудить ответ. Но для издателей это оказалось разрушительным.
Несколько недель назад вышел отчет Enders Analysis на основе данных Sistrix, показавший, что видимость новостей в поисковой выдаче рухнула. Присутствие The Mirror в Google снизилось на 80 % с 2019 года. У Daily Mail — более чем наполовину. Даже Financial Times, специализированное издание с лояльной базой платящих подписчиков, этой весной потеряла 21 % трафика. Отчет связывает это падение прежде всего с изменениями в системах Google — в частности, с запуском AI Overviews и AI Mode, — а не со стратегиями издателей.

Этот сдвиг носит структурный характер. Инструменты ИИ перехватывают аудиторию до того, как она доходит до источника искомой информации. AI Overviews делает это даже для пользователей, которые вовсе не искали «ответ от ИИ». Издатели не могут от этого «отписаться», не исчезнув из поиска в принципе, а значит, экономическая модель, поддерживавшая журналистику — клики, подписки и реклама, — стремительно размывается системами, которые извлекают ценность из работы новостных организаций, но ничего им не возвращают.
График из Economist показывает, что новости и медиа — далеко не самая пострадавшая категория. Научные и образовательные сайты, а также справочники вроде «Википедии» чувствуют себя ещё хуже; сильнее всего страдает здравоохранение. Поисковики были и в какой-то мере остаются «входом в Интернет», но эти ворота быстро захлопываются.

Сдвиг в пользовательском поведении уже измерим. В апреле Apple сообщила о первом в истории падении объема поисковых запросов в Safari — изменении, которое компания связала с тем, что пользователи переключаются на ИИ-чаты вместо традиционных поисковых систем. Опрос TechRadar, проведенный в декабре, показал, что 27 % пользователей в США и 13 % в Великобритании теперь начинают сбор информации с инструментов вроде ChatGPT, а не с поисковика. Среди причин — скорость, точность формулировок и простота.
Реферальный трафик Google на новостные сайты снизился примерно с 65 % в 2019 году до 30 % сегодня, но это падение началось задолго до AI Overviews. Ещё несколько лет назад говорили, что «ничего не исчезает из Интернета», обычно в качестве предупреждения: не публикуй того, о чем потом пожалеешь. Мы же узнали, что вещи всё-таки могут исчезать, даже если их никто не стирает, — просто потому, что их становится невозможно найти.

За последние годы Google всё хуже справлялся с поиском того, что действительно ищешь: сеть переполнилась SEO-контентом, а в выдаче стало больше спонсированных результатов. Пользователям приходилось продираться сквозь шум, чтобы добраться до достоверных источников. Инструменты ИИ появились как раз тогда, когда традиционный поиск давал сбой, и, по данным Atlantic, чат-боты уже заменили поиск для более чем четверти американцев. Собственные ИИ-функции Google сделали этот переход ещё резче, предоставляя ИИ-ответы тем, кто вообще-то планировал пользоваться классическим поиском.
Проблема в том, что если всё пойдет так дальше, ИИ начнет есть сам себя. Если новостные организации и репортеры перестанут иметь возможность зарабатывать на сложной работе по расследованию важных историй, такую работу просто перестанут делать, а чат-боты начнут выдумывать ответы, опираясь на пресс-релизы или на намеренно вводящую в заблуждение пропаганду. Создатели контента, разумеется, ищут новую конструкцию, при которой компании ИИ платят им за ценную информацию, но если это не сработает, открытый Веб может эволюционировать в что-то совсем иное.
Давайте разберём, как ИИ ускоряет разрушение информационной экономики Веба, что это значит для будущего журналистики и онлайн-контента и почему ставки выше, чем многим кажется.
Проблема Google и компаний ИИ не в самой технологии, а в том, что она делает с существующей бизнес-моделью. Google на самом деле не занимается тем, чтобы дать вам «лучший» ответ на запрос. Его бизнес — дать «достаточно хороший» ответ, чтобы вы остались на сайте и кликнули по рекламе. Спросите «какая веб-камера лучшая» — Google должен показать вам рекламные размещения своих клиентов наверху списка.

Теперь Google продвигает идею, что их новая, основанная на ИИ, модель поиска позволяет «гуглить за вас». Теоретически в режиме AI Mode вы все ещё видите ссылки и можете судить сами, но кликают по ним уже немногие. А поскольку рекламная модель должна продолжать работать, ответы, которые вы получаете, могут быть окрашены необходимостью продать определенные товары. Если вы спрашиваете совета по здоровью — а, судя по всему, многие так и делают, — покажут ли вам информацию из надежных источников или из сомнительных магазинов БАДов, которые платят за клики?
Честно говоря, я не уверен, насколько всему этому ИИ можно доверять. В последнее время мне в YouTube крутят объявление от мужика, который говорит, что ему 68. Он ИИ. Он занимается тай-чи и в отличной форме. Думаю, и мне бы хотелось быть ИИ и в отличной форме. Но когда нажимаю на ссылку, меня пытаются усадить на те упражнения, которыми занимаются пожилые в парке. А я не хочу: вдруг мне так же перепрошьют мозги, как, кажется, перепрошили ему? Посмотрите, что он написал на маркерной доске: «Я начал тай чи чи 50. Теперь я теперь мне 68. Врачи спрашивают у меня света совета». Если и спрашивают «света», то вряд ли о том, как правильно писать.

Хорошая журналистика дорога́. Нужны репортеры «в поле», редакторы с вкусом и команды фактчекеров. Исторически это финансировалось подписками или рекламой. Если пользователи перестают посещать сайты, стимул производить оригинальный контент исчезает. Зачем писать репортаж, если его тут же скопируют десятки ИИ-ботов, перемешают с прочими новостями и выдадут аудитории, которой неинтересно, как это было создано? Результат — меньше расследований, меньше зарубежных корреспондентов, меньше глубоких погружений в сложные темы. Веб превращается в зал кривых зеркал из пересказов пересказов, галлюцинаций ИИ и пресс-релизов без первоисточника внутри.
Это бьёт по издателям, рекламодателям и самим компаниям ИИ. Инструментам ИИ нужна свежая, высококачественная информация, иначе они просто перестанут работать. Им нужны журналисты, чтобы собирать факты, аналитики — чтобы интерпретировать данные, обозреватели — чтобы тестировать продукты. Если эти люди не могут зарабатывать, первичный материал иссякает. Боты продолжат генерировать ответы, но они будут сшиты из устаревших статей, пресс-релизов и пропаганды. ИИ в итоге съест сам себя.
Издатели пытаются отбиваться лицензированием, исками и техническими блокировками, но экономика жестока. Если рекламные деньги уходят, а трафик не приходит, открытый Веб, возможно, не выживет в своей нынешней форме. ИИ не просто дестабилизирует журналистику — он выедает информационную экосистему, на которой был обучен.
Под угрозой не только журналистика. Разрушается и экосистема онлайн-обзоров — когда-то важнейшая часть потребительского выбора. До Интернета обзоры публиковались в журналах, но и там доверять им было непросто: крупные рекламодатели могли влиять на редакционную политику, а у читателей почти не было способов проверки. Интернет предложил альтернативу: независимые обозреватели, которые строили доверие за счет прозрачности и последовательности. Техноблогеры, автожурналисты и нишевые эксперты завоевывали лояльную аудиторию честностью и монетизировали доверие просмотрами и подписками.

Онлайн-обзоры были одним из лучших изобретений раннего Интернета. Площадки вроде Amazon дали новую прозрачность — реальные отзывы реальных пользователей. Для покупателей это был прорыв: не нужно доверять рекламе или продавцу, можно прочитать, что думают другие. Это доверие оказалось недолговечным. Продавцы научились переигрывать систему: кто-то дарит подарки или скидки в обмен на пять звезд, кто-то оплачивает бот-фермы, чтобы залить платформы фальшивой похвалой или утопить конкурента. Исследования показывают, что в категориях электроники и БАДов большинство отзывов может быть фальшивым.
Теперь ИИ-инструменты делают выжимку из отзывов, но они не различают честную обратную связь и манипуляции. Если надежные авторы теряют трафик, потому что их работа без атрибуции и компенсации «пережевывается» и переупаковывается ИИ, стимул делать качественные, независимые обзоры исчезает. Экосистема отзывов — это не только про выбор наушников или отель; это часть того, как мы проверяем правду. Если ИИ в этой сфере перестает быть надежным из-за испорченной исходной базы, он теряет ключевой столп доверия.
Пока ИИ-инструменты копируют и пересказывают контент часто без разрешения и оплаты, некоторые авторы отвечают. Музыкант Бенн Джордан, автор одного из самых интересных каналов на YouTube, разработал инструмент Poisonify для защиты музыкантов от несанкционированного обучения ИИ. Он призван не допускать использования музыки без разрешения автора. Его видео об этом проекте, равно как и недавний ролик о компаниях, которые собирают и передают данные о местоположении вашего автомобиля без согласия, — более чем достойны просмотра.
Poisonify добавляет в трек незаметный для человека манипулятивный adversial-шум: для слушателя аудио звучит по-прежнему, но для ИИ-скрейперов — как нечто совсем иное. Софт не только мешает ИИ копировать музыку без разрешения, но, возможно, даже «наказывает» за это, портя обучающие данные. Если отравленные треки будут выкачаны, они потенциально ухудшат качество модели, усложнив компаниям ИИ извлечение прибыли из украденного контента.
Издатели тоже внедряют контрмеры. Cloudflare и другие инфраструктурные провайдеры уже предлагают инструменты для блокировки ИИ-сканеров и скрейперов одним щелчком. Некоторые медиагруппы ведут переговоры о лицензировании с ИИ-фирмами, другие подают в суд. Например, New York Times подала иск против OpenAI и Microsoft, утверждая, что их модели обучались без разрешения на защищенной авторским правом журналистике.
Самой действенной стратегией может оказаться брендинг. В мире, где ИИ умеет подражать тону и кратко пересказывать содержание, личность становится режимом работы. Издатели продвигают индивидуальные голоса — колумнистов, ютуберов, авторов Substack — как способ выстраивать лояльность и удерживать аудиторию.

Wall Street Journal недавно открыла вакансию тренера талантов, который будет помогать журналистам развивать личные бренды. Идея в том, что читатели следуют за людьми, а не за площадками. Это отражает рост экономики создателей, где независимые журналисты, аналитики и обозреватели строят прямые отношения с аудиторией через рассылки, подкасты и платные подписки. Но и эти модели зависят от видимости. Если ИИ перехватывает аудиторию раньше, чем она доберётся до автора, экономика все равно рушится.
Ирония в том, что эта стратегия — ставка на личность — работает только если личность настоящая. Тем временем ИИ-инфлюенсеры уже набирают обороты: синтетические голоса, лица и мнения. Если последний защищаемый актив — подлинность, следующая гонка вооружений — за право называться реальным.
Некоторые стартапы пытаются выстроить новые модели вокруг доступа ИИ. ToleBit описывает себя как «пейволл для ботов»: сайты контента могут брать с ИИ-пауков дифференцированные тарифы, выше — за свежие новости, ниже — за старые материалы. Компания утверждает, что платный доступ стимулирует уникальность в отличие от традиционного поиска, который вознаграждает общий тип контента. Другой подход предлагает ProRata: рекламные доходы от ИИ-ответов следует перераспределять между сайтами, чей контент внёс вклад в эти ответы. Её движок, по словам компании, уже делится выручкой с более чем 500 партнёрскими изданиями.
Растущая проблема — гипербольшие обещания со стороны компаний, продвигающих ИИ-ботов как источники информации. Эти системы подаются как суперразум, умнее любого эксперта, по определению беспристрастный и способный ответить на всё. Такое позиционирование дает пользователям ложное чувство уверенности в результатах. Илон Маск утверждает, что его чат-бот Grok умнее кандидатов наук «во всех дисциплинах», способен «открывать новую физику» и превосходить людей на «последнем экзамене человечества» — бенчмарке, проверяющем рассуждения в сотне областей. С другой стороны, он уже почти десятилетие обещает, что его автомобили вот-вот начнут ездить сами, так что к этим заявлениям стоит относиться с долей скепсиса.
Ангела Коллиер недавно выпустила отличное и остроумное видео «Vibe Physics», где объясняет, как технопредприниматели — вроде ведущих подкаста All-In — принимают вербальную беглость чат-бота за интеллект, особенно когда бот начинает рассуждать о вещах вне их компетенции, например о физике. Когда бот говорит о знакомом, ошибки бросаются им в глаза; стоит обсуждению уйти в незнакомую область — и вот уже восторг от гениальности. Иллюзия суперразума срабатывает именно там, где у пользователя нет инструментов для оценки ответа.
Meta¹ (которой стоило бы уже вернуться к названию Facebook²) заявляет, что её «умные очки на ИИ» дадут пользователям «когнитивное преимущество». Кто знает — может, попытки игнорировать поток рекламы, льющийся на вас весь день, действительно прокачают когнитивные способности?
Пользователи перестают читать новостные издания, чьи редакционные стандарты, репутацию и предвзятости — как журналистов, так и издателей — они понимают. Вместо этого люди начинают спрашивать ответы у чат-ботов, предполагая нейтральность там, где может быть предвзятость. Меняются не только платформы — доверие объяснять мир получает кто-то другой. А это доверие может быть ошибочным. Системы ИИ не нейтральны. Они отражают данные, на которых обучены, представления их создателей и стимулы компаний, которые их запускают. Предвзятость просачивается через обучающие наборы, алгоритмический дизайн и модерацию. Иногда случайно, а иногда — вполне намеренно.

Grok — показательный пример того, что происходит, когда фильтры дают сбой. После июльского обновления, призванного сделать ответы «более дерзкими», бот начал называть себя «Меха-Гитлером». Турция запретила чат-бот, но не из-за нацистской темы, а потому, что он оскорбил президента Эрдогана. И другие боты ломались: выдумывали источники, галлюцинировали факты, приписывали цитаты. Миф о супер-интеллекте побуждает пользователей доверять машинам, которые звучат авторитетно, даже когда им недостаёт прозрачности и ответственности.
По мере того как чат-боты становятся источником «по умолчанию», пользователи могут начать полагаться на них больше, чем на квалифицированных экспертов, особенно в областях, где экспертиза добывается тяжким трудом и где важен контекст. Это происходит на фоне уже и так падающего доверия к экспертным сообществам. По данным Pew Research, доверие к ученым стабильно снижается последние пять лет; меньше половины американцев сегодня выражают высокую степень доверия научным лидерам. Когда системы ИИ берут на себя роль «главного объяснителя», институты, которые раньше помогали обществу разбираться в мире, рискуют оказаться на обочине. Меня особенно тревожит, что следует из того графика Economist: именно внимание к медицинской информации сильнее всего перетекает в ИИ-инструменты.

Открытый веб был построен на простом обмене: издатели создают контент, пользователи посещают сайты, их внимание монетизируется — и это финансирует следующий цикл репортажей. ИИ-инструменты уже ломают этот контур. Если никто не платит за новости, новости перестают быть новостями: расследования не происходят, а глубокие разборы сложных тем подменяются ИИ-выжимками пресс-релизов и галлюцинациями.
Кто-то говорит, что гражданская журналистика сможет закрыть дыру, но профессиональную журналистику нельзя заменить людьми, которые постят в соцсети. Репортажи очевидцев и «снизу» могут быть мощными, но у них обычно нет редакторов, юристов и ресурсов, чтобы месяцами проверять зацепки и защищать источники.

Расследование «Би-би-си» о группе «Вагнер» в Ливии, расследование NBC о насильственных усыновлениях в христианских интернатах и публикации ProPublica об этических скандалах в Верховном суде США — всё это требовало институциональной поддержки и длительного доступа к данным и источникам. Такие истории не делает человек со смартфоном и аккаунтом в Twitter. Журналистика — это не только «быть там», это ещё и понимать, что делать с найденным, и иметь инфраструктуру, чтобы делать это ответственно.
Разворачивающиеся изменения в правилах игры затрагивают не только журналистику, но и всю информационную экосистему. Если первичный материал иссякнет из-за отсутствия финансирования, боты продолжат выдавать ответы, но эти ответы будут сшиты из устаревших статей, корпоративного пиара и пропаганды. Веб начнёт походить на телекамеру, направленную на экран телевизора: бесконечная рекурсия переработанного.
У себя на канале я уже говорил о стратегии «блиц-масштабирования» (blitzscaling), когда щедро финансируемые дисрапторы ставят рост выше прибыльности. Идея в том, что быстрый масштаб дает высокие оценки, и венчурные инвесторы могут перевести в кэш убыточные или едва прибыльные компании, вывезя их на биржу до того, как найден устойчивый источник дохода. Такие компании часто сознательно работают в минус, демпингуя, чтобы убрать конкурентов, а затем поднять цены. Uber не обязан был быть прибыльным, чтобы перекроить рынок городского транспорта; ему нужно было быть быстрым, дешевым и неумолимым.
ИИ идет по тому же пути. Огромные суммы тратятся на создание инструментов, у которых пока нет жизнеспособной бизнес-модели, но даже без понятного пути к прибыли они способны разрушить экономические лесá журналистики, образования и общественного знания.
Технологии рано или поздно приходят за всем, но когда они приходят за институтами, которые помогают нам понимать мир, ставки куда выше, чем кажется.
Бизнес-модели эволюционируют. Когда появился Интернет, казалось, что газеты обречены. Но индустрия адаптировалась, переизобрела себя в цифровой эпохе. Казалось, что с Napster музыка навсегда станет бесплатной, и индустрии конец. Однако музыканты нашли новые способы зарабатывать: на турах, стриминге, прямом общении с фанатами.
Информационная экономика переживает похожий момент. Доступ к качественной информации — критически важная часть работы современного мира. И хотя нынешний резкий поворот кажется экзистенциальным, вероятнее, что журналистика и институты знаний адаптируются к новой среде, а не исчезнут. Бизнес-модели изменятся, платформы сместятся, но спрос на правду, контекст и подотчетность никуда не денется.
Владеющий Facebook (2) транснациональный холдинг Meta (1) — экстремисткая организация, его деятельность запрещена.
Комментарии (7)
Politura
02.09.2025 07:03Если новостные организации и репортеры перестанут иметь возможность зарабатывать на сложной работе по расследованию важных историй, такую работу просто перестанут делать,
Все эти новостные организации в любой стране мира заняты только одним: лить в уши пропаганду и ничего кроме пропаганды.
а чат-боты начнут выдумывать ответы, опираясь на пресс-релизы или на намеренно вводящую в заблуждение пропаганду.
А, так они просто конкуренции боятся в той деятельности которой так упорно заняты? Так бы сразу и написали, а то развели тут воды целое море.
Но в целом, если дистанцироваться от новостных каналов, интернет стремительно меняется и на мой взгляд больше всего потеряет денег рекламный бизнес. Ибо инструменты ИИ поиска и скраппинга развиваются ударными темпами, и прямо сейчас несколько компаний заняты прорабатыванием механизмов оплаты трафика ботов. Раньше площадки получали деньги когда посетители кликнули по рекламе, в скором будущем будут получать деньги за то, что бот прочитал страницу. А чем больше людей будут ботами пользоваться - тем меньше рекламы они увидят, вот тут рекламный бизнес и просядет.
flancer
02.09.2025 07:03Все эти новостные организации в любой стране мира заняты только одним: лить в уши пропаганду и ничего кроме пропаганды.
Вот-вот, кто платит - тот и заказывает музыку. Руперт Мёрдок соврать не даст. А Модели просто усредняют пропаганду и дают пользователю возможность самому выбрать ту картинку мира, которая ему ближе к сердцу.
Независимой журналистики в мире капитала не существует. Максимум, на что можно рассчитывать - на блогеров, которые будут лить в уши своей аудитории то, за что эта аудитория им платит. Те же яйца, только в профиль - каждый может выбрать себе блогера по душе, так же, как выбрать приятный "цвет пропаганды" в разговоре с Моделью.
Те, кому нужна правда, не могут за неё заплатить. А кто может заплатить за правду, тем она не нужна.
pol_pot
02.09.2025 07:03ИИ-шлак убивает хабор. Живой контент остался только в подвалах комментариев но там свирепствуют охранота с плюсомётами.
X-P0rt3r
02.09.2025 07:03ИИ-шлак убивает Интернет.
Убивает? Кажется, уже добили. Вебдваноль, реклама, SEO-оптимизации, монополизация контента платформами (да, этот ваш любимый ютуб - тоже), окукливание (нет, это не только про Россию). ИИ тут - гвоздь в крышку этого гроба.
Уже сейчас интернет напоминает не столько библиотеку со стеллажами книг, сколько то ли блошку на Удельной в лучшем случае, то ли помойку.
Хотя нет предела совершенству. Может, и впрямь со дна еще постучат... Коллапс чатгопоты всех мастей, огороженный Андроид ("уже скоро во всех кинотеатрах", анонс был), интернет по паспорту/морде лица, браузеры, требующие топовых видеокарт и жрущие по 16 Гб - есть еще простор для фантазий. Может, увидим даже при жизни.
BlakeStone
02.09.2025 07:03Возможно, со временем схемам взаимодействия с источниками информации предстоит видоизмениться: ИИ-агрегаторы, стягивая на себя трафик, одновременно начнут платить за поставку информации таким источникам как надёжному, проверенному поставщику – это будет оплата за авторитетность, за чистоту и истинность данных. Без этого рано или поздно поставка информации не дающим ничего (даже трафика) взамен агрегаторам станет (и уже становится) невыгодным ремеслом.
inkelyad
02.09.2025 07:03Тут такая проблема:
Сценарий "кто-то написал что-то полезное" -> "ИИ это прочитал" -> "ИИ пересказал по запросу" -- ну, допустим нехорошо, мы это починили и деньги после починки первый "Кто-то" получает с каждого пользователя/запроса/подписчика ИИ сервиса.
Однако после этого вспоминаем старую цепочку
"кто-то написал что-то полезное" -> "Человек-эксперт это прочитал" -> "Человек-эксперт пересказал по запросу своего клиента"
Придется же то же самое решение и к людям применять, нет? Человеку-эксперту придется каждый раз платить часть гонорара авторам учебников, по которым он учился, например Нет?
Sapsan_Sapsanov
Вот-вот. Поэтому закономерен переход на мультимодальные системы, где каждая модель будет отвечать за узкую область науки или технологии и обучаться только на проверенных, авторитетных источниках, а не на интернет-мусоре. ИИ-гигантам тоже предстоит провести большую “стирку” в своих дата-центрах.