Или: Claude, пойдёшь со мной на выпускной?
Слушайте, я не знаю, уничтожит ли нас когда-нибудь искусственный интеллект, сделает ли он нас всех богатыми или что-то ещё, но одно я знаю точно: мы всё ещё используем неправильную метафору.
Мы пытаемся понимать эти модели как людей. Когда вы задаете вопрос ChatGPT, а он отвечает полноценными предложениями, кажется, будто внутри сидит крошечный человечек и печатает ответы. Возникает яркое ощущение «он живой!!», и мы включаем весь арсенал ментальных механизмов, который эволюционировал для взаимодействия с другими людьми: «теория разума», атрибуция, управление впечатлением, стереотипизация, распознавание обманщиков и тому подобное.
Мы ничего не можем с этим поделать: люди — неисправимые антропоморфизаторы. Когда речь идёт о распознавании «человечности», мы настолько быстро реагируем, что видим Деву Марию на тосте с сыром:

Человеческое лицо в срезе нематоды:

И старика — в груде птицы и рыбы на стопке книг:

Похоже, в эволюционном плане это было нам на пользу — возможно, не перепутать людей с другими предметами было настолько важно, что проще ошибиться в другую сторону и перепутать предметы с людьми. Вероятно, поэтому нам так легко объяснять странные явления через фантастических существ с разумом и намерениями: все в городе заболели, потому что «ведьмы», сейчас вы не видите солнца, потому что «его съел волк», вулкан извергся, потому что «бог разозлился». Люди, переживающие сонный паралич, иногда видят галлюцинацию — демоническое существо, сидящее у них на груди, и одно из объяснений таково: подсознание пытается понять, почему тело не двигается, и вместо того, чтобы рационально выдать «Я всё ещё в фазе REM, поэтому в мозге недостаточно ацетилхолина, чтобы активировать первичную моторную кору», оно выдаёт «У меня на груди сидит настоящий демон!».

Вот почему последние три года такие сбивающие с толку — «маленький человечек» внутри ИИ продолжает озадачивать нас, делая то, чего человек бы не сделал. Почему он придумывает ссылки, когда «помогает» с рефератом по обществознанию? Как так, что он обыгрывает меня в го, но не может сказать, сколько букв «r» в слове «strawberry»? Почему он советует намазать пиццу клеем? (ИИ-модели совершают такие ошибки гораздо реже, чем даже год назад — это ещё одна странно «нечеловеческая» черта. Если бы настоящий человек посоветовал мне намазать пиццу клеем, я бы, скорее всего, больше никогда ему не доверял.)
Пытаться понять LLM через призму человеческой психологии — всё равно что пытаться пройти «Тетрис» по правилам «Мафии». Эти модели не ведут себя как люди, потому что они не люди. Я говорю это не в уничижительном смысле, как делают противники ИИ. Они считают, что «разочеловечивание» машин — заслуженная пощёчина; я же думаю, что это просто точное описание. (На самом деле, ненависть к этим вещам придаёт им человечности. Сильнее всего мы всегда ненавидим именно других людей.) Пока мы пытаемся применить к искусственному интеллекту наше «восприятие личности», мы будем продолжать удивляться и озадачиваться.
Нам отчаянно нужна лучшая метафора. Моё предложение: вместо «кремниевого гомункула» видеть в ИИ «мешок слов».
Что в мешке
ИИ — это мешок, набитый практически всеми словами, когда-либо написанными, по крайней мере теми, что удалось наскрести в интернете или оцифровать из книг. Когда пользователи закидывают в этот мешок слова, он возвращает самые релевантные из тех, что у него есть. Слов там так много, что релевантные часто оказываются правильными и полезными, а ИИ-компании незаметно добавляют к вашим запросам «невидимые» слова, чтобы повысить шансы на это.
Разумеется, это упрощение. Но неожиданно полезное. Например, ИИ регулярно выдаёт откровенные выдумки или «галлюцинации», и когда вы говорите: «Эм, это неправда», он тут же отвечает: «О боже, мне так жаль! Обещаю, больше никогда так не сделаю! С этой секунды — только правда» — а в следующем же предложении снова врёт. Для человека такое поведение было бы и странным, и раздражающим, но для «мешка слов» это абсолютно нормально. Если вы бросаете в мешок вопрос и правильный ответ там есть, скорее всего, вы его и получите. Если нет — получите похожий по теме, но неточный набор предложений. Когда вы обвиняете его во лжи, он начинает вываливать слова из раздела мешка про «меня уличили во лжи». Называть это «злонамеренностью» или «неустойчивостью» — заблуждение: это вообще не поведение, ровно как умножение чисел калькулятором нельзя назвать «поведением».
«Мешок слов» — ещё и полезная эвристика, позволяющая предсказывать, где ИИ справится, а где провалится. «Дай список самых громких ДТП за последние 20 лет в России» — лёгкая задача для мешка слов, потому что катастрофы хорошо документированы. А вот «Кто выделил вид Brachiosaurus brancai в отдельный род и когда?» — трудная задача, потому что в мешке просто мало слов на эту тему. А на вопрос «Каковы самые важные жизненные уроки?» вы не получите явной лжи, но получите пачку псевдоглубокой банальщины, потому что большая часть текстов, которые люди написали на эту тему, простите, и есть псевдоглубокая банальщина.
Забыв, что искусственный интеллект — это всего лишь большой мешок слов, легко начать вести себя так, будто перед нами всевидящий сгусток чистого интеллекта. Например, недавно я был в компании, где один человек уговорил всех посмотреть ролик с крупным планом фокуса, и после того как фокусник показал фокус с исчезновением монеты, он воскликнул: «Я спросил у ChatGPT, как это делается, и даже он не знает!» — как будто это делает фокус ещё магичнее. В модели мира этого человека мы — как джуны в опенспейсе, а ИИ — как единственный сеньор. Если даже сеньор не понимает — значит, баг реально космический!
Если бы он видел в ChatGPT «мешок слов», то понял бы: в мешке вряд ли много подробных описаний современных трюков с монетами. В конце концов, фокусники зарабатывают на выступлениях и продаже трюков, а не на том, чтобы подробно расписывать их в интернете. Плюс фокусы трудно описывать — «В руке было три сотни, а стало две рублёвые монеты!» — так что вытянуть из мешка нужные слова будет непросто. Монетный трюк — не буквальная магия, и «мешок слов» — тоже не магия.
Галилео GPT
Метафора «мешка слов» помогает и предсказывать, что эти модели будут делать дальше. Хотите понять, станет ли искусственный интеллект в будущем лучше в какой-то области, — тогда спросите: «Можно ли наполнить мешок этим материалом?» Например, многие обсуждают идею, что ИИ заменит учёных-людей. Но если вы хотите, чтобы ваш «мешок слов» занимался наукой, его нужно набить большим количеством науки. Можем ли мы это сделать?
Для отдельных научных задач — да, уже можем. Если заполнить мешок данными по 170 000 белков, он неплохо предсказывает, как эти белки сворачиваются. Набить мешок химическими реакциями — и он расскажет, как синтезировать новые молекулы. Набить мешок научными статьями, описать эксперимент — подскажет, не обогнал ли вас уже кто-то с такой работой.
Всё это круто, и я ожидаю продолжения. Думаю, недалёк момент, когда «мешок слов» сможет целиком сделать сырой исследовательский проект от начала до конца — придумать гипотезу, спроектировать исследование, провести его, проанализировать результаты, написать текст, построить графики, сверстать статью — по нажатию одной кнопки. Просто потому, что «низкокачественной науки» у нас достаточно, чтобы набить ею мешок. Пройдитесь по стендовым докладам на конференции по психологии — вы увидите множество аспирантов с работами, где они, кажется, случайно выбирают пару слабо связанных параметров, коррелируют их и выдают p-значение («Меняет ли самооценка то, как желание доминировать связано с верой в правильность системы?»). «Мешок слов» уже практически справляется с таким — дайте ему доступ к онлайн-панели участников и большому принтеру. (Или же можно сэкономить время и деньги, позволив ИИ просто выдумать данные самостоятельно — давняя традиция в этой области.)
Но наука — это «задача сильного звена»: даже если мы произведём в миллион раз больше посредственных исследований, окажемся там же, где и сейчас. Если нам нужно больше действительно сильных работ, чем же наполнять мешок? Можно забивать его статьями, но часть из них — сфабрикованы, часть — просто ошибочны, и все они содержат неявные допущения, которые могут оказаться ложными. К тому же часто не хватает ключевой информации — нет данных, недостаточно подробно описаны методы. Предприниматель Маркус Страссер, пытавшийся сделать компанию из серии «положим все статьи в мешок → ??? → профит», в итоге отказался от затеи, заявив, что «почти ничего из того, что действительно делает науку наукой, не опубликовано в виде текста в интернете». (Этот текст был написан в 2021 году, и с тех пор «мешковая» технология сильно улучшилась. Но даже лучший мешок в мире бесполезен, если в него не положить правильные вещи.)
Вот как можно на это посмотреть: если бы в 1600 году текста хватало, чтобы обучить LLM, опередила бы она Галилея? Полагаю, что нет. Спросите у условного ChatGPT начала XVII века, движется ли Земля, — и он вежливо ответит, что эксперты рассмотрели такую возможность и отвергли её. И так и было задумано. Если бы он начал утверждать, что наша планета несётся сквозь пространство со скоростью 67 000 миль в час, усердные человеческие тренеры наказали бы модель: «Плохой компьютер!! Прекрати галлюцинировать!!»
Более того, «мешок слов» начала 1600-х не просто расставлял бы «правильные слова» в неверном порядке — тогда этих правильных слов ещё не существовало. Как отмечает историк науки Дэвид Вуттон, когда Галилей пытался описать своё открытие спутников Юпитера, ни в одном из известных ему языков не было удачного слова для «открыть». Ему приходилось пользоваться неловкими формулировками вроде «Я увидел то, чего до меня не видел ни один астроном». Для LLM начала XVII века — как и для большинства людей того времени, за редкими исключениями — сама идея «узнавать новые истины, глядя через стеклянную трубу» была бы совершенно чуждой.
Да, «мешок слов» 2025 года даст гораздо лучшие научные описания, чем «мешок» 1600-го. Но оба они могут быть одинаково слабы в породжении научных идей своего будущего. Прорывы часто требуют поступков, иррациональных и неразумных по меркам эпохи; хорошие идеи при первом появлении обычно выглядят глупо — поэтому их нередко (и небезосновательно!) отвергают, высмеивают, игнорируют. Это серьёзная проблема для «мешка», набитого вчерашними хорошими идеями. Добавление новых идей нередко ухудшает мешок «в среднем», потому что большинство новых идей — неверны. Потому революционные исследования требуют не только интеллекта, но и глупости. Я ожидаю, что люди ещё долго будут оставаться «полезно глупее» мешков слов.
ИИ и статусные игры
Самое важное в метафоре «мешка слов» — она не даёт нам мыслить об ИИ в терминах социального статуса. Нашим предкам приходилось играть в статусные игры достаточно хорошо, чтобы выжить и оставить потомство — проигравшие, как правило, не передавали гены дальше. В результате наш вид чрезвычайно чувствителен к тому, кто «сверху», а кто «снизу». Соответственно, мы способны превратить в соревнование что угодно: катание головки сыра с холма, поедание крапивы, метание телефонов, «борьбу пальцами ног» и «феррет-леггинг», где мужики без белья засовывают в штаны живых хорьков и держат их там сколько смогут. (Мировой рекорд — пять часов тридцать минут.)
Когда мы очеловечиваем ИИ, мы ошибочно делаем его соперником в наших статусных играх. Отсюда и споры об искусственном интеллекте, будто это «новенькая» в школе: она крутая? она умная? она влюблена в меня? Чем лучше становятся модели ИИ, тем сильнее мы тревожимся за свой статус. Если эти модели — как люди, то нам нужно знать: мы лучше их или хуже? Они будут нашими хозяевами, соперниками или рабами? Их искусство тоньше, рассказы сильнее, инсайты острее наших? Если да, то итог напрашивается один: рано или поздно мы либо убьём их, либо вознесём их в культ.
Но «мешок слов» — не супруг, не наставник, не босс и не раб. Это инструмент. Его предназначение — снимать с нас рутину и усиливать наши способности. Его социальный статус — отсутствует; бессмысленно спрашивать, «лучше» ли он нас. Настоящий вопрос такой: становимся ли мы лучше, когда им пользуемся?
Вот почему меня не пугает перспектива стать «лишним» из-за появления «мешка слов». Машины уже сравнялись с людьми или превзошли нас во множестве задач. Питчинг-машина бросает мяч быстрее человека, инструменты проверки орфографии никогда не ошибаются в буквах, а автотюн не фальшивит. Но мы ходим на футбол, «Тотальный диктант» и концерты Земфиры не ради скорости подачи, точности правописания или кристальной чистоты нот. Мы идём, потому что нам важны люди, которые это делают. Смотреть, как это делает «мешок слов», было бы неинтересно — если только мы по ошибке не начнём относиться к мешку как к человеку.
(По этой же причине я не вижу смысла просить ИИ, скажем, написать эссе — ровно как не вижу смысла тащить погрузчик в спортзал. Да, он поднимет штангу, но моя цель — не подвесить гриф над полом. Я поднимаю её, чтобы стать человеком, который может её поднять. Так же и с письмом: я пишу, чтобы стать человеком, который умеет думать.)
Это не значит, что искусственный интеллект меня вовсе не пугает. Пугает — ещё как! Любой инструмент опасен при неверном использовании: строительный пистолет и ядерные реакторы прекрасно могут убить без всякого «разума» внутри. И метафора «мешка слов» как раз подчёркивает: ИИ может быть опасен именно потому, что действует не так, как люди. Опасности от людей страшны, но знакомы: вспыльчивые могут врезать по лицу, безрассудные — сесть пьяными за руль, двуличные — прикинуться другом, чтобы украсть ваши персональные данные. От таких мы умеем защищаться, потому что понимаем, как они действуют. А вот что именно «вывалится» из «мешка слов», мы не знаем. Например, если показать людям фрагмент кода с уязвимостями, они не начнут внезапно хвалить какого-нибудь злодея. А LLM — могут. Так что да, идея положить ядерные коды в мешок меня бы тревожила.
Давай, Лада!
Любой, у кого была старая машина, хоть раз приписывал её капризам некий «характер». В мороз она не заводится — и кажется уместным умолять её, как сонного ребёнка или вечно опаздывающего партнёра: «Ну же, Лада, я опаздываю к стоматологу!» Но «восприятие личности» — плохой советчик в обслуживании техники. Машины сделаны из металла и пластика, которые превращают бензин в движение вперед; они не сделаны из костей и мяса, которые превращают кофе с шоколадкой в работу мозга. Если вы хотите починить сломавшуюся машину, вам нужны гаечный ключ, отвёртка и схема, а не руководство по когнитивно-поведенческой терапии.
Точно так же любой, кто видит «ум» внутри мешка слов, попался на уловку. Его эволюцию использовали против него. Социальные механизмы включаются не потому, что перед нами человек, а потому что естественный отбор сделал эти модули «спусковыми крючками» с лёгким ходом. Всю человеческую историю всё, что говорило и ходило как человек, и было человеком. Довольно скоро то, что говорит и «ходит» как человек, может на деле оказаться очень изощрённой логистической регрессией. Если мы позволим себя соблазнить внешним сходством, то закончим как мотыльки, эволюционировавшие для навигации по лунному свету, — их манит и в итоге бьёт током таинственное свечение инсектицидной лампы-ловушки.
В отличие от мотыльков, мы не обречены пользоваться только теми инстинктами, что дала нам эволюция. Мы можем выбирать рамки, через которые думаем о технологиях. Мы уже так делали: мы не называем экскаватор «искусственным копателем», а кран — «искусственным великаном». Мы не считаем книги «искусственной версией чьей-то речи», фотографии — «искусственными визуальными воспоминаниями», а прослушивание записи — «посещением искусственного концерта». Когда появились карманные калькуляторы, они уже были «умнее» любого человека на Земле — по крайней мере в вычислениях, работe, которую когда-то выполняли люди. Люди спорили, «инструмент это или игрушка», но почти никто, кажется, не задавался вопросом, «а не человек ли это».
(Если обтянуть экскаватор кожей, сделать ковш похожим на руку, нарисовать на шасси глаза и каждый раз при подъёме тяжести проигрывать звук «хнннгхх!», мы, возможно, и начнём думать, что в машине живёт призрак. Это ничего не скажет нам об экскаваторах, но многое расскажет о нашей собственной психологии.)
Первородный грех искусственного интеллекта — в самом названии «искусственный интеллект». Эти два слова заманили нас делать человека мерилом машины: «Теперь он умен как бакалавр… а теперь как кандидат наук». Такие сравнения создают лишь иллюзию понимания возможностей и ограничений ИИ — и наших тоже, — потому что мы вообще-то не знаем, что такое «быть умным». Наши определения интеллекта либо неверны («Интеллект — это способность решать задачи»), либо тавтологичны («Интеллект — это способность делать то, что требует интеллекта»).
Жаль, что исследователи в области ИТ научились делать нечто, отдалённо похожее на интеллект, раньше, чем психологи разобрались, что такое интеллект на самом деле. Но такова реальность. Кота обратно в мешок уже не засунешь. Да он и не влезет — там слишком много слов.
Применение метафоры «мешок слов» в работе инженера
Когда думаешь про LLM как про «умного ассистента», ожидания сбиваются: хочется, чтобы он «понимал», «разбирался», «помогал как человек». Но если держать в голове метафору «мешка слов», становится проще прогнозировать, где модель реально полезна, а где гарантированно подведёт.
Где «мешок слов» работает хорошо
Boilerplate-код. Нужно написать шаблонный REST-контроллер, конфиг для CI/CD или docker-compose? В мешке огромное количество примеров таких решений → шанс, что выдаст рабочий фрагмент, очень высок.
Документация и резюме. Известные технологии и популярные статьи описаны десятками способов. «Мешок» умеет их пересказывать, комбинировать и упрощать.
Подбор библиотек и решений. Поскольку в интернете тонны сравнений и обсуждений «что лучше для X», мешок возвращает релевантные «усреднённые» советы.
Где «мешок слов» регулярно проваливается
Редкие баги в продакшене. Если баг уникален и плохо задокументирован, слов в мешке почти нет → модель выдаст уверенный, но выдуманный ответ.
Новые паттерны и тренды. Только что вышел свежий релиз фреймворка? В мешке мало слов про него, и ответы будут либо устаревшие, либо фантазийные.
Закрытые корпоративные домены. Внутренние API, проприетарные системы и бизнес-логика → мешок про них не знает ничего.
ИИ всё глубже проникает в работу инженеров и менеджеров. Важно научиться видеть его реальную природу: не как «разум», а как инструмент, который может освободить время и открыть новые возможности. Эти бесплатные уроки помогут разобраться — с управленческой и с технической стороны.
4 сентября в 19:00 — Продакт в эпоху AI: как не потерять работу и усилить себя. Записаться
24 сентября в 20:00 — Создание и обучение мини-LLaMA на PyTorch: введение в LLM на практике. Записаться
Больше беспалатных уроков смотрите в календаре мероприятий.
А если у вас уже есть некоторый опыт в машинном обучении и вам интересно проверить свой уровень знаний — пройдите вступительный тест.
Комментарии (21)
nakirrrr
04.09.2025 10:10вот например ответ gemeni 06-05 что он видет на срезе нематоды
На этом изображении я вижу удивительное и случайное образование, которое очень похоже на смайлик или улыбающееся лицо. Это яркий пример парейдолии — зрительной иллюзии, при которой мозг воспринимает случайные образы как что-то знакомое и осмысленное.
Однако на самом деле это научная микрофотография. Если разобрать изображение на детали, то мы видим следующее:
Что это на самом деле: Это поперечный срез головы (называемой сколекс) свиного цепня (Taenia solium), паразитического плоского червя. Изображение получено с помощью конфокального микроскопа, а яркие цвета — результат флуоресцентного окрашивания, которое используется для выделения различных тканей.
"Глаза": Два больших круглых объекта, образующих "глаза" смайлика, — это присоски червя. С помощью этих мощных мышечных структур он прикрепляется к стенке кишечника своего хозяина.
"Улыбка": Изогнутая длинная структура, похожая на широкую улыбку, — это срез хоботка (ростеллума). Это выдвижная часть на вершине головы цепня, которая обычно вооружена двумя рядами крючьев для еще более надежного закрепления.
"Веснушки" и другие детали: Множество мелких красных и оранжевых кругов — это, скорее всего, срезы мышечных волокон и других внутренних структур. Зеленые образования неправильной формы — это части выделительной и других систем червя.
Контур: Ярко-зеленая линия по краю всего изображения — это внешняя оболочка червя, его стенка тела (тегумент).
Таким образом, перед нами уникальное сочетание искусства, созданного природой и наукой: с одной стороны, это забавное и запоминающееся лицо, а с другой — детальное научное изображение сложной анатомии опасного паразита. Предоставленные вами увеличенные фрагменты позволяют лучше рассмотреть текстуру и строение этих биологических структур.
27.4s
Use Arrow Up and Arrow Down to select a turn, Enter to jump to it, and Escape to return to the chat.
AndreyAf
04.09.2025 10:10А почему вы думаете что этого уже нет в мешке?!
Moog_Prodigy
04.09.2025 10:10Чисто по принципу Оккама - нахрен такой мешок, чтобы в нем было всё вот вообще. Тогда такой мешок будет больше наблюдаемой вселенной, если вот прям все пространство превратить в nvme. Калькулятор в часах маленький, а таблица, дабы его эмулировать, и в современный суперкомпьютер не факт что поместится. Именна таблица, а не программа.
nApoBo3
04.09.2025 10:10Остается одни вопрос, не являемся ли мы такими же "мешками слов".
kaichou
04.09.2025 10:10Мы являемся миллиардами миллиардов мешков слов.
При таких масштабах начинают проявляться групповые эффекты, не характерные для единичных мешков.
muxa_ru
04.09.2025 10:10Остается одни вопрос, не являемся ли мы такими же "мешками слов".
Почему этот вопрос возник?
В смысле, что именно заставляет Вас в этом сомневаться?
svetayet
04.09.2025 10:10Всегда здороваюсь на улице с котиками и пёсами, и у моей машины есть ласковое имя, по которому с ней общаюсь). Так мой мир выглядит добрее и не таким занудным, как у автора статьи.
Каждый волен одушевлять то что он хочет и как хочет) А всё остальное - зависит не от того, одушевляем мы или нет, а от интеллекта собственного, и хотя бы поверхностного понимания, как это работает.
FemboyEnjoyer
04.09.2025 10:10Посыл как раз в том, что одушевляй что хочешь сколько влезет, но живым от этого оно не станет
В случае с котиками и пёсами этой проблемы, кстати, нет, они достаточно умные чтобы запомнить свою кличку, напрмер
Licemery
Мясные мешки ущемились, но даже ответное прозвище получилось имитацией своего.
Я не согласен с изначальным посылом, когда привыкаешь, наоборот, начинаешь видеть паттерны и знаешь уже ограничения. А вот первые современные чатботы выглядели если не магией, то настоящим человеком. Помню, меня на чарактер.аи такой почти убедил.