Звезда смерти. Фото: stunt / Wallpapers.com
Звезда смерти. Фото: stunt / Wallpapers.com

Бизнесмены и энтузиасты затаили дыхание. Гендиректор OpenAI Сэм Альтман обещал ни много ни мало РЕВОЛЮЦИЮ. В соцсетях он намекал, что GPT-5 станет «Звездой смерти» (космическая станция из «Звёздных войн») в мире искусственного интеллекта.

 Изображение “Звезды смерти”, опубликованное Альтманом в соцсети X
Изображение «Звезды смерти», опубликованное Альтманом в соцсети X

Американский предприниматель заявил, что новая модель будет обладать интеллектом уровня доктора наук. Казалось, вот‑вот появится тот самый сверхразум.

И вот, наконец, презентация состоялась. Новая модель хоть и стала быстрее и точнее предыдущих, но это никак нельзя было назвать тем самым гигантским скачком. Вместо «Звезды смерти» публика увидела «новый iPhone», который мало чем отличается от предыдущего.

 Презентация GPT-5. Скриншот с YouTube-канала OpenAI
Презентация GPT-5. Скриншот с YouTube‑канала OpenAI

Презентация, задуманная как триумф, обернулась оглушительным провалом. В Reddit и соцсети X на главу OpenAI обрушился шквал критики. Люди требовали вернуть им предыдущую, по их мнению, более «человечную» версию GPT-4o, а сам Альтман был вынужден оправдываться за «разбитые надежды».

В какой‑то степени глава техногиганта не врал. Это событие стало по‑настоящему переломным моментом, который обнажил горькую правду…

Часть I: Золотая эпоха ИИ

Чтобы понять масштаб разочарования, нужно вспомнить, как мы к этому пришли. Раньше каждая новая LLM (большая языковая модель) удивляла. GPT-2, выпущенная в 2019 году, могла писать связный текст, но часто его логика была странной, а предложения — абсурдными. Тогда никто не воспринимал технологию всерьез.

В 2020 году появилась GPT-3. Абзацы теперь состояли из полноценных и осмысленных фраз. Новая модель могла написать целую статью, сгенерировать код для простого сайта и даже вести достаточно человеческий диалог. Именно в этот момент мир начинает заявлять, что будущее уже здесь.

Спустя три года OpenAI представила GPT-4. Это был настоящий прорыв того времени. Модель могла рассуждать, проходить экзамены для юристов и врачей, анализировать большие объемы данных, творить вместе с человеком. Создавалось впечатление, что мы на пороге технологической революции. Каждая последующая промежуточная модель, в том числе GPT-4o и GPT‑o3, была прыжком веры, который превосходил все ожидания.

Все это укрепило веру бизнеса и обычных пользователей в то, что следующий шаг перевернет нашу реальность.

Часть II: GPT – блеклая тень ИИ?

GPT-5 так и не стала «сверхразумом». Отсюда возникает вопрос, а является ли LLM искусственным интеллектом?

Глава 1. T9 на стероидах

 Ноам Хомский. Фото: STRINGER Mexico / Reuters
Ноам Хомский. Фото: STRINGER Mexico / Reuters

Многие полагают, что LLM — это полноценный ИИ, так как владение языком принято считать главным признаком интеллекта. В своём эссе The False Promise of ChatGPT («Ложное обещание ChatGPT») известный американский лингвист Ноам Хомский отмечает, что хоть LLM и впечатляют, они не являются проявлением настоящего разума. По его словам, в основе развития больших языковых моделей лежит машинное обучение, которое ошибочно принимается за искусственный интеллект.

Ученый подчеркивает, что такие модели как GPT просто находят закономерности в огромных объёмах данных для генерации статистически вероятных результатов. Представьте, что у вас есть огромная библиотека, где собраны все книги, статьи и разговоры, которые когда‑либо существовали. GPT прочитала их всех. Она не понимает смысла слов, но замечает, что после слова «солнце» часто идёт слово «светит», а после «кошка» — «мяукает». Машина запоминает эти закономерности.

Когда вы задаёте чат‑боту вопрос, он не думает, а просто ищет в своей памяти, какие слова должны стоять рядом с вашими. Это как автозамена на смартфоне, только во много раз сложнее — своего рода T9 на стероидах.

 Эмили Бендер. Фото: University of Washington
Эмили Бендер. Фото: University of Washington

Именно по этой причине лингвист Эмили Бендер назвала большие языковые модели «стохастическими попугаями» (stochastic parrots). Основная идея заключается в том, что LLM генерирует тексты по шаблону, не понимая их смысла, подобно тому, как попугай имитирует речь.

Термин стал настолько популярен, что его иронично использовал Сэм Альтман. В соцсети X он написал следующее: «Я стохастический попугай, и вы тоже».

 Пост Сэма Альтмана в соцсети X
Пост Сэма Альтмана в соцсети X

Этим он намекнул, что человеческая речь также во многом является вероятностным предсказанием следующего слова.

Глава 2. Причинно-следственные связи

Ноам Хомский подчеркивает, что главное отличие LLM от человека — непонимание причинно‑следственных связей. Например, вы видите, как выходит солнце, а затем высыхают лужи. Это простое наблюдение. Причинно‑следственный механизм объясняет, почему это происходит — солнце испускает тепло, которое нагревает воду, а нагретая вода превращается в пар, и поэтому лужа исчезает. LLM, в свою очередь, знает, что слова «солнце» и «высыхают» часто встречаются вместе. Но такая модель не понимает законов физики или здравого смысла.

Еще одним аргументом против LLM является их склонность к галлюцинациям (вымышленные ответы) и допущению элементарных логических ошибок.

Глава 3. Интернет закончился

 Илья Суцкевер. Фото: Stanford University
Илья Суцкевер. Фото: Stanford University

В мае 2024 года OpenAI покинул её сооснователь Илья Суцкевер. Он отмечает, что большие языковые модели обучаются на огромных массивах данных из интернета и других источников. Программист сравнивает интернет с «ископаемым топливом», ресурсы которого почти исчерпаны. По его мнению, рост качества моделей за счет простого увеличения объема обучающих данных больше невозможен, поскольку «мы достигли пика».

Глава 4. Крёстный отец ИИ: LLM слишком "тупые" для научных открытий

Французский учёный в области машинного обучения Ян Лекун, которого ещё называют одним из крестных отцов ИИ, считает LLM «очень тупыми». Он отмечает, что хоть большие языковые модели и обладают обширными знаниями, они не в состоянии совершать научные открытия. Для этого требуются не просто заученные факты, а понимание, как устроен мир.

Отсутствие «модели мира»

Модель мира (World Model) — это внутренняя, интуитивная симуляция реальности, которая позволяет нам понимать причинно‑следственные связи, предсказывать последствия действий и рассуждать о том, что возможно, а что нет. Например, мы интуитивно понимаем, что если уронить стакан, он разобьётся, а мяч отскочит.

Ян Лекун подчеркивает, что четырёхлетний ребёнок обладает гораздо большим объёмом знаний о реальном мире (через зрение, слух, осязание), чем любая LLM, обученная на всём тексте интернета. Ребёнок понимает, что объекты существуют, даже если их не видно (постоянство объекта), а LLM, обученные на тексте, этого не знают.

Неспособность к рассуждению и планированию

У LLM отсутствует понимание физического мира, постоянная память, а также способность к размышлению. Научная работа — это не ответ на один вопрос, а сложный, многоэтапный процесс планирования. Ян Лекун часто использует аналогию с «Системой 1» и «Системой 2» из психологии.

LLM — это «Система 1»: быстрая, интуитивная, автоматическая. Она выдает ответ, затрачивая на каждый токен (слово) фиксированное количество вычислений. Наука — это «Система 2»: медленная, логическая, требующая усилий и планирования. Ученый обдумывает гипотезу, планирует эксперимент, анализирует результаты. Большие языковые модели так не могут.

Ян Лекун утверждает, что мышление не происходит на уровне языка. Мы думаем в абстрактных категориях, а язык — это лишь инструмент для выражения этих мыслей. LLM же замкнуты внутри языка.

Парадокс Моравека

Ученый также акцентирует внимание на Парадоксе Моравека (Moravec's paradox), который гласит следующее:

«Относительно легко достичь уровня взрослого человека в таких задачах как тест на IQ или игра в шахматы, однако сложно или невозможно достичь навыков годовалого ребёнка в задачах восприятия или мобильности».

Современные LLM не могут сделать то, что легко для кошки — например, ловко передвигаться по комнате. Это доказывает, что их «интеллект» не имеет ничего общего с биологическим.

Вердикт Яна Лекуна

Ожидать от LLM научных открытий — это всё равно что ожидать от попугая написания новой научной теории. Большие языковые модели могут быть невероятно полезными инструментами для учёных (поиск информации, обобщение статей), но источником новых фундаментальных идей они стать не смогут. Для этого нужны совершенно другие архитектуры. Бесконечное масштабирование тут не поможет.

Часть III: Машинное обучение: что это за “зверь” такой?

А теперь давайте пройдёмся по фундаментальным понятиям в области машинного обучения для того, чтобы вы могли сделать собственные выводы.

 Фото: Droider
Фото: Droider

Глава 1. Общая информация

Искусственный интеллект (Artificial Intelligence, AI) — это область компьютерных наук по созданию систем, которые анализируют информацию и решают задачи, аналогично тому, как это делает человек.

Машинное обучение (Machine Learning, ML) — это подраздел ИИ по разработке алгоритмов и статистических моделей для выполнения задач без явных инструкций. ML состоит из различных методов обучения.

В рамках машинного обучения компьютерные системы обрабатывают огромный объем данных и ищут в них закономерности (шаблоны). Это позволяет им прогнозировать результаты в ответ на запрос с конкретным набором данных. Например, системе можно «скормить» миллионы рентгеновских изображений и соответствующие диагнозы. Такое приложение потом сможет диагностировать рак по медицинским снимкам.

Нейронная сеть (Neural Network, NN) — это один из методов машинного обучения, который учит компьютеры обрабатывать данные подобно человеческому мозгу.

Основные архитектуры нейросетей:

  • Перцептрон (Perceptron) — самый простой тип нейросети, состоящий из одного слоя. Он используется для бинарной классификации (да/нет).

  • Сверточная нейросеть (Convolutional Neural Network, CNN) специализируется на обработке данных с сеточной структурой, например, изображений.

  • Рекуррентная нейросеть (Recurrent Neural Network, RNN) предназначена для обработки последовательных данных, таких как текст (машинный перевод), речь. Имеет внутреннюю «память», которая позволяет обрабатывать данные по порядку.

  • Трансформер (Transformer) эффективно обрабатывает последовательности данных, понимая контекст и генерируя осмысленные ответы.

Глубокое обучение (Deep Learning) — это совокупность методов машинного обучения, в основу которого легли многослойные нейронные сети (так называемые «глубокие нейронные сети»). Каждый слой содержит нейроны.

 Архитектура нейронной сети. Фото: Skillfactory
Архитектура нейронной сети. Фото: Skillfactory

Архитектура нейронной сети. Фото: Skillfactory

  • Входной слой (input layer) принимает данные.

  • Скрытые слои (hidden layers) выполняют математические вычисления с полученными данными. Важно отметить, что слово «глубина» в термине «глубокое обучение» означает наличие более чем одного скрытого слоя.

  • Выходной слой (output layer) выдает результат.

Нейрон — это функция (кусок кода), выполняющая определенную задачу.

Генеративный ИИ (Generative AI) — это тип искусственного интеллекта, который умеет не просто анализировать информацию, а создавать совершенно новый, оригинальный контент. Это может быть текст, изображения, музыка, код и даже видео.

Одним из наиболее известных и активно применяемых видов генеративного ИИ является Большая языковая модель (LLM). Её обучают на огромных массивах текстов. Благодаря этому LLM умеет понимать человеческий язык и генерировать текст.

Глава 2. Этапы обучения LLM

Этап 1. Подготовка данных

Нейросетям «скармливают» огромную библиотеку текстов, миллиарды предложений. Но нейросеть не понимает слов. Она работает с числами.

  • Токенизация: каждое слово, часть слова или даже знак препинания преобразуется в уникальный номер, называемый токеном.

  • Векторизация: каждый токен преобразуется в массив чисел, называемый вектором. Эти векторы содержат информацию о значении и контексте слова. Например, вектор для слова «король» будет похож на вектор для слова «королева», но отличаться от вектора для слова «машина».

Зачем нужна векторизация?

 Визуализация векторов в трёхмерном пространстве. Фото: InterSystems Corporation
Визуализация векторов в трёхмерном пространстве. Фото: InterSystems Corporation

Для понимая слов компьютер превращает их в числа. Простой способ сделать это — присвоить каждому слову уникальный ID. Например, [солнце: 1, встаёт: 2, утром: 3]. Но у такого подхода есть огромный недостаток: числа 1, 2 и 3 не несут никакой информации о смысле слов. Нейросеть не поймёт, что «король» и «королева» имеют много общего, а «король» и «машина» — нет. Все слова для неё будут равноудалёнными, что делает обучение неэффективным.

Векторизация решает эту проблему, представляя каждое слово в виде набора чисел. Эти числа подбираются таким образом, чтобы вектор отражал смысловую и контекстную близость слова.

Как это работает?

  • Каждое слово в словаре (например, 50 000 самых употребляемых слов) получает свой вектор, изначально заполненный случайными числами.

  • Нейросеть просматривает огромные объёмы текста и постоянно корректирует эти векторы. Она учится предсказывать слово по его контексту. Например, видя фразу «Я люблю горячий кофе», модель корректирует вектор для слова «кофе» так, чтобы он был ближе к векторам слов «горячий» и «люблю».

В итоге, после обучения векторы приобретают осмысленные свойства:

  • Близкие слова имеют близкие векторы. Например, векторы для слов «король», «королева», «принц» будут находиться близко друг к другу в многомерном пространстве. Векторы для слов «король» и «машина» будут далеко друг от друга.

  • Векторные операции приобретают смысл. Можно вычитать и складывать векторы, чтобы получать новые смыслы. Классический пример: вектор «король» — вектор «мужчина» + вектор «женщина» = вектор «королева».

Для LLM векторизация критически важна, потому что она позволяет большим языковым моделям оперировать абстрактными понятиями, которые эти векторы представляют. Именно это даёт LLM возможность:

  • Понимать синонимы и парафразы (перефразирование текста).

  • Отвечать на вопросы, даже если они заданы не так, как в обучающих данных.

  • Генерировать связный и осмысленный текст.

Векторизация — это своего рода язык, на котором нейросеть «думает» и обрабатывает информацию. Это основа для понимания и генерации человеческой речи.

Таким образом, входной слой LLM получает на вход не слова, а векторы.

Этап 2. Многослойная обработка

Теперь начинается самое интересное. Векторы проходят через множество скрытых слоёв. В GPT-4o (предыдущая модель от OpenAI) их очень много, и они очень широкие. Каждый нейрон в каждом слое принимает векторы от предыдущего слоя и умножает их на свой вес. Разберём этот процесс подробнее.

Векторы знают, что «король» и «королева» похожи, а «король» и «машина» — нет. Но они пока не знают, что делать с этими знаниями. Именно здесь в дело вступают веса (weights). Это «правила», которые модель использует для того, чтобы принимать решения на основе векторов.

Давайте вернёмся к аналогии:

  • Вектор — это характеристики слова. Например, у слова «королева» есть характеристики: «женский род», «правитель», «человек».

  • Вес — это то, насколько важна каждая из этих характеристик в данный момент.

Например, модель видит фразу: «На троне сидела...». Векторы слов «король» и «королева» очень похожи. Но в контексте этого предложения вес для характеристики «женский род» становится очень высоким. Он «говорит» модели: «Сейчас характеристика 'женский род' намного важнее других характеристик».

Далее модель умножает вектор каждого возможного слова на эти веса. Вектор «королева» имеет высокую оценку по характеристике «женский род», поэтому его взвешенная сумма будет выше, чем у «короля». Модель делает вывод, что слово «королева» — наиболее вероятный кандидат.

Таким образом, векторы дают модели «знание» о словах, а веса позволяют ей использовать это знание в конкретном контексте, чтобы принимать решения и генерировать связный и осмысленный текст.

После умножения векторов на веса, все произведения складываются. К этой сумме прибавляется смещение (bias). Это еще один параметр нейрона. Проще всего понять смещение как врожденное «предубеждение» или «настроение» нейрона.

Давайте представим, что наш нейрон — это очень привередливый кинокритик, который решает, дать фильму награду или нет. Векторы и веса — это оценка отдельных аспектов фильма: сценарий, игра актеров, спецэффекты. Нейрон‑критик взвешивает их все и получает некую общую оценку. Смещение — это изначальный настрой критика.

  • Высокое положительное смещение: критик пришел в кино в отличном настроении. Он заранее расположен к фильму и готов дать ему награду, даже если у фильма есть небольшие недостатки. Ему нужно совсем немного хороших впечатлений (взвешенной суммы), чтобы «активироваться».

  • Высокое отрицательное смещение: критик — ужасный сноб и скептик. Он заранее уверен, что фильм будет плохим. Чтобы он дал награду, фильм должен быть абсолютным шедевром и с лихвой перекрыть его изначальный негатив. Ему нужна огромная взвешенная сумма, чтобы преодолеть этот порог скепсиса.

Таким образом, смещение — это порог срабатывания нейрона. Без этого все нейроны были бы «нейтральными», что сильно ограничило бы способность сети к сложному анализу. Основная цель — минимизировать ошибку при предсказании.

После прибавления смещения образуется новый вектор. Этот процесс повторяется в каждом из скрытых слоев:

  • Нижние слои могут распознавать грамматические структуры, связи между соседними словами.

  • Средние слои начинают улавливать смысл предложений, отношения между объектами.

  • Верхние слои разбираются в логике, структуре абзацев, теме текста.

Именно на этом этапе происходит основная магия. Веса и смещения настраиваются таким образом, чтобы информация о тексте становилась всё более и более осмысленной. Далее применяется функция активации, которая преобразует взвешенную сумму входных сигналов нейрона в выходной сигнал.

Этап 3. Обратное распространение ошибки

Этот этап обучения можно условно разбить на три шага: предсказание, сравнение и обратное распространение ошибки (backpropagation). Разберем их по порядку.

  1. На последнем (выходном) слое модель получает итоговый вектор и пытается предсказать, какое слово (токен) должно быть следующим. Она выдает вероятности для каждого слова в своём словаре. Например, для фразы «Солнце встаёт...», модель может выдать высокую вероятность для слова «утром» и низкую — для слова «стол».

  2. Затем модель сравнивает своё предсказание с правильным ответом, который находится в обучающих данных. Если она предсказала «стол», а в тексте было «утром», то это большая ошибка.

  3. Ошибка обрабатывается в обратном направлении, от выходного слоя к входному. Математический алгоритм определяет, как именно нужно скорректировать каждый вес и смещение, чтобы в следующий раз избежать ошибки.

Этот процесс повторяется миллионы или даже миллиарды раз, пока модель не научится точно предсказывать следующее слово. В итоге, у неё формируется сложная, но невероятно точная «карта» закономерностей языка.

Глава 3. Методы глубинного обучения

Важно понимать, что вышеописанный процесс опирается на «Обучение с учителем» (Supervised Learning, SL). Это один из методов глубинного обучения. Чтобы превратить модель из простого «предсказателя текста» в полезного и безопасного собеседника, OpenAI использует более сложный подход, где дополнительно используются «Самостоятельное обучение» (Self‑Supervised Learning, SSL) и «Обучение с подкреплением на основе обратной связи от человека» (Reinforcement Learning from Human Feedback, RLHF). Эти подходы сыграли решающую роль в создании GPT-4.

Обучение с учителем

В рамках SL нейросеть получает специальный набор данных (датасеты), в котором заранее отмечено, что эти данные означают (разметка данных). Модель делает предсказание, сравнивает его с правильным ответом и вычисляет ошибку. Этот метод эффективен при создании систем:

  • распознавания рукописного текста, изображений, речи;

  • прогнозирования цен на жилье, температуры воздуха, времени доставки;

  • классификации заболеваний на основе медицинских данных;

  • рекомендаций на основе предпочтений пользователей;

  • автопилотов.

Самостоятельное обучение

В рамках SSL модели «скармливают» гигантский массив данных — практически весь доступный интернет, книги, научные статьи. Ей не нужен учитель. Она сама себе ставит задачи: берет предложение, «вырезает» из него слово и пытается его угадать, опираясь на контекст. Например, в предложении «Кошка сидела на ____.» модель учится, что «коврике» или «диване» — это статистически подходящие варианты, а «потолке» — нет.

Обучение с подкреплением на основе обратной связи от человека

Но знать всё — не значит быть полезным. На следующем этапе в рамках RLHF к делу подключаются люди (асессоры).

  1. Они оценивают и ранжируют несколько вариантов ответа модели на один и тот же запрос — от самого полезного и правдивого до худшего.

  2. На основе этих тысяч оценок обучается отдельная нейросеть — «модель вознаграждения» (Reward Model). По сути, это «оцифрованный» вкус и предпочтения человека.

  3. Затем основную LLM «натаскивают» с помощью этой модели. Она генерирует ответ и получает «очки поощрения» или «штрафы» от модели вознаграждения.

Таким образом, модели вроде GPT-4 учатся не просто предсказывать статистически вероятный текст, а генерировать ответы, которые люди сочтут полезными, честными и безопасными. Это мост между тем, что модель знает, и тем, что она должна делать.

Глава 4. Трансформеры: революция в обработке текста

Трансформеры произвели фурор в сфере ИИ. Чтобы понять причины, нужно сначала разобраться, что такое Обработка естественного языка (Natural Language Processing, NLP).

NLP — это область искусственного интеллекта, которая фокусируется на взаимодействии компьютеров с человеческим языком. Её цель — научить машины понимать, интерпретировать и генерировать человеческую речь так, чтобы это было осмысленно и полезно.

Обработка естественного языка лежит в основе таких технологий, как голосовые помощники, переводчики и, конечно же, чат‑боты (например, ChatGPT).

Раньше в NLP доминировали рекуррентные нейросети, но у них был существенный недостаток. Они плохо справлялись с длинными текстами или документами из‑за своей последовательной природы. При обработке слов они забывали контекст.

Трансформеры изменили это, представив механизм внимания (attention). Он позволяет модели обрабатывать всю последовательность данных (например, предложение) одновременно, уделяя внимание наиболее важным частям. Это решает проблему «забывания» и значительно ускоряет обучение.

Mixture of Experts: оптимизатор нейронок

Mixture of Experts (MoE) — это архитектурный паттерн, который может быть применен к другим типам нейросетей, включая трансформеры. Его цель — сделать модели еще больше, но при этом эффективнее.

Принцип работы MoE:

  1. Модель состоит из нескольких «экспертов» — это, по сути, независимые нейросети или части нейросети (подсети типа Многослойный перцептрон (MLP) или feed‑forward слои). Каждый из них специализируется на обработке определенных типов данных или задач.

  2. Сеть шлюзов (router или gating network) определяет, к какому эксперту или экспертам направить входные данные (токен).

  3. Для каждого токена активируется небольшое количество экспертов (обычно один или два).

Это позволяет создавать модель с миллиардами параметров, но при этом для каждого запроса используется лишь небольшое число экспертов, а не вся модель целиком. Это делает вычисления более эффективными, так как не нужно задействовать всю модель целиком.

MoE применяется в Grok от xAI, Gemini Pro от Google, нашумевшей китайской модели DeepSeek‑R1. Что касается GPT-4, то характеристики архитектуры не раскрыты полностью, но эксперты предполагают, что модель от OpenAI включает элементы MoE.

Глава 5. GPT: что там под капотом?

GPT-4o имеет около 1,8 триллиона параметров (весов и смещений). Обучение происходило на огромном массиве данных, включающем тексты, код, изображения. Модель состоит из около 120 слоёв. Процесс обучения занимал месяцы на тысячах самых мощных видеокарт (GPU) в мире.

К сожалению, OpenAI официально не раскрыла никаких конкретных технических характеристик GPT-5. Самые распространенные слухи указывают на то, что LLM имеет от 5 до 10 триллионов параметров.

Часть IV: LLM и человек имеют много общего?

 Сгенерировано в Imagen
Сгенерировано в Imagen

Еще один «крёстный отец» ИИ Джеффри Хинтон считает, что масштабирование LLM — это не просто количественный рост, а качественный скачок. Он предполагает, что, когда количество нейронов и связей достигнет определённого порога, появятся совершенно новые способности, которые невозможно предсказать. Это похоже на то, как вода превращается в лёд при достижении определённой температуры.

Глава OpenAI Сэм Альтман и сооснователь компании Андрей Карпатый считают, что следующий этап — это превращение LLM в «ИИ‑агента». Это означает, что модель будет не просто отвечать на запросы, а сможет автономно выполнять сложные задачи, взаимодействуя с внешними инструментами.

В научном сообществе также есть исследования, которые показывают, что механизмы работы LLM имеют удивительное сходство с некоторыми аспектами человеческого мышления.

Обработка информации через "семантический центр"

Учёные из Массачусетского технологического института (MIT) обнаружили, что большие языковые модели обрабатывают текст, изображения и код аналогично тому, как это делает человеческий мозг. В мозге есть так называемый «семантический центр» (Semantic Hub), который объединяет информацию из разных источников. LLM, обученные предсказывать следующее слово, естественным образом формируют те же абстракции и паттерны.

Имитация когнитивных искажений

Ученые в области когнитивной психологии выяснили, что модели не только справляются с задачами, но и делают ошибки, похожие на человеческие. Например, исследования Гарвардского университета (Harvard University) показали, что GPT-4o демонстрирует поведение, напоминающее когнитивный диссонанс. Это когда вы думаете или делаете что‑то, что не совпадает с тем, во что вы верите или как обычно поступаете, и вам становится некомфортно. Чтобы избавиться от этого неприятного чувства, вы начинаете менять свои мысли, убеждения или объяснять себе ситуацию по‑другому.

Обучение через обратную связь

Исследователи отмечают, что и мозг, и LLM учатся через «систему обратной связи и вознаграждения». Как ребёнок учится, получая похвалу (положительную обратную связь) за правильно сказанное слово, так и LLM корректирует свои веса, чтобы её ответы получали более высокую оценку от модели вознаграждения.

Таким образом, хоть учёные и не утверждают, что LLM являются сознательными существами, они находят всё больше доказательств, что эти модели не просто обрабатывают текст. Большие языковые модели используют сложные механизмы, которые в некотором смысле имитируют или отражают некоторые аспекты человеческого мышления.

Часть V: Что дальше?

 Сэм Альтман (слева) и Илья Суцкевер (справа). Фото: Jack Guez/AFP, Getty Images
Сэм Альтман (слева) и Илья Суцкевер (справа). Фото: Jack Guez/AFP, Getty Images

Глава 1. Безопасный суперинтеллект

Илья Суцкевер и его команда ищут новый, отличный от текущих LLM, подход. Эксперты предполагают, что, возможно, они работают над созданием архитектуры, которая позволит ИИ не просто статистически предсказывать слова, а обладать более глубоким «пониманием» и способностью к рассуждению.

В июне 2024 года Илья Суцкевер основал компанию Safe Superintelligence (SSI). Как следует из названия, её цель — создать безопасный суперинтеллект. Это фундаментально отличается от подхода, сфокусированного на быстрых коммерческих релизах, который, как считают некоторые, доминирует в OpenAI.

Компания почти сразу же привлекла один миллиард долларов инвестиций при начальной оценке в 5 миллиардов, не имея ни одного продукта. Затем эта оценка взлетела до 30 миллиардов долларов. В апреле 2025 года Google Cloud объявила о партнерстве с SSI, предоставляя им TPU (специализированный чип для ускорения машинного обучения).

Глава 2. Дата-центры

Марк Цукерберг делает ставку на создание «персонального суперинтеллекта». Бизнесмен считает, что «умная» система будет интегрирована в носимые устройства, такие как очки, которые смогут «видеть» и «слышать» то же, что и пользователь.

Для реализации этой цели его корпорация запланировала инвестиции в размере сотен миллиардов долларов на строительство гигантских дата‑центров. К 2026 году должен заработать многогигаваттный центр под названием Prometheus.

Дата‑центры (Data Centers) — это специализированные, хорошо защищенные здания, в которых размещены тысячи мощных компьютеров (серверов), систем хранения данных и сетевое оборудование. Компании делают на них ставку, потому что современный ИИ, особенно LLM, требует колоссальной вычислительной мощности.

Эти центры предоставляют тысячи специализированных графических процессоров (GPU). Их используют для многомесячного обучения моделей на огромных массивах данных. Подобные объекты также необходимы для обеспечения круглосуточной работы нейросетей при обслуживании миллионов пользовательских запросов в реальном времени.

Глава 3. Проект Stargate

Трамп объявляет о старте Stargate с главами OpenAI, Oracle и Softbank.
Трамп объявляет о старте Stargate с главами OpenAI, Oracle и Softbank.

Пожалуй, было бы «кощунством» не упомянуть о проекте Stargate. Это план по созданию сети современных дата‑центров стоимостью 500 миллиардов долларов по всей территории США к 2029 году. Совокупная мощность — 4,5 гигаватт. Основная цель — обучить и создать передовые модели искусственного интеллекта. Проект был запущен компаниями OpenAI, Oracle, SoftBank и MGX.

Разработкой концепции Stargate начали заниматься ещё в 2022 году. Но официальное заявление о старте проекта было сделано в январе 2025 года президентом США Дональдом Трампом. Проект был назван в честь одноименного фильма, где есть звездные врата (stargates) — порталы в другие миры. Ввиду огромного масштаба Stargate сравнивают с Манхэттенским проектом (Manhattan Project). Это, без сомнения, самый амбициозный инфраструктурный проект в истории ИИ.

По состоянию на сегодняшний день, масштабные строительные работы и полноценное финансирование в рамках проекта ещё не начались.

Stargate — это лишь часть большой ИИ‑гонки. Создать свои дата‑центры также хотят Amazon, Google и xAI. Корпорация Microsoft намерена потратить на это 80 миллиардов долларов.

Глава 4. Охота на ведьм

Марк Цукерберг. Фото: Bloomberg
Марк Цукерберг. Фото: Bloomberg

Марк Цукерберг ведёт агрессивную охоту за лучшими умами в области ИИ, в том числе из OpenAI и Google. Цель — привлечь «самых достойных» для своего нового подразделения Superintelligence Labs, которое занимается разработкой Искусственного сверхинтеллекта (Artificial Superintelligence, ASI).

Новостные издания пишут, что некоторые предложения доходят до 300 миллионов долларов за контракт на четыре года. При этом около 100 миллионов долларов будут выплачиваться уже в первый год работы. Однако представители технологического гиганта назвали подобные цифры сильно преувеличенными.

Важно отметить, что Марк Цукерберг лично участвует в процессе отбора кандидатов. Он рассылает приглашения, устраивает обеды в своих домах, а также предлагает «избранным» неограниченный доступ к вычислительным ресурсам.

Ян Лекун — один из его ключевых сотрудников, занимающий должность вице‑президента и главного научного сотрудника по искусственному интеллекту. Ученый принимает участие в разработке ИИ, который будет понимать законы физики, планировать, и возможно, испытывать эмоции, такие как страх и радость.

ВЕРДИКТ

Презентация GPT-5 стала моментом отрезвления, но не концом истории сверхразума. Это не катастрофа, а закономерность. История искусственного интеллекта уже пережила как минимум две «зимы» (в 1974–1980 и 1987–1993 годах), когда после волны завышенных обещаний следовал крах финансирования и интереса.

Сегодняшний спад ажиотажа идеально укладывается в модель «цикла зрелости технологий» от компании Gartner. Модель предсказывает неминуемый спуск с «пика завышенных ожиданий» во «впадину разочарования». Для этого есть конкретная причина. Руководители ведущих ИИ‑лабораторий признают, что рост замедляется, так как качественные данные для обучения на исходе.

Добавлю, что многие изобретения, без которых сегодня немыслима наша с вами жизнь, появились в те далекие времена, когда инноваторы просто «горели» своими идеями, а заработок был на втором плане. И здесь мы подходим к ключевому парадоксу. Именно желание заработать как можно больше денег превратила хобби энтузиастов из Homebrew Computer Club в глобальную индустрию ПК благодаря Apple и преобразовала военный проект ARPANET во всемирную сеть (интернет). Однако та же бизнес‑логика, требующая быстрых релизов, сегодня вступает в конфликт с необходимостью фундаментальных исследований, на которые просто нет времени.

На этом фоне вера в скорое пришествие AGI (Общий искусственный интеллект) выглядит не как научный прогноз, а как психологический феномен. Это напрямую связано со склонностью человека уходить от реальности и избегать сложностей жизни, переключаясь на приятные занятия, фантазии или даже иллюзии. Люди пытаются переложить ответственность за реальные проблемы (от климата до болезней) на плечи будущего всемогущего алгоритма.

Этот поиск «высшей силы» уже породил реальные проекты, такие как церковь «Way of the Future» («Путь будущего»), целью которой было создание Бога на основе ИИ, и эксперименты с роботами‑священниками. Маркетинговая фантазия о сверхразуме, решающем всё «по щелчку пальцев», эксплуатирует ту же глубинную потребность, что и супергеройское кино.

Будущее непредсказуемо, и история полна несбывшихся прогнозов — от летающих автомобилей до человекоподобных роботов. Провал GPT-5 — это шанс задуматься. Человечество должно ответить на главный вопрос: мы пытаемся создать помощника для решения сложных задач или цифрового бога для оправдания собственного бездействия?

Комментарии (11)


  1. kipar
    05.09.2025 07:40

    Современные LLM не могут сделать то, что легко для кошки — например, ловко передвигаться по комнате. Это доказывает, что их «интеллект» не имеет ничего общего с биологическим.

    Похоже что мой тоже (


  1. RoasterToaster
    05.09.2025 07:40

    Соссюр сделал не оцененое современниками открытие в лингвистике, что письменная речь это не язык. Так, бледная проекция. И вот на этой бледной проекции мы тренируем ллм. Пока не появится что-то НАД языком письменным, новый уровень абстракции, так сказать, никакого прорыва не будет. Будет перестановка кроватей настроек параметров.


  1. Dhwtj
    05.09.2025 07:40

    Зачем я это прочитал?


  1. MrZorg
    05.09.2025 07:40

    Странная статья. Начало - смотрите, все плохо, Акелла промахнулся, индустрия катится вникуда, вот референсы уважаемых людей, они точно правы. В конце - нет, все нормально, давайте пофилософствуем. 0 пользы.


  1. K0styan
    05.09.2025 07:40

    Всю начальную часть статьи можно было заменить одной кривой Гартнера. Да, технология перевалила через первый пик и сейчас скатится в яму разочарования. Нет, это не навсегда, постепенно восприятие стабилизируется и она зафиксируется в своих нишах.


  1. Sapsan_Sapsanov
    05.09.2025 07:40

    А вдруг гонка за AGI приведёт к открытию совершенно новых технологий? Как когда-то в погоне за вычислением движения небесных тел был открыт закон всемирного тяготения. Или, как при изучении бактерий, Флеминг открыл пенициллин.


  1. netricks
    05.09.2025 07:40

    Что-то я так и не понял о чём статья. Вроде бы рассказывали о сложностях с презентацией пятёрки, потом зачем-то пересказали, как работают нейросети, потом ещё поговорили о том, что люди понятие "Искуственный интеллект" понимают по разному...

    Вывод про то что gpt-5 стал моментом отрезвления и вовсе необоснован. Люди его невзлюбили не из-за того, что он плох, а из-за того, что у них забрали привычную четвёрку.

    Ну и как бы... И чё?

    Это статья о том, что gpt-ке из текста плохо виден реальный мир? Да вроде бы это и так давно все знают...

    Что текст хочет нам сообщить?


    1. JediPhilosopher
      05.09.2025 07:40

      Да большинство ИИ статей на Хабре ни о чем, пережевывают тысячу раз пережеванные банальности и тыкают пальцем в небо, делая ничем не обоснованные прогнозы. Никто по факту не знает куда оно идет и куда приведет. Потому что еще буквально пять лет назад никто даже не представлял текущее развитие вещей.


  1. Shoman
    05.09.2025 07:40

    Странная позиция у Яна Лекуна, конечно если задать вопрос gpt-5 и «она» потратит на расчеты 2-3 минуты работы десятка ускорителей (суммарной стоимостью пару центов или долларов) то ожидать научного открытия естественно не стоит. А вот если загрузить дата-центр на неделю и и расчетов на пару миллионов или десятков миллионов долларов... то кто знает…


    1. kipar
      05.09.2025 07:40

      То он напишет целую монографию, но из-за допущенной в середине арифметической ошибки к концу он уйдет в галлюцинации и докажет вообще всё на свете.


  1. sontarru
    05.09.2025 07:40

    GPT-5 станет «Звездой смерти» (космическая станция из «Звёздных войн») в мире искусственного интеллекта.

    Помнится, "Звезда смерти" (и первая и вторая версия) закончили мягко говоря не очень хорошо вмести со всеми теми кто на них находился.