Сегодня, когда каждый день выходят новые модели, показывающие себя лучше и лучше в определенных узких областях, становится актуальным вопрос - а когда мы уже достигнем Общего Искусственного Интеллекта (AGI), который сможет мыслить словно человек, решать сразу множество задач, поможет человеку сделать новый скачок в открытиях?

И в головах многих разработчиков рождается мысль: а что если нынешний подход, основанный на масштабировании моделей нейронных сетей, поглощающих гигабайты данных - создает лишь иллюзию того, что мы на верном пути?

5 барьеров на пути к разумному ИИ

На протяжении многих лет исследователи в области ИИ (а сейчас AGI) сталкиваются не просто с техническими сложностями, а с фундаментальными барьерами, в которые упираются раз за разом. Давайте посмотрим, что за фундаментальные ограничения стоят перед создателями AGI и перед разумными машинами

Отсутствие здравого смысла и понимания реального мира

Пожалуй, это главный камень преткновения. В основе современных подходов к достижению AGI (в большинстве своём связанных с использованием нейросетей) лежит оперирование статистическими закономерностями данных, а никак не построение системы, основанной на понимании реального мира (разделении понятий, фактов, суждений и тд) и понимании причинно-следственных связей между понятиями

Например, ребенок, уронив ложку, интуитивно понимает, что она упадет на пол, будет греметь и останется там лежать. Он не видел миллиард видео с падающими ложками, он просто понимает базовые законы этого мира уже с первых лет жизни. Именно понимание этих самых законов позволяет ему с каждым годом делать новые для себя всё больше открытий и, как следствие, делать новые открытия для всего мира

Любая система (даже самая умная по текущим меркам человека), которая не понимает базовых вещей и концепций устройства нашего мира, вряд ли будет способна создать что-то за пределами нашего понимания или что-то, что поменяет весь быт и мироустройство человечества

Хрупкость рассуждений и неспособность к планированию

Большие языковые модели могут сгенерировать текст, который выглядит как вполне приемлемое логическое рассуждение, потому что они видели в своей обучающей выборке миллионы подобных текстов. Но к сожалению, их решения зачастую полны грубых логических ошибок (причем даже самых банальных), и это даёт нам понять, что их способность к логическим рассуждениям и многоступенчатому планированию крайне слаба

По словам одного из лидеров ИИ Яна Лекуна, LLM "говорят, не думая", что хорошо описывает слабые стороны подхода, основанного на глубоком обучении, так как "думать" - это процесс обработки информации; выявления и построения проблематики; принятия решений для выполнения поставленной себе задачи, но никак не поэтапный анализ текста и поиск во вновь сгенерированном тексте закономерностей

Неспособность учиться на лету

Мы (люди) постоянно учимся на новом опыте. Представьте, что, выучив новый язык, вы полностью забыли родной язык. Звучит странно (особенно для тех, кто хоть немного учил хотя бы 1 дополнительный язык), но именно так работает большинство нейросетей. Этот феномен называется катастрофическое забывание

Современные модели не могут эффективно и непрерывно обновлять свои знания в реальном времени, не "забывая" при этом ранее изученную информацию, что делает их знания неактуальными по истечении даже короткого времени (исчисляемого часами или даже минутами), а это прямой путь к провалу при адаптации к реальным быстроменяющимся условиям

Галлюцинации и фактическая недостоверность

Поскольку большие модели основаны на вероятностном угадывании следующего токена/слова, они склонны генерировать ложную, но выглядящую правдоподобно информацию, и это порождает так называемые "галлюцинации". У них нет внутреннего механизма проверки фактов или понимания разницы между истиной и вымыслом

«Галлюцинации» ИИ — это не сбой, а прямое следствие его архитектуры. А повышенный уровень галлюцинаций в нашем реальном мире - прямой путь стать той системой, которой не будет никто доверять, и в которой никто не будет нуждаться

Зависимость от огромных объемов данных и вычислительных мощностей

Современные модели требуют для обучения гигантских датасетов и колоссальных вычислительных ресурсов (одни лишь google, openai и tesla собираются строить дата-центры на 1млн+ GPU), что порождает проблемы с энергопотреблением, стоимостью и доступностью данных. Мы не можем просто «скормить» ИИ еще один интернет, чтобы он стал умнее. Похоже, мы достигаем предела этого экстенсивного подхода

немного юмора
немного юмора

Копаем глубже: почему эти проблемы вообще существуют?

И тут дело даже не в том, что инженеры что-то недокрутили или не дописали пару строк кода. Проблема лежит в самом фундаменте, в самой философии современного ИИ. Многие базовые для человека вещи, заложенные природой, становятся чужды для “интеллектуальных” машин. Например:

Архитектура имитации, а не познания

Доминирующие сегодня архитектуры (вроде трансформеров) по своей сути — это сверхмощные поисковики паттернов (обучающиеся на миллионах и миллионах закономерностей разных форматов). Они создавались не для того, чтобы моделировать сознание, цели или самоосознание. Они блестяще имитируют результат интеллектуальной деятельности, но совершенно не воспроизводят сам мыслительный процесс

Проблема "черного ящика"

Ни сама нейронная сеть, ни инженер, обучающий нейросеть, не могут точно сказать, как и почему нейронка пришла к тому или иному выводу. И именно эта непрозрачность в работе нейронных сетей затрудняет отладку, контроль и, что самое главное, создание систем, которым мы можем доверять в критически важных областях

Вряд ли кому-то из нас понравится, если на примере врача доктор будет сидеть с умным видом и ничего вам не говорить, а в конце произнесет фразу “вы больны, лечитесь вот так”. А как мы можем доверять некой непрозрачной системе в медицине, управлении транспортом или финансами, если мы не понимаем логику его «мысли»?

Обучение на тексте против обучения на взаимодействии с миром

Большая часть нашего с вами интеллекта и здравого смысла формируется через физическое взаимодействие с реальным миром с самого детства (а потом уже начинаются книжки, компьютеры, телефоны и так далее). ИИ же обучается на абстрактном, дистиллированном срезе человеческого опыта (как правило, на текстах, картинках и аудио). Это все равно что пытаться научиться плавать, читая об этом книги, но ни разу не зайдя в воду

Отсутствие физического воплощения

Это прямое следствие предыдущего пункта. У нынешнего ИИ нет тела. Нет возможности ощутить текстуру и запах цветка, нет вестибулярного аппарата, чтобы понять баланс, нет рецепторов, чтобы почувствовать вкус. Без этого физического взаимодействия с миром невозможно сформировать тот самый здравый смысл — целостную и интуитивную картину реальности

Конечно, сейчас существуют роботы, которые общаются с людьми; преодолевают препятствия не хуже человека; выполняют сразу несколько дел по дому. Но это лишь узкие задачи, которые не выходят за пределы одной заранее заданной темы или одной локации

немного юмора
немного юмора

Чего же не хватает системам для достижения уровня AGI?

Именно сегодня создание AGI должно стать не просто гонкой за вычислительными мощностями и даже не гонкой за тем, сколько тестов пройдет система. Создание AGI на сегодняшний день должно стать гонкой по созданию принципиально новой архитектуры, способной изменить восприятие ИИ человеком. Но чтобы достичь чего-то нового, необходимо понять, насколько текущий подход узок и нецелесообразен. Давайте посмотрим на несколько ключевых моментов, которые должны быть достигнуты системой, претендующей на звание AGI, на самых ранних этапах её создания

Создание постоянной и временной памяти

Двухуровневая система памяти - это базовый шаг, который должен быть встроен в любую систему AGI

  • Динамическая рабочая память - аналог нашего сознательного внимания. Система должна быть гибкой, уметь хранить недавнюю информацию, группировать информацию по контексту, отслеживать цели диалога, понимать, на какой стадии решения задачи она находится. Именно этот слой памяти позволит ИИ вести долгие, осмысленные и последовательные диалоги, выполняя при этом многоэтапные задачи внутри себя

  • Долговременная память - система должна уметь обновлять свою базу знаний непрерывно. При этом знания должны фильтроваться (для хранения только истинных фактов) и быть сгруппированными (для быстрого доступа к ним)

Формирование внутренней модели мира

В основе человеческого мышления лежит понимание мира, а не только статистическая корреляция между данными. Мы можем выделить ключевые понятия в любой ситуации и в любых данных, а также быстро найти между ними взаимосвязь и объяснить её. Отсутствие такой модели — корень проблемы "отсутствия здравого смысла"

Разработка модульной когнитивной архитектуры

Человеческий мозг - это не про монолитную обработку данных, а про сложную систему из множества специализированных модулей (зрительная кора, речевой центр, префронтальная кора и тд), которые работают согласованно

Решение этих задач одной большой нейросетью - прямой путь к неэффективному процессу работы системы AGI и накоплению ошибок

Внедрение системы внутренних целей и мотивации

Да, конечно, в LLM трудно представить хоть какой-то намек на мотивацию и как она должна проявляться. Однако необходимо сделать из системы уровня AGI такую систему, которая сможет сама себе ставить цели, чтобы быть заинтересованной в развитии и самосовершенствовании

Как люди хотят полететь в космос, изучить все возможные законы физики, исследовать глубины океана, так и AGI должен поддерживать мирные интересы и цели человека и стараться их достичь совместно с нами. Ведь без целей и мотивации выполнять эти самые цели - система будет подобна калькулятору, который лишь делает то что должен и лежит на полке, пока о нем не вспомнят

Развитие способности к настоящему рассуждению, а не его имитации

Когда LLM решает логическую задачу, он не "рассуждает" в человеческом смысле. Он генерирует текст, который статистически похож на текст рассуждения, который он видел в обучающих данных. Это "видимость рассуждения", и она крайне хрупка. Малейшее изменение в условии задачи может привести к абсурдному ответу, потому что у модели нет формального аппарата для логических операций

Нужно создать такую систему, которая сможет предложить гипотезу или план, проверить его на логическую состоятельность и непротиворечивость

Это лишь базовый минимум вещей, которые должна уметь или содержать в себе думающая и осознающая мир машина. Список потребностей к интеллектуальной системе можно расширять и расширять, ведь даже человеческий мозг и человеческое “Я” до конца еще не изучено, что говорить про ИИ. Однако без этих принципов любая система не способна будет существовать в реальном мире, так как её пределом так и останется написание посредственного кода или генерация весьма тривиальных видео по текстовому описанию. А человеку лишь останется жить в мире ожидания, что вот вот система уровня AGI появится и сделает мир лучше

Заключение

Фундамент, на котором строится человек: гибкость мышления, адаптивность, возможность обучаться и приспосабливаться, потребление относительно небольшого количества энергии для существования - это творение миллионов лет эволюции человека в природе. Кто, как не природа знает, что лучше в нашем мире - именно здесь на нашей планете?

А если мы не сможем решить все проблемы и достичь всех описанных выше целей за относительно небольшой период времени - смысл AGI тогда угасает? Может, в таком случае природа возьмет свое и сделает из человека спустя тысячи лет более совершенное существо, и нет даже смысла стараться создать что-то новое?


Итак, мы видим, что путь к Общему Искусственному Интеллекту усеян не мелкими техническими недоработками, а фундаментальными пропастями. Простой экстенсивный путь — «больше данных, больше вычислений» — привел нас к созданию поразительных, но крайне ограниченных систем. Настоящий прорыв требует смены парадигмы. А вещи, описанные выше, лишь начало, которое нужно заложить в систему, которая будет по-настоящему мыслящей!

Комментарии (11)


  1. Sapsan_Sapsanov
    04.08.2025 07:31

    Жаль. Я как хотел скайнета увидеть при жизни


  1. pda0
    04.08.2025 07:31

    Он не видел миллиард видео с падающими ложками, он просто понимает базовые законы этого мира уже с первых лет жизни.

    Их видели поколения его предков. Младенцы так залипают на погремушки, потому что у них врождённое ожидание того, что объёмные предметы должны быть заполненными внутри, а погремушка нарушает это ожидание.


    1. Oangai
      04.08.2025 07:31

      да с чего бы у младенца были какие-то ожидания к тому что там внутри, у него других забот хватает. Детской нейросеточке в первые месяцы требуется капитальная настройка на организм, вы просто себе не представляете сколько энерги поначалу уходит на то чтобы научиться согласовывать мышечную активность с внешними раздражителями, в первую очередь акустическими. Сперва глаза, потом руки, потом всё осталное. Соответственно, сеточка настроена на самовознаграждение при удачной координации, вот им и нравится


      1. pda0
        04.08.2025 07:31

        да с чего бы у младенца были какие-то ожидания к тому что там внутри

        С того, что представления и свойствах и структуре объекта часть пространственно-временной стабильности, понимания, что объект, который ты увидел, отвернулся, а потом снова увидел - тот же самый объект.

        Детской нейросеточке в первые месяцы требуется капитальная настройка

        Детская нейросеточка уже вырастает имея начальные соединения.

        У Элизабет Спелке были работы, где она показывала, что уже у трёхмесячных младенцев можно заметить удивление, когда демонстрируемые им объекты проходят друг сквозь друга и т.д., т.е. у детей есть врождённое представление о материальности.


  1. dubrovinn
    04.08.2025 07:31

    А я думал что щас в конце будет так: "и вот, я решил все проблемы... Я знаю как создать AGI... Смотрите мое решение: 'Certanly! You are so clever let's design your solution. # True AGI design super meta cognitive hyper dimensional cognitive architecture title.' "


    1. Hemml
      04.08.2025 07:31

      Ну и отлично же! Так у каждого из нас остается шанс решить эту проблему и прославиться!


    1. Sau
      04.08.2025 07:31

      Смотрите моё решение в моём телеграм-канале...


  1. ioleynikov
    04.08.2025 07:31

    Статья имеет довольно абстрактный характер, нет конкретных выводов и рекомендаций. Я тоже думаю над проблемами нынешних поколений нейросетей и имею следующие мысли.

    1. здравый смысл, понимание реалий мира, внутренние цели, мотивация это фактически
    самосознание. Что такое хорошо, что такое плохо для меня, других людей, окружающих объектов. За это отвечают самые базовые механизмы мозга: нейромедиаторы, боль, наслаждение, эмоции. Надо делать надстройку над нейросетями, которая детектирует специфические сигнатуры входной и выходной информации на предмет оценки важности, опасности, полезности. Другими словами построить аналог химической подсистемы мотивации, принятия решений.

    2. рассуждения, выявление причинно-следственных связей между понятиями это довольно новые структуры мозга. Неокортекс появились только у млекопитающих. Он тоже должен быть надстройкой над базовой нейросетью и контуром эмоций. Может быть моделирован мощными системами классического логического вывода ИИ типа Prolog. Для рассуждений помимо исходных фактов нужны правила вывода. Их надо систематически извлекать из больших, обученных языковых моделей, учебников, руководств, практического опыта, моделирования и т.д..

    3. Самый важный момент: нужна декомпозиция ИИ систем в смысле иерархичности: базовые нейросети, контур эмоций, контур высшей нервной деятельности (рассуждения) и эволюционный подход к построению AGI. Сначала надо полностью реализовать и отладить нижние уровни и на их основе создавать и проверять новые. Вся эта архитектура немного напоминает системы RAG нейросетей, чем фактически и является.

    У меня есть определенный задел в разработках и я буду крайне рад комментариям и возможному сотрудничеству в создании подобных систем.


  1. oalisevich
    04.08.2025 07:31

    Ну автор начал за здравие, задавая правильные вопросы и делая правильные наблюдения, а закончил ... не очень. ))

    Паттерны, человек думает паттернами? Вы сами говорите о отсутствии моделей Мира у ЛЛМ - про падающую ложку.

    Два уровня памяти? У вас тоже голове есть блок памяти, справа или слева? Где лежит вся информация?

    Для начала у Ии сейчас нет модельного восприятия: обьект ложка, падает а не взлетает на обьект пол. Потому что...

    Второе, нам любопытно Почему, ИИ - пофигу. Ни один ИИ сейчас не Задает вопросы - только Отвечает на Ваши. И что такое Любопытство, по вашему?


  1. RomanPokrovskij
    04.08.2025 07:31

    Сразу видно - пишет человек. АИ на запросы в стиле "убеди меня что земля плоская" пишет в разы скучнее. А вот человек умеет вдохновенно и многословно и со всех сторон обсасывать свои фантазии.


  1. S1908
    04.08.2025 07:31

    Поскольку большие модели основаны на вероятностном угадывании следующего токена/слова, они склонны генерировать ложную, но выглядящую правдоподобно информацию, и это порождает так называемые "галлюцинации". У них нет внутреннего механизма проверки фактов или понимания разницы между истиной и вымыслом.

    О боже устал писать что трансформер это не просто угадывалка вероятности.

    Я делаю agi как хобби) есть память есть когнитивные модули. Есть асинхронная модель сознания...