Из этой главы любознательный читатель извлечет несколько фактов по истории вопроса, поймет за что нынче дают Нобелевские премии по физике и узнает почему на почти любой вопрос в мире ИИ - ответ "да хрен его знает"...

О мыслящих машинах человечество мечтало с давних времен. Известный факт 18го века - шахматный автомат "Турок" (который оказался человеко-машинной системой). Но сама идея,очевидно, зародилась гораздо раньше. Затем тема искусственного интеллекта занимала центральное место в произведениях Айзека Азимова, Фрэнка Герберта ("Дюна" и продолжения), Джеймса Кэмерона ("Терминатор") и других титанов популярной культуры. Но обзор научной фантастики, посвященной ИИ не входит в мои сегодняшние планы (возможно, как- нибудь потом). Я сосредоточусь на том пути, который привел ИИ в его нынешнее состояние. И отмечу три важных вехи.

Модель перцептрона Розенблатта.

В 50х годах прошлого века американский ученый Фрэнк Розенблатт

предложил первую модель "искусственного разума". А поскольку Розенблатт был нейрофизиологом, то за основу он взял устройство человеческого мозга. Последний, как известно, состоит из клеток, называемых нейронами. Нейроны способны принимать, а также, находясь в возбужденном состоянии, передавать электрические импульсы по своим отросткам. Собственно, таким образом осуществляется то, что мы называем высшей нервной деятельностью. Именно это Розенблатт простейшим образом формализовал и назвал свою модель перцептроном.

Довольно быстро выяснилось, что уже простейшие перцептроны способны осуществлять некоторые полезные функции - например, различать простые геометрические фигуры. Как они работают, я расскажу в одной из следующих глав. Вдохновленный этим фактом Розенблатт даже построил громоздкий полумеханический компьютер "Марк-1". Однако, потом дело надолго застопорилось, по ряду причин, одной из которых, стала ранняя смерть ученого. Наряду с этим стали очевидны серьезные проблемы с обучением такого рода сеток. По большому счету никто тогда толком не знал, как их обучать, да и вычислительной мощности катастрофически не хватало... Люди тогда упражнялись с "игрушечными" (по нынешним временам) модельками в несколько нейронов. Хорошая новость, однако, в том, что на таких модельках они пытались понять математику процесса. Чего в позднейшей истории, не случалось почти никогда... Но и на этом пути разочарований было больше, чем побед.

Так или иначе, теория эта пришла в упадок, практически на 50 лет. И, как мы увидим, этот паттерн "забили/забросили/забыли" довольно частый в истории искусственного интеллекта. Если идея "не взлетает" сразу, это отнюдь не значит, что она плохая. Возможно, время ее просто не пришло...

Глубокое обучение

Однако, спустя примерно полвека (в начале 2000х) в теме произошел новый прорыв. Группа, под руководством профессора университета Торонто Джеффри Хинтона

Джефф Хинтон
Джефф Хинтон

разработала метод обучения многослойных нейронных сетей методом "обратного распространения ошибки".

Ту абракадабру, которая приведена на этой картинке, я попробую объяснить простыми словами в одной из следующих глав. А пока же отмечу, что прорыв произошел именно в начале 2000х в силу двух обстоятельств. К этому моменту уже был разработан математический аппарат для многослойных сетей нейронов, получивший название "глубокого обучения". Да и вычислительная мощность в те времена уже позволяла работать с сетками совсем не "игрушечных" размеров.

И вот с тех пор индустрия искусственного интеллекта начала свой экспоненциальный рост, который не прекращается по сей день. С помощью глубокого обучения были решены многие задачи компьютерного зренияраспознавания речи, анализа данных. Так что открытие Хинтона оказало огромное влияние на развитие науки и техники в различных областях. И поэтому я считаю, что Нобелевская премия по физике, которую он получил в 2024м году абсолютно заслужена, хотя она и вызвала много споров. Сложнее ответить на вопрос почему именно по физике. Ну да, в глубоком обучении есть некоторое количество аналогий с термодинамикой. И я даже буду периодически ими пользоваться. Но истина скорее в том, что Нобелевской премии в области компьютерных наук просто нет. Потому что во времена Нобеля компьютеров еще не было. Может стоит уже ввести таковую? :)

"Революция искусственного интеллекта", начавшаяся с открытия Хинтона, также оказала серьезное влияние на мир бизнеса. Приведу лишь один пример. В начале 2000х безоговорочным лидером на рынке вычислений была компания Intel. На которую автор этих строк проработал без малого четверть века. Но Intel не сумел вовремя распознать потенциал глубокого обучения, о чем я писал в своей книге. Лидером "революции искусственного интеллекта" и главным ее бенефициаром(пока?) стала компания NVidia. И это позволило ей вырваться в лидеры в области микроэлектроники, а Intel остался на задворках. Сейчас по капитализации Nvidia превосходит Интел более чем в 30 раз. А еще 20 лет назад все было ровно наоборот. Вот так одно научное открытие может все перевернуть в мире бизнеса. И счастлив тот, кто оказывается на "правильной стороне истории"...

Большие языковые модели

Этот новый прорыв в мире искусственного интеллекта произошел совсем недавно. Первые большие языковые модели (LLM - Large Language Models) появились в широком доступе всего то 5-7 лет назад. Наиболее известной является GPT (Generative Pretrained Transformer) от OpenAI. Или, говоря простым языком Сэм АльтманГрэг БрокманИлья Суцкевер (он, кстати ученик Хинтона) и примкнувший к ним Андрей Карпатый сумели научить железку "говорить на человеческом языке". Технология эта быстро завоевала популярность и сейчас LLMки появляются буквально как грибы после дождя (хотя это все еще стоит их создателям немалых денег). Как работают LLM и главное, как они меняют нашу жизнь мы также подробно разберем в будущем. А пока спрошу - как вы думаете, до OpenAI никто не пытался обучить компьютер говорить "по -человечьи"? Конечно пытались, уж скоро 100 лет будет как. Просто еще 10 лет назад большие языковые модели были невозможны все по той же причине нехватки вычислительной мощности. Да и архитектуру предобученного трансформера придумали лишь в 2017м.

Как мы можем видеть, из этого коротенького обзора развитие ИИ идет совсем даже не прямыми путями. Скорее это можно назвать "методом проб и ошибок". Мы пробуем натренировать нейронку на решение какой то задачи и у нас не получается. В ответ на вопрос "почему?" иногда приходится слышать - "данные неочищенные" или "градиенты разваливаются" (что значат эти заклинания мы тоже будем разбирать). Но самый частый ответ - "да хрен его знает". И, как всегда - забили/бросили/забыли... А потом мы возвращаемся к этой задачей с новыми данными и вычислительными возможностями и у нас все "взлетает". Но опять же

- Почему? - Да хрен его знает...

Второй вывод который можно сделать - осмысление искусственного интеллекта на математическом, этическом, законодательном и чисто практическом уровне далеко отстает от развития самой технологии.

Вот такими вопросами мы в меру данных нам Богом сил и будем заниматься в этом цикле.

Оставайтесь со мной.

Больше - в моем канале об ИИ на Дзен.

Комментарии (10)


  1. Sapsan_Sapsanov
    13.11.2025 11:10

    Затем тема искусственного интеллекта занимала центральное место в произведениях Айзека Азимова, Фрэнка Герберта ("Дюна" и продолжения), Джеймса Кэмерона ("Терминатор") и других титанов популярной культуры

    Артура Кларка не заслуженно забыли


    1. vvvphoenix Автор
      13.11.2025 11:10

      Очень много достойных людей можно вспомнить. Но всех не перечислишь....


  1. Stanislavvv
    13.11.2025 11:10

    Такое ощущение, что редактор хабра что-то съел в процессе выкладки, но статью не вычитали и таки выложили. В глаза бросаются отсутствия слов.


    1. vvvphoenix Автор
      13.11.2025 11:10

      А можно пример? Мы вчера какое то время бились с тем, что adblock возможно убивает какие-то ссылки. Похоже, сегодня тоже самое :( Мне хотя бы для понимания.


      1. QweLoremIpsum
        13.11.2025 11:10

        Да это адблок вырезает ссылки, см скрин как это выглядит

        Скрытый текст


        1. vvvphoenix Автор
          13.11.2025 11:10

          Ссылки то вроде бы безобидные. :(Сейчас может какие то другие попробую.


          1. SIISII
            13.11.2025 11:10

            Адблок пожирает. Я просто его отключил на этой странице, и всё.


          1. QweLoremIpsum
            13.11.2025 11:10

            Видимо проблема в том, что они начинаются с https://dzen.ru/away... и адблок думает что это какая-то подстава..)


            1. vvvphoenix Автор
              13.11.2025 11:10

              Да. Ровно так. В статьях на дзене ссылки нормальные. А при копировании он добавляет https://dzen.ru/away?to= и затем уже настоящая ссылка. То есть запускает их через себя. Зачем так делать непонятно... Сейчас я все ссылки в этой статье переделал - вроде должно быть нормально.


  1. NeriaLab
    13.11.2025 11:10

    А может поменять заголовок с "Небольшой экскурс в историю, или почему хз самый частый ответ в мире ИИ" на "Небольшой экскурс в историю, или почему хз самый частый ответ в мире LLM" - это будет справедливо по отношению ко всем архитектурам, тем более что Вы пишите про LLM