Из этой главы любознательный читатель извлечет несколько фактов по истории вопроса, поймет за что нынче дают Нобелевские премии по физике и узнает почему на почти любой вопрос в мире ИИ - ответ "да хрен его знает"...
О мыслящих машинах человечество мечтало с давних времен. Известный факт 18го века - шахматный автомат "Турок" (который оказался человеко-машинной системой). Но сама идея,очевидно, зародилась гораздо раньше. Затем тема искусственного интеллекта занимала центральное место в произведениях Айзека Азимова, Фрэнка Герберта ("Дюна" и продолжения), Джеймса Кэмерона ("Терминатор") и других титанов популярной культуры. Но обзор научной фантастики, посвященной ИИ не входит в мои сегодняшние планы (возможно, как- нибудь потом). Я сосредоточусь на том пути, который привел ИИ в его нынешнее состояние. И отмечу три важных вехи.
Модель перцептрона Розенблатта.
В 50х годах прошлого века американский ученый Фрэнк Розенблатт

предложил первую модель "искусственного разума". А поскольку Розенблатт был нейрофизиологом, то за основу он взял устройство человеческого мозга. Последний, как известно, состоит из клеток, называемых нейронами. Нейроны способны принимать, а также, находясь в возбужденном состоянии, передавать электрические импульсы по своим отросткам. Собственно, таким образом осуществляется то, что мы называем высшей нервной деятельностью. Именно это Розенблатт простейшим образом формализовал и назвал свою модель перцептроном.

Довольно быстро выяснилось, что уже простейшие перцептроны способны осуществлять некоторые полезные функции - например, различать простые геометрические фигуры. Как они работают, я расскажу в одной из следующих глав. Вдохновленный этим фактом Розенблатт даже построил громоздкий полумеханический компьютер "Марк-1". Однако, потом дело надолго застопорилось, по ряду причин, одной из которых, стала ранняя смерть ученого. Наряду с этим стали очевидны серьезные проблемы с обучением такого рода сеток. По большому счету никто тогда толком не знал, как их обучать, да и вычислительной мощности катастрофически не хватало... Люди тогда упражнялись с "игрушечными" (по нынешним временам) модельками в несколько нейронов. Хорошая новость, однако, в том, что на таких модельках они пытались понять математику процесса. Чего в позднейшей истории, не случалось почти никогда... Но и на этом пути разочарований было больше, чем побед.
Так или иначе, теория эта пришла в упадок, практически на 50 лет. И, как мы увидим, этот паттерн "забили/забросили/забыли" довольно частый в истории искусственного интеллекта. Если идея "не взлетает" сразу, это отнюдь не значит, что она плохая. Возможно, время ее просто не пришло...
Глубокое обучение
Однако, спустя примерно полвека (в начале 2000х) в теме произошел новый прорыв. Группа, под руководством профессора университета Торонто Джеффри Хинтона

разработала метод обучения многослойных нейронных сетей методом "обратного распространения ошибки".

Ту абракадабру, которая приведена на этой картинке, я попробую объяснить простыми словами в одной из следующих глав. А пока же отмечу, что прорыв произошел именно в начале 2000х в силу двух обстоятельств. К этому моменту уже был разработан математический аппарат для многослойных сетей нейронов, получивший название "глубокого обучения". Да и вычислительная мощность в те времена уже позволяла работать с сетками совсем не "игрушечных" размеров.
И вот с тех пор индустрия искусственного интеллекта начала свой экспоненциальный рост, который не прекращается по сей день. С помощью глубокого обучения были решены многие задачи компьютерного зрения, распознавания речи, анализа данных. Так что открытие Хинтона оказало огромное влияние на развитие науки и техники в различных областях. И поэтому я считаю, что Нобелевская премия по физике, которую он получил в 2024м году абсолютно заслужена, хотя она и вызвала много споров. Сложнее ответить на вопрос почему именно по физике. Ну да, в глубоком обучении есть некоторое количество аналогий с термодинамикой. И я даже буду периодически ими пользоваться. Но истина скорее в том, что Нобелевской премии в области компьютерных наук просто нет. Потому что во времена Нобеля компьютеров еще не было. Может стоит уже ввести таковую? :)
"Революция искусственного интеллекта", начавшаяся с открытия Хинтона, также оказала серьезное влияние на мир бизнеса. Приведу лишь один пример. В начале 2000х безоговорочным лидером на рынке вычислений была компания Intel. На которую автор этих строк проработал без малого четверть века. Но Intel не сумел вовремя распознать потенциал глубокого обучения, о чем я писал в своей книге. Лидером "революции искусственного интеллекта" и главным ее бенефициаром(пока?) стала компания NVidia. И это позволило ей вырваться в лидеры в области микроэлектроники, а Intel остался на задворках. Сейчас по капитализации Nvidia превосходит Интел более чем в 30 раз. А еще 20 лет назад все было ровно наоборот. Вот так одно научное открытие может все перевернуть в мире бизнеса. И счастлив тот, кто оказывается на "правильной стороне истории"...
Большие языковые модели
Этот новый прорыв в мире искусственного интеллекта произошел совсем недавно. Первые большие языковые модели (LLM - Large Language Models) появились в широком доступе всего то 5-7 лет назад. Наиболее известной является GPT (Generative Pretrained Transformer) от OpenAI. Или, говоря простым языком Сэм Альтман, Грэг Брокман, Илья Суцкевер (он, кстати ученик Хинтона) и примкнувший к ним Андрей Карпатый сумели научить железку "говорить на человеческом языке". Технология эта быстро завоевала популярность и сейчас LLMки появляются буквально как грибы после дождя (хотя это все еще стоит их создателям немалых денег). Как работают LLM и главное, как они меняют нашу жизнь мы также подробно разберем в будущем. А пока спрошу - как вы думаете, до OpenAI никто не пытался обучить компьютер говорить "по -человечьи"? Конечно пытались, уж скоро 100 лет будет как. Просто еще 10 лет назад большие языковые модели были невозможны все по той же причине нехватки вычислительной мощности. Да и архитектуру предобученного трансформера придумали лишь в 2017м.
Как мы можем видеть, из этого коротенького обзора развитие ИИ идет совсем даже не прямыми путями. Скорее это можно назвать "методом проб и ошибок". Мы пробуем натренировать нейронку на решение какой то задачи и у нас не получается. В ответ на вопрос "почему?" иногда приходится слышать - "данные неочищенные" или "градиенты разваливаются" (что значат эти заклинания мы тоже будем разбирать). Но самый частый ответ - "да хрен его знает". И, как всегда - забили/бросили/забыли... А потом мы возвращаемся к этой задачей с новыми данными и вычислительными возможностями и у нас все "взлетает". Но опять же
- Почему? - Да хрен его знает...
Второй вывод который можно сделать - осмысление искусственного интеллекта на математическом, этическом, законодательном и чисто практическом уровне далеко отстает от развития самой технологии.
Вот такими вопросами мы в меру данных нам Богом сил и будем заниматься в этом цикле.
Оставайтесь со мной.
Больше - в моем канале об ИИ на Дзен.
Комментарии (10)

Stanislavvv
13.11.2025 11:10Такое ощущение, что редактор хабра что-то съел в процессе выкладки, но статью не вычитали и таки выложили. В глаза бросаются отсутствия слов.

vvvphoenix Автор
13.11.2025 11:10А можно пример? Мы вчера какое то время бились с тем, что adblock возможно убивает какие-то ссылки. Похоже, сегодня тоже самое :( Мне хотя бы для понимания.

QweLoremIpsum
13.11.2025 11:10Да это адблок вырезает ссылки, см скрин как это выглядит
Скрытый текст


vvvphoenix Автор
13.11.2025 11:10Ссылки то вроде бы безобидные. :(Сейчас может какие то другие попробую.

QweLoremIpsum
13.11.2025 11:10Видимо проблема в том, что они начинаются с https://dzen.ru/away... и адблок думает что это какая-то подстава..)

vvvphoenix Автор
13.11.2025 11:10Да. Ровно так. В статьях на дзене ссылки нормальные. А при копировании он добавляет https://dzen.ru/away?to= и затем уже настоящая ссылка. То есть запускает их через себя. Зачем так делать непонятно... Сейчас я все ссылки в этой статье переделал - вроде должно быть нормально.

NeriaLab
13.11.2025 11:10А может поменять заголовок с "Небольшой экскурс в историю, или почему хз самый частый ответ в мире ИИ" на "Небольшой экскурс в историю, или почему хз самый частый ответ в мире LLM" - это будет справедливо по отношению ко всем архитектурам, тем более что Вы пишите про LLM
Sapsan_Sapsanov
Затем тема искусственного интеллекта занимала центральное место в произведениях Айзека Азимова, Фрэнка Герберта ("Дюна" и продолжения), Джеймса Кэмерона ("Терминатор") и других титанов популярной культуры
Артура Кларка не заслуженно забыли
vvvphoenix Автор
Очень много достойных людей можно вспомнить. Но всех не перечислишь....