
Всем привет! Это вторая часть моего лонгрида о том, как ИИ меняет ИТ и не только. Тут я размышляю на тему no-code-моды, физических ограничениях и энергетической цены нынешнего ИИ-бума, а также о трансформациях, которые происходят в науке и медицине благодаря нейросетям.
Если вы не читали первую часть, то вам сюда.
Порог входа и no-code
Начнем с одного из главных трендов последних лет — no-code/low-code или даже zero code. Кажется, что нейросети вот-вот превратят программирование в живой разговор с компьютером: описываешь свой запрос, ждешь несколько минут — и… готово приложение, задача из бэклога уже решена, самая смелая мечта о видеоигре собственного производства стала реальностью. Тебе может и не понадобиться клавиатура!
Существует даже гонка разработчиков no-code-решений нового поколения: Cursor, Claude Code, Github Copilot и множество стартапов время от времени обещают разработать и поднять целое веб-приложение под ключ. И это не считая того, что OpenAI и Anthropic запустили на своих платформах «приложения», которые напрямую подключены к языковым моделям и доступны всем желающим, а Claude Code вообще работает в консоли и может быть подключен к воркфлоу на уровне все тех же инструментов, что разработчики используют каждый день.
Как будто фантастика вдруг стала реальностью. Порог входа в ИТ стремительно падает: теперь графический дизайнер может больше не выслушивать возражения фронтендера и просто делать идеальные приложения ?
В мире появляются стартапы, в которых нет штатных разработчиков: продакт-менеджеры, имея доступ к инвестициям и подписку на ИИ-сервисы, собирают MVP и демо продуктов, вообще не имея навыков программирования. Еще пару лет назад техностартап без разработчиков казался в лучше случае аферой, а сегодня этот формат уже вполне реален. Правда, у нас пока нет объективных данных, насколько успешны такие engineer-free техностартапы, но будет здорово посмотреть, приживется ли формат. Пока что, как показывает практика, стоит проекту зайти технически глубже или начать по-настоящему расти — начинает расти и потребность в команде инженеров с реальным опытом производства софта. Ну или хотя бы возникает необходимость консультаций с экспертами. Например, я примерно полгода назад как раз консультировал подобный проект.
Я все чаще использую no-code-инструменты, особенно интегрированные в IDE, и меня порой поражает, как быстро растут возможности и удобство, как много поставщиков LLM и даже вариантов их интеграции в процесс. Но лично я до сих пор могу по пальцам пересчитать случаи, когда удалось получить полное решение реальной проблемы быстрее или существенно проще с LLM, чем без нее, хотя как ассистенты-справочники в разработке модельки меня уже вполне устраивают. Есть у меня сомнения и насчет действительно больших проектов или инфраструктуры, где важны не только детали, но и сквозная стабильность и безопасность всех правок, вносимых машиной.
И тем не менее мой опыт прекрасно иллюстрирует явление, которое метко назвали протекающими абстракциями. Пока вы находитесь в рамках коридора возможностей no-code-инструмента, возникает иллюзия, что программирование больше не нужно. Но уже на границах реальных возможностей алгоритмов абстракция дает течь, приходится лезть и разбираться в структуре сгенерированного кода, вносить правки вручную — и вся магия испаряется.
Ситуация любопытная: машины прекрасно объясняют и индексируют проекты, предлагают кусочки кода или даже строят целые модули, а без инженера пока все равно никуда: сложный проект лишь на одном разговоре с ИИ не уедет. Все реальные команды, что я вижу, имеют на борту разработчиков, которые и правда теперь могут делать больше операций, но их внимание — все еще ограниченный и ценный ресурс.
И дело не только в ограничениях контекста, или в том, что аттеншен «плывет» на сотнях тысяч токенов, или в том, что модели до сих пор плохо ориентируются в проектах, но и в том, что современные нейронки недостаточно надежны в целом. Они склонны «галлюцинировать», уверенно выдавая неверный код или ложные сведения. И даже решая действительно сложные задачи, агенты порой каскадно «сходят с ума». До тех пор пока не появятся альтернативные, более продвинутые архитектуры или новый научный формализм в науке о генеративных моделях, полностью убрать человека из цикла разработки не выйдет.

Пределы возможностей и экологичный ИИ
За последние пару лет нейросети совершили качественный скачок — модели вроде GPT-5 и Gemini демонстрируют удивительные возможности. Да и опенсорсные модели не отстают: все больше пользователей переходят на бесплатные альтернативы OpenAI, которые уже догоняют по качеству. Однако складывается ощущение, что классические LLM вышли на технологическое плато по качеству генерации текста и пониманию контекста. Релизы новых моделей все чаще напоминают анонсы новых смартфонов — прирост становится менее заметным рядовому пользователю, основные же улучшения происходят «под капотом»: скорость вывода, оптимизация расходов, поддержка дополнительных инструментов. Мне лично кажется, что обновление платформы с GPT-5 больше нужно OpenAI, чем пользователям, — для тестирования наработок, которые позволят сокращать расходы. В общем, технология GPT уже делает все, что только можно придумать в рамках генерации текста и смежных задач, а обучена она и так по некоторым оценкам на 10% глобального текстового интернета. Идея гигантских трансформеров достигла кульминации, и даже если они уйдут в историю наряду с множеством альтернативных видов нейросетей, шороху они навели достаточно.
Тем не менее похоже, что дальше нас ждут скорее точечные улучшения: чуть быстрее, чуть дешевле, чуть надежнее. Никакого нового чудо-прорыва завтра не случится без фундаментальных изменений. А главный сдерживающий фактор — вычислительные мощности и энергия.
Мало кто представляет, насколько дорого обходится текущий ИИ-бум экономике. Например, лишь обучение GPT-4 обошлось OpenAI в 70–100 млн долларов. Еще меньше осознания, как дорог ИИ с точки зрения энергии. Сколько энергии потребовалось на тренировку GPT-4, официально не сообщается, , но точно в несколько раз (а то и десятков раз) больше, чем на GPT-3, которая «съела» около 1,3 тыс. МВт·ч — столько же потребляет среднестатистический американский дом за 120 лет. То есть с каждым годом потребности для масштабирования технологии растут. Но справедливости ради, GPT-4o была моей любимой версией — после, разумеется, оригинального GPT-DaVinci (aka ChatGPT).
Энергетическую (и экологическую) цену искусственного интеллекта можно назвать колоссальной. Идея строить мини-АЭС рядом с дата-центрами — не фантастика: ее прорабатывают, например, и Microsoft и Amazon. Спрос на электричество растет очень быстро, и по этому треку в том числе идет соперничество между странами-лидерами ИИ. Буквально недавно OpenAI опубликовала призыв к правительству США приоритизировать вопрос ввода ежегодно до 100 гигаватт новых мощностей, чтобы не отстать от Китая в ИИ-гонке.
Конечно, со временем процессы оптимизируются, железо станет эффективнее. По некоторым оценкам, ИИ все равно потребляет на порядок меньше энергии, чем майнинг криптовалют. Однако никто не будет отрицать, что энергопотребление искусственного интеллекта становится проблемой.
Отсюда вытекает следующий вопрос: когда же у каждого будет свой персональный ChatGPT? Условно — в какой момент будет технически несложно запустить ИИ уровня GPT-4o (c нативной поддержкой голоса и изображений) на домашнем ПК либо прямо на КПК или смартфоне, как в фильмах про космические путешествия?
Пока что это фантастика, и в ближайшие годы ситуация вряд ли изменится. Большие модели требуют предельно мощных чипов, а конкретно GPU еще и расходуют много дорогой и продвинутой скоростной памяти. Для работы того же GPT-4 нужны топовые видеокарты стоимостью в десятки тысяч долларов, и не одна, а целые стойки из них.
Для иллюстрации:
Даже если «упаковать» 175-миллиардную GPT-3 в 8-битный формат, ее вес все равно около 175 ГБ — столько оперативки понадобится, чтобы запустить ее локально. Для сравнения: в рекомендованных конфигурациях хай-энд игровых ПК на 2025 год все еще указывают 32 ГБ ОЗУ. И хотя ситуация в мировом потреблением RAM стремительно меняется, разрыв с реальными пользовательскими системами (даже в средней ценовой категории) огромный.
Производители чипов и микросхем почти уперлись в физический предел миниатюрности: транзисторы на новейших 2-нм чипах уже имеют ширину всего около 10 атомов кремния, на таких масштабах уже становится проблематично управлять материалами во время изготовления. На еще более крохотных масштабах уже квантовая механика начинает оказывать влияние на устройство во время работы. Иными словами, нужны другие решения, и их внедрение потребует времени.
Тем временем, чтобы держать темп роста мощности, NVIDIA в ускорителе GH200 NVL2 разместила два полноценных чипа на одной плате вместо одного — так она получает прирост производительности без дальнейшего «сжатия» транзисторов. По сути, для нового GPU объединили два чипа и связали их на низком уровне. Это означает удвоенные затраты в производстве каждого финального чипа. Да, улучшения еще будут, но прогресс замедляется. Пара поколений видеокарт давали экспоненциальный скачок мощностей, а теперь снова на горизонте плато.
И у GPU уже давно есть конкуренты — и их становится всё больше. Производители чипов объединяются, стартапы и лаборатории разрабатывают новое железо для ИИ буквально «с нуля». Сегодня в арсенале индустрии есть TPU и ARM-кластеры с миллионами параллельных потоков, узкоспециализированные ASIC-чипы, заточенные под конкретные модели и задачи, а где-то на границе науки и инженерии — эксперименты с фотоникой и оптическими вычислениями.
Пока, правда, всё это тормозит естественная монополия Nvidia и её вселенная CUDA — экосистема, под которую заточен почти весь ML-софт. Но альтернативы быстро взрослеют: по энергоэффективности, гибкости и удобству они уже начинают догонять GPU. К тому же на рынке появляется всё больше производителей самих GPU, и монополия, похоже, уже не вечна.
Все это в совокупности показывает нам, что некий сдвиг парадигмы и необходим, и, судя по всему, неизбежно наступит. И лично я склонен ожидать скорее накопительных изменений в целом, а не прорыва в одной конкретной компании или модели.
Аппаратные пределы при этом накладываются на экономические.
Вокруг ИИ сформировался огромный хайп, который толкает компании заливать эту сферу деньгами и требовать срочного результата. Все гонятся за громкими показателями — больше параметров, длиннее контекст, лучше следование инструкциям. Но уже видны признаки возможного «перегрева»: пишут, что капитализация ИИ-гигантов «вышла за все исторические рамки», а доходы пока не успевают за расходами. Мы практически берем штурмом стену ограничений, закидывая ее деньгами, вместо того чтобы остановиться и поискать элегантное решение.
Возможно, нас даже ждет откат ожиданий: инвесторы могут охладеть, не дождавшись финансовой отдачи и внезапно разочаровавшись в идее «развития ИИ во благо всего человечества». Рынок может замедлиться, и это даже сыграет всем на пользу. Нынешний темп бешеный, и если он снизится, у исследователей появится больше времени на фундаментальные улучшения технологий и устранение узких мест — например, в энергетике, этике и экологии. Станет возможно переосмысление имеющихся знаний.
Модели мира и следующая фаза развития ИИ
Поговорим о будущем или хотя бы о том, нужны ли науке альтернативные подходы… Согласно исследованиям 2025 года, более новые модели ИИ испытывают больше галлюцинаций, а не меньше.
Особенно показательным является то, что даже модели рассуждения o1 от OpenAI, которые представлялись как прорыв в логическом мышлении, не решили фундаментальную проблему галлюцинаций. Исследование Apple под названием The Illusion of Thinking продемонстрировало, что неспособность LLM к рассуждению — лишь часть гораздо более глубокой проблемы.
Активно набирает обороты новый исследовательский тренд, основанный на предположении, что следующий виток развития ИИ будет связан с концепцией моделей мира. Сейчас нейросети — большие имитаторы: они статистически улавливают шаблоны в данных, но не понимают мир в привычном нам смысле, больше оперируя вероятными сценариями. Лично для себя я склонен сравнивать это с интуицией: модели знают правильный ответ, потому что он часто появлялся в данных.
У человека, напротив, есть целая картина реальности: совокупность знаний и представлений, которые позволяют предсказывать последствия действий и делать выводы. Мы знаем, что будет, если выпустить стакан из рук, что горячее обжигает и откуда дует ветер. Эти вещи нигде явно не прописаны — мы выучиваем их из опыта и строим внутри причинно-следственную модель мира. LLM и другие генеративные модели такого опыта и возможностей не имеют, и, более того, сейчас алгоритмы скорее настраивается под обучающую выборку, которая и определяет их возможности. Вот почему генеративные модели так долго рисовали людям по три лишних пальца: они знали, сколько примерно пальцев бывает, но не понимали, зачем руке именно пять пальцев и как они выглядят в связке. Проще говоря, генеративные модели знают, как могут выглядеть кисти рук, но ничего не знают об их истинной структуре. И пальцы — это важный пример еще потому, что любой ребенок уже в возрасте пяти лет знает, сколько у него пальцев, и может их посчитать.
Модель мира в искусственном интеллекте — это когда сеть строит внутри себя виртуальную копию окружающей среды и использует ее для прогнозов. Многие современные модели мира больше похожи на симуляторы компьютерных игр: вы нажимаете на кнопки джойстика, а нейросеть рисует вам, что было дальше. Дальше такие модели можно использовать для обучения автономных агентов — например, ботов для игр. Такой подход уже показан в исследовании World Models: агент учится в так называемых снах, моделируя пространство игры. Похожий принцип применяет алгоритм DeepMind MuZero, который достигает уровня гроссмейстера в Go, шахматах и Atari, создавая внутреннюю модель среды без заданных правил. Это может существенно снизить проблемы с нелогичными ответами и открыть дорогу к более осмысленному ИИ, близкому к рассуждению, а не к подбору вероятного окончания фразы.
Пока концепция «модели мира» только формируется, о ней настойчиво говорит Ян Лекун — глава ИИ-подразделений в Meta (признана экстремистской и запрещена в РФ), лауреат премии Тьюринга и один из «крестных отцов» глубокого обучения. Он регулярно критикует идею бесконечного наращивания размеров LLM’ок и продвигает архитектуры, способные строить внутреннюю картину реальности.
Работы DreamerV3 и UniZero показывают, как агенты учатся «воображать» будущие состояния в собственной модели мира и решают сотни задач без прямого взаимодействия с окружением. Однако это всего лишь эксперименты, и они еще далеки от реального применения.
Тем не менее в конце прошлого года в исследовании Language Agents Meet Causality — Bridging LLMs and Causal World Models авторы уже попробовали объединять каузальные (causal) модели мира, которые сами и разработали, с LLM для сценариев роботизации. Кажется, у них получилось весьма убедительно.

Другой возможный путь развития — специализация ИИ. Сейчас все гонятся за универсальными моделями, которые умеют всё. GPT-4 пишет код, решает задачи по математике, сочиняет сказки — впечатляет, но в узкоспециализированных вопросах модель чаще уступает человеку-профессионалу, который годами работает именно в этой сфере. Есть мнение, что будущее — за множеством специализированных ИИ с экспертизой в своей узкой области. Во всяком случае косвенно успех DeepSeek связан с тем, что внутри себя эта LLM на самом деле является миксом экспертов (Mixture of experts), то есть состоит из множества экспертов, хотя в контексте ML-теории этот термин имеет несколько другое значение.
Другой пример этого подхода — модель Med-PaLM 2, обученная на биомедицинских текстах, на тестах MedQA показала 86% точности. На сегодня она чемпион в ответах на медицинские вопросы, и есть даже слепые тесты, в которых реальные врачи сами предпочитают ответы MedQA ответам других врачей.
Как бы то ни было, мы видим, что феномен ChatGPT распадается теперь на множество альтернативных направлений, среди которых в том числе развитие и самих языковых моделей. Но (как и на прошлых итерациях) может получиться, что новая ветка ИИ будет совершенно неожиданной и удивительной.
Конкретные кейсы в медицине и науке
Все эти рассуждения о будущем подкрепляются уже происходящими вещами. Посмотрим на науку и медицину — сферы, где ИИ действительно стал трансформирующей силой.
AlphaFold от DeepMind решила 50-летнюю задачу предсказания 3D-структуры белков. В биологии это стало революцией: теперь вычисления, которые раньше требовали месяцев лабораторной работы, выполняются за часы, ускоряя разработку лекарств и генетические исследования. Во время пандемии COVID-19 ученые использовали предсказания AlphaFold, чтобы оценивать возможные мутации вирусных белков и готовить вакцинные мишени. ИИ помогает и с другой надвигающейся угрозой — устойчивостью бактерий к антибиотикам: алгоритм MIT выявил молекулу halicin, перебрав виртуально тысячи соединений и показав ее эффективность против супербактерий.
В 2024 году исследователи из университета Эребру взяли готовую нейросеть YOLOv8, которая обычно «видит» людей на камерах наблюдения, слегка дообучили ее и применили, чтобы автоматически находить и считать эмбрионы у аквариумных рыбок zebrafish под микроскопом. Модель показала точность 84% и доказала, что простой «камерный» алгоритм способен решать серьезные лабораторные задачи.
В генетике быстро набирают силу так называемые геномные языковые модели. Один из ярких примеров — DNAGPT, обученный на более чем 200 млрд «букв» ДНК: он находит повторяющиеся мотивы и подсказывает, какие участки отвечают за включение или отключение генов.
Еще масштабнее выглядит проект Evo2, натренированный на 9,3 трлн нуклеотидов из 128 тысяч геномов. Такие модели уже автоматически предсказывают функцию гена с точностью, сопоставимой с лабораторными методами. По сути, биологи получают умную лупу, которая помогает быстрее понять работу ДНК и ускоряет поиск лекарств. Подобные узкоспециализированные ИИ-инструменты появляются все чаще, хотя о большинстве из них широкой аудитории пока мало известно.
Перейдем к повседневной медицине. Тут ИИ-прорывы ощущают даже те, кто далек от data science. Возьмем хирургию. Так, во время операций на мозге хирурги надевают AR-очки: трехмерные снимки КТ/МРТ проецируются прямо на поле зрения и показывают безопасный «коридор» к цели. Камеры и ИИ следят за кончиком инструмента и предупреждают, если тот отклоняется. В коммерческом сегменте схожий принцип реализует стартап Medivis: его платформа SurgicalAR для позвоночной навигации получила одобрение FDA — Управления по контролю за продуктами и лекарствами США, которое проверяет безопасность и эффективность всех медицинских устройств перед тем, как их допускают в клиники.
Другой пример из медицинского рынка — умные госпитали. В США в новые больницы действительно вкладывают сотни миллионов. Так, этой весной под Хьюстоном открыли проект на 685 млн долларов с палатами, где датчики движения, голосовое управление и цифровые доски помогают персоналу и пациентам. Похожие системы уже разворачивают крупные сети, например Cleveland Clinic и Northwestern Medicine: камеры и сенсоры с ИИ в реальном времени отслеживают движение пациентов. Если человек встает, садится на край кровати или уже упал, система сразу посылает тревогу медсестрам. Кроме того, ИИ берет на себя рутинную бумажную работу: сам заносит в электронную карту, когда выдано лекарство, формирует итоговые записи смены и анализирует потоки данных, чтобы заранее предупреждать о риске сепсиса.
Получается, что вся работа по-прежнему остается за человеком, но ИИ стал его вторыми глазами и навигатором, значительно повысив точность и безопасность вмешательства.
Важно отметить, что все эти примеры — не про абстрактный модный ИИ из новостей, а про решение конкретных задач. Разработчики умных госпиталей, например, начали свои проекты задолго до появления GPT-4 и прочих LLM-хайпов. Они использовали проверенные технологии: компьютерное зрение для детектирования событий, простой NLP для заполнения отчетов, голосовые ассистенты для приема запросов. То есть в основе многих реализованных кейсов лежат алгоритмы прошлого десятилетия — детекторы объектов, классические классификаторы, системы распознавания речи. Они уже давно отлажены, работают шустро и не требуют космических мощностей. И теперь, когда список проблем, которые все хотят решить, расширяется, наработанная инфраструктура позволяет быстро подключать новые достижения науки. Медицинские ИИ-стартапы не ждут, когда им подкинут волшебную нейросеть; они берут то, что уже работает, и внедряют. Такой прагматичный подход — залог реальных изменений.
В итоге роль ИИ в науке и медицине можно описать просто: решение конкретных проблем лучше прежнего. Пока вокруг шумят про абстрактный AGI, умные алгоритмы тихо увеличивают нам продолжительность и качество жизни. Я уверен, что через 10–20 лет мы будем жить дольше и здоровее именно благодаря таким прикладным решениям. За столетие средняя ожидаемая продолжительность жизни в мире выросла почти на 40 лет — с 32 лет в 1900-м до 71 года в 2021-м, а новые технологии могут прибавить еще столько же.
ИИ без магии и мифов
Пора критически оценить картину с ИИ целиком. Сейчас, после пика ажиотажа, постепенно приходит отрезвление. Хайп сменяется более спокойным и вдумчивым отношением: все понимают, что чудес не бывает, и перед нами не волшебник, а просто очень мощный инструмент. Хочется, чтобы вокруг искусственного интеллекта чуть поубавилось магического ореола. Все эти разговоры, что «завтра появится AGI и изменит человечество», оказались сильно преувеличены. Да, современный ИИ впечатляет, но он далек от настоящего разума, хотя становится все сложнее поверить, что это не так (читайте эту статью на CNN, например).
Кроме того, нужно честно признать ограничения. Как уже отмечалось, мегамодели обходятся дорого: им требуются колоссальные вычислительные мощности, а стабильность их работы пока не гарантирована. Они все еще допускают ошибки, нередко выдавая недостоверные ответы уверенным тоном, и их эксплуатация обходится в значительные суммы. Массовое внедрение таких систем означает принятие этих рисков на себя. В реальных продуктах без команды, инфраструктуры и тщательного контроля использовать сырые ответы нейросети опасно.
Искусственный интеллект не отменяет хорошую инженерию. Напротив, чтобы получить ценность от ИИ, нужна серьезная работа людей. И после запуска модели снова нужны люди: отслеживать качество, ловить перекосы, дообучать, поддерживать инфраструктуру. Даже готовые открытые модели, которые можно скачать бесплатно, бесполезны без правильной интеграции и настройки под вашу задачу.
Я уже замечаю в проектах: менеджеры хотят мгновенного чуда — мол, «давайте прикрутим ChatGPT, и все заработает». А так не бывает. Любой ML-проект — это марафон, особенно если вы делаете что-то с нуля. Нужно время, чтобы собрать данные, проверить гипотезы, адаптироваться к домену. В первые месяцы разработка идет медленно, зато потом, когда набьется критическая масса экспертизы, можно увидеть отдачу. Но из-за всеобщей гонки мало кто хочет ждать. Сплошь и рядом вижу попытки заменить продуманное планирование на «игру в промпты»: вместо того, чтобы нанять специалиста, компании пробуют выжать максимум из готовых моделей, надеясь перепрыгнуть через этапы. В краткосрочной перспективе иногда что-то получается — сейчас ведь действительно проще, чем пять лет назад: можно скачать с Hugging Face нужную нейросеть и использовать как есть. Открыл open-source — и не надо ни данных своих собирать, ни модель с нуля тренировать. Однако все это годится лишь для прототипа или частного случая. Долгосрочные конкурентные преимущества создаются другим: глубоким пониманием задачи, командой экспертов и устойчивой инфраструктурой. Специалистов, к слову, очень не хватает — хороший ML-инженер на вес золота, и вы не можете просто нанять десяток новых, их попросту нет на рынке. Так что волей-неволей придется растить людей, вкладываться в их обучение и разбираться самим. ИИ не заменяет нас, а требует нас (как это ни парадоксально звучит). И требует больше, чем когда-либо: знания, критичного мышления, креативности.
Мне кажется, в ближайшие годы пройдет эта золотая лихорадка вокруг модных моделей и мы займемся размеренной работой: будем шаг за шагом внедрять ИИ там, где он реально полезен, и учиться жить с его ограничениями. Трезвый взгляд на вещи убережет нас от разочарования и ложных ожиданий. А польза от искусственного интеллекта никуда не денется — просто она раскроется не через сенсации, а через упорный труд инженеров и ученых.