Когда я в начале 80-х поступил в ВУЗ на «Прикладную математику», идея дискретизации мира поразила меня до глубины души. Казалось, всё вокруг можно (и нужно!) оцифровать. Первым экспериментом стала музыка — идея лежала на поверхности: назначить числа каждому полутону, выстроить последовательность, а дальше подвергай её любому анализу, ищи закономерности, которые превращают какофонию в популярную мелодию.
В процессе обучения я погрузился в цифровые компьютеры и практически не заметил одного небольшого курса по аналоговым машинам. Помню лишь лабораторную работу на громоздком стенде, где мы вычисляли интеграл, суммируя токи в цепи. Тогда это казалось архаизмом, милым приветом из прошлого. Но спустя десятилетия, наблюдая за обществом и природой, начинаешь понимать другое: весь мир оцифровать нельзя. Потому что сам мир — не цифровой, а аналоговый.
Часть I. Почему мир не помещается в дискретную коробку
Мы привыкли, что компьютер — это непременно устройство с дискретным «мозгом», оперирующим нулями и единицами. Цифровая революция случилась именно потому, что дискретное надежно: его легко хранить, копировать без потерь и обрабатывать логикой. Но любой процесс оцифровки — это всегда потеря информации. Между «до» и «до-диезом» лежит бесконечность микроинтервалов, а звуковая волна на CD режется на 44 100 кусочков в секунду. Мозг дорисовывает остальное, но это иллюзия полноты.
Природа не дискретна. Возьмем муравья. Его мозг размером с маковое зернышко содержит от 250 тысяч до 1 миллиона нейронов — ничтожно мало по сравнению с 86 миллиардами у человека. И тем не менее, колония муравьев демонстрирует сложнейшее коллективное поведение: выращивание «грибных садов», строительство многоярусных сооружений, навигацию по феромонным следам. Роевой интеллект возникает из взаимодействия множества простых аналоговых агентов, каждый из которых реагирует на непрерывный градиент запаха, а не на дискретные команды.
Экономические процессы тоже куда более аналоговы, чем принято думать. Мы пытаемся описать их дискретными индексами: ВВП вырос на 2.5%, индекс Доу-Джонса упал на 300 пунктов. Но за этими цифрами стоят непрерывные, вязкие процессы — настроение трейдеров, волны оптимизма и пессимизма на бирже, распространение слухов, цепочки межбанковских расчетов, которые длятся микросекунды и накладываются друг на друга. Мы режем непрерывную ткань экономической реальности на дискретные кусочки статистики, чтобы хоть как-то с ними совладать.
Часть II. Краткая история: как цифра победила аналог (и дорого за это заплатила)
Аналоговые вычисления намного старше цифровых. Самый известный пример — Антикитерский механизм (около 100 г. до н.э.) с бронзовыми шестернями для расчета положения небесных тел. В XX веке аналоговые машины достигли расцвета: от гидравлического интегратора Лукьянова (1936), где вода текла по трубам, моделируя процессы в бетонных плотинах, до ламповых электронных монстров 50-60-х, которые считали траектории снарядов быстрее любых цифровых машин того времени.
Как цифра выиграла гонку
К 1970-м цифра одержала безоговорочную победу. Цифровые ЭВМ предложили то, чего не мог дать аналог: универсальность. Одну и ту же машину можно использовать и для расчета ядерного реактора, и для печати платежных ведомостей. Аналоговый же компьютер проектировался под конкретную задачу и требовал физической перенастройки — фактически это был калькулятор для одной формулы.
Кроме того, цифра обеспечивала точность и повторяемость. Аналоговые сигналы всегда страдают от шумов и дрейфа температур. Сегодня вы получили один результат, завтра — чуть другой, потому что транзисторы нагрелись. Для промышленности и науки это было неприемлемо.
Казалось, будущее принадлежит только цифре.
Цена универсальности
Однако плата за универсальность оказалась колоссальной. Цифровые процессоры страдают от так называемого «фон-неймановского узкого горлышка»: данные постоянно пересылаются между памятью и вычислительным блоком. На эту пересылку тратится энергия и время. Аналоговые же машины выполняли вычисления прямо там, где возникал сигнал — физически, в самой цепи.
Чтобы понять масштаб проблемы, представьте кухонный комбайн с очень узким горлышком. Вы хотите приготовить суп-пюре из 10 000 ингредиентов. Комбайн работает точно, строго по программе, но он может перемалывать только по одному кусочку за раз. Ингредиенты нужно долго проталкивать через это горлышко (шина данных). Это требует времени и энергии.
Аналоговый подход — это просто опрокинуть кастрюлю в тарелку. Физика процесса делает всю работу мгновенно и почти без затрат энергии. Проблема: можно немного пролить мимо (шумы, неточность). Но если допустимая погрешность велика — этот способ в тысячи раз эффективнее.
Тупик, в который зашла цифра
Сегодня дальнейшее наращивание производительности цифры упирается в тепловыделение и энергопотребление. Международное энергетическое агентство прогнозирует, что в 2026 году дата-центры будут потреблять около 1000 ТВт·ч электроэнергии — примерно столько же, сколько вся Япония. При этом в промышленной эксплуатации 90% энергии уходит на работу нейросетей, а не на их обучение.
Но главное даже не в энергопотреблении. Закон Мура, десятилетиями двигавший прогресс, исчерпал свой потенциал. Экспоненциальный рост количества транзисторов на кристалле практически остановился. Сегодня техпроцессы достигли 3-5 нанометров — это размеры, где начинают проявляться квантовые эффекты. Дальнейшее уменьшение транзисторов теряет смысл: электроны начинают вести себя непредсказуемо, а утечки тока сводят на нет весь выигрыш от миниатюризации.
В конце 2025 года тайваньская TSMC, крупнейший в мире контрактный производитель чипов, без лишнего шума объявила о запуске массового производства по 2‑нанометровому техпроцессу (N2). Для индустрии это событие ознаменовало не просто очередной шаг по лестнице миниатюризации, а фундаментальную смену эпохи: TSMC впервые в своей практике внедрила в массовое производство транзисторы с нанолистовой структурой (GAA — Gate-All-Around), которые приходят на смену прежним FinFET-транзисторам, доминировавшим более десятилетия.
Казалось бы, вот оно, торжество цифры. Но этот переход только подчеркивает тот факт, что традиционный путь развития — простое сжатие транзисторов — подошел к физическому пределу. FinFET-структура, где затвор окружает канал с трех сторон, перестала эффективно работать на масштабах менее 3 нм, не справляясь с утечками тока. Чтобы сделать следующий шаг, TSMC пришлось перейти на более сложную архитектуру — горизонтально уложенные нанолисты, где затвор оборачивается вокруг канала со всех четырех сторон.
Технические характеристики N2 это подтверждают: переход на GAA и внедрение новых сверхвысокопроизводительных конденсаторов позволил снизить энергопотребление на 25–30% при той же производительности. Но главное даже не в цифрах. Важно то, что даже лидеру индустрии этот «микрошаг» потребовал миллиардных инвестиций и смены всей архитектуры транзисторов. А следующие рубежи — техпроцессы N2P и A16 с тыловой подачей питания — потребуют еще больших усилий. Это не «еще один шаг», а качественный скачок, взятый ценой преодоления физических барьеров, который наглядно демонстрирует: эра беззатратного масштабирования по закону Мура закончилась. Именно поэтому индустрия все активнее ищет обходные пути, и один из самых многообещающих — возврат к аналоговым вычислениям, о которых и идет речь в этой статье.
Ирония судьбы
И здесь возникает парадокс. Мы построили гигантскую цифровую цивилизацию на идее дискретности. Мы научились дробить мир на пиксели и семплы с такой точностью, что глаз и ухо не замечают подвоха. Но чтобы двигаться дальше, нам приходится вспоминать о забытых аналоговых принципах. Не как о замене цифре, а как о способе обойти фундаментальные физические ограничения, в которые цифра уперлась.
Аналоговые решения возвращаются — но уже в новом обличье.
Часть III. Технологическая база ренессанса
Мемристор — четвертый элемент
Чтобы аналоговые вычисления вернулись, нужны были компоненты, которых не было у инженеров 60-х. В 1971 году профессор Леон Чуа теоретически предсказал существование четвертого базового пассивного элемента (в дополнение к резистору, конденсатору и катушке индуктивности), названного мемристором (резистор с памятью). Его сопротивление зависит от заряда, который через него протек. Физически мемристор удалось создать лишь в 2008 году.
Сегодня технология резистивной памяти (ReRAM) активно развивается. Ячейка ReRAM — это структура металл-диэлектрик-металл, где тонкий слой оксида (например, гафния или тантала) может обратимо менять сопротивление под действием напряжения. Важнейшее свойство мемристора для аналоговых вычислений — возможность записывать не только «0» и «1», но и множество промежуточных состояний. То есть один мемристор может хранить весовой коэффициент нейросети как аналоговую величину.
В России разработкой мемристоров активно занимаются в Институте физики полупроводников СО РАН. Ученые там создают прототипы на основе нестехиометрических оксидов и даже нашли способ снижать разброс параметров с помощью электронного луча, формирующего «затравку» проводящего канала.
Часть IV. Ключевой принцип: гибридизация — почему аналог не заменяет цифру, а дополняет ее
Это самый важный пункт для понимания текущего момента. Современные аналоговые системы — это не попытка воскресить ламповые монстры 60-х и не противопоставление цифре. Речь идет о принципиально иной архитектуре: гибридной.
Представьте оркестр, в котором есть и цифровые синтезаторы (точные, программируемые, универсальные), и аналоговые инструменты (скрипки, виолончели), которые дают тепло и непрерывность звука. Никто не предлагает убрать синтезаторы. Речь о том, чтобы позволить каждому инструменту делать то, что у него получается лучше всего.
В гибридной вычислительной системе:
Цифровой процессор управляет логикой, принимает решения, выполняет точные расчеты и уточняет результат. Это «мозг», который видит общую картину.
Аналоговый ускоритель берет на себя тяжелые, но регулярные вычислительные задачи — прежде всего матричное умножение, которое составляет основу работы нейросетей. Он делает это мгновенно и с минимальными затратами энергии, потому что вычисление происходит физически, на уровне токов или света, прямо в том месте, где хранятся данные. Это называется «вычисления в памяти» (in-memory computing).
Иными словами, мы перестаем пересылать данные туда-сюда через узкое горлышко шины. Мы просто позволяем физике посчитать там, где данные лежат. Аналоговый ускоритель работает как бы «в сыром виде», быстро, но с шумами, а цифровой процессор затем доводит результат до ума.
Именно этот симбиоз — точность цифры и скорость физики — открывает новые горизонты. Цифра обеспечивает универсальность и подавление ошибок, аналог — энергию и скорость. Ни один из подходов не отменяет другой.
Часть V. Калейдоскоп прорывов: что принес 2025 год
Последние месяцы 2025 года оказались на удивление щедрыми на новости из мира аналоговых вычислений. Вот ключевые события, доказывающие, что гибридный подход работает.
Австралия и США: микроволновый ускоритель с программируемой архитектурой В сентябре 2025 года группа инженеров из Австралии и США (Технологический университет Сиднея, Городской университет Нью-Йорка, Рочестерский технологический институт) представила в журнале Nature Communications программируемую микроволновую интегральную схему для аналоговых матричных вычислений. Устройство работает в диапазоне 1.5–3.0 ГГц, потребляет сотни микроватт и способно к самокалибровке, компенсируя ошибки изготовления через настройку фазовых элементов. Разработчики видят её применение в радарах следующего поколения, системах связи (включая 5G и перспективные), сенсорах и космических технологиях, где требуется обработка сигналов в реальном времени. Источник: Keshavarz, R., et al. "Programmable circuits for analog matrix computations." Nature Communications 16, 8514 (2025). DOI: 10.1038/s41467-025-63486-z ? https://www.nature.com/articles/s41467-025-63486-z
Китай: чип на ReRAM в 1000 раз быстрее Nvidia H100 В октябре 2025 года исследователи из Пекинского университета опубликовали в журнале Nature Electronics описание аналогового чипа на основе резистивной памяти (ReRAM), который решает матричные уравнения с беспрецедентной эффективностью. Китайские ученые решили классическую проблему низкой точности аналоговых систем, создав двухуровневую архитектуру: сначала выполняется быстрое приближенное инвертирование матрицы, затем — точное итеративное уточнение. Это позволило достичь точности 24-битной фиксированной запятой (сопоставимо с 32-битным floating point), что на пять порядков лучше традиционных аналоговых методов. Результаты тестирования показывают, что чип обеспечивает в 1000 раз более высокую пропускную способность (throughput) и в 100 раз лучшую энергоэффективность по сравнению с ведущими GPU, включая Nvidia H100. Что особенно важно: чип изготовлен по стандартной 40-нм CMOS-технологии, что открывает путь к серийному производству. Источник: Zuo, P., Wang, Q., Luo, Y. et al. "Precise and scalable analogue matrix equation solving using resistive random-access memory chips." Nature Electronics (2025). DOI: 10.1038/s41928-025-01477-0 ? https://www.nature.com/articles/s41928-025-01477-0
Microsoft и Barclays: оптический компьютер из деталей смартфонов Группа исследователей Microsoft Research (Кембридж, Великобритания) совместно с учеными из Кембриджского университета и банком Barclays представила в журнале Nature статью об Analog Optical Computer (AOC). Это гибридная система, где вычисления выполняются лучами света. Принцип работы: микро-LED генерируют свет, интенсивность которого кодирует данные. Свет проходит через пространственный модулятор (SLM), хранящий весовые коэффициенты. На выходе фотодетекторы суммируют оптические сигналы. Весь цикл занимает 20 наносекунд. По оценкам Microsoft, энергоэффективность AOC может достигать 500 TOPS на ватт, что в сотни раз выше, чем у существующих GPU. Прототип собрали из коммерчески доступных компонентов, включая сенсоры от камер смартфонов. Система уже решает реальные задачи: Медицина: реконструкция МРТ-снимков с использованием сжатых измерений — задача, с которой классические цифровые алгоритмы справляются гораздо медленнее. Финансы: оптимизация межбанковских клиринговых расчетов для Barclays. В тестах на 41 переменной AOC находил глобальный оптимум со 100% успехом, тогда как квантовые системы справлялись лишь в 40-60% случаев. Источник: Kalinin, K.P., Gladrow, J., Chu, J. et al. "Analog optical computer for AI inference and combinatorial optimization." Nature 645, 354–361 (2025). DOI: 10.1038/s41586-025-09430-z https://www.nature.com/articles/s41586-025-09430-z
-
Россия: фотонный процессор на 662 ТБ/с В июне 2025 года Национальный центр физики и математики (НЦФМ) совместно с Самарским университетом имени Королева отчитался о создании демонстрационного образца аналогового фотонного процессора. Устройство предназначено для распознавания образов и способно обрабатывать информацию со скоростью 662 терабайта в секунду. Это в сотни раз быстрее современных цифровых нейросетей. Процессор особенно эффективен для анализа гиперспектральных данных (например, со спутников), где массивы информации огромны изначально. Точность распознавания рукописных цифр составила 93.75%. К 2030 году ученые планируют довести скорость до 125 эксабайт в секунду, что позволит создать установку класса «мегасайенс» для фундаментальных исследований в области ИИ. Источник: Пресс-релиз Национального центра физики и математики (НЦФМ), июнь 2025.
Часть VI. Что дальше?
Сводя всё воедино, можно выделить три направления, где гибридные аналогово-цифровые системы изменят правила игры: Искусственный интеллект. Работа больших языковых моделей требует колоссальных ресурсов. Аналоговые ускорители выполняют матричные умножения (основу нейросетей) прямо в памяти, мгновенно и с минимальным энергопотреблением. Оптимизационные задачи. Логистика, финансы, планирование. Там, где цифра перебирает варианты, аналоговая система может находить оптимум физически — за счет интерференции волн или релаксации токов. Сверхбыстрая обработка сенсорных данных. Радары, 6G, томография. Сигнал от природы изначально аналоговый. Преобразовывать его в цифру, обрабатывать, а потом снова превращать в аналог — неэффективно. Аналоговые процессоры работают с сигналом напрямую. Заключение Цифровые компьютеры никуда не денутся. Они останутся для точных расчетов, для логики, для текста. Но в задачах, где скорость и энергоэффективность важнее абсолютной точности (а это огромный пласт — от ИИ до космоса), мы возвращаемся к истокам. Только теперь вместо громоздких ламповых стендов у нас наноразмерные мемристоры и оптические чипы из компонентов смартфонов, работающие в связке с цифрой. Мир не цифровой. И мы наконец учимся с ним разговаривать на его родном языке.
Комментарии (50)

NeoCode
07.03.2026 21:24Ждем, ждем... надеюсь этот ИИ-бум (или пузырь) действительно приведет к прорывным технологиям.

Sdima1357
07.03.2026 21:24Аналог шумит и много жрет. Ну десяток другой каскадов и все. А дальше только с сатурацией типа сигмоида. А на переключение цифр энергия тратится только на переключение. И с памятью так себе аргумент, никто не мешает засовывать триггеры прямо в цепочку вычислений как на fpga Томография уже давно на GPU считается быстрее чем сканируется, уже лет 10 как.

intdif Автор
07.03.2026 21:24Вы правы про шумы — это главная головная боль аналога. Но в гибридных системах (как AOC от Microsoft) аналоговая часть делает только однородные матричные умножения, где шум подавляется итеративным процессом (фиксированная точка). Цифра же тратит энергию не на сами вычисления, а на пересылку данных туда-сюда — и это проблема даже для FPGA при больших объемах. Аналог считает там же, где данные лежат. Именно поэтому даже TSMC пришлось менять архитектуру транзисторов — дальнейшее масштабирование цифры уперлось в физику.

Sdima1357
07.03.2026 21:24Чтобы данные(инварианты, веса) лежали в месте потребления - их туда надо как-то доставить(из хранилища ? ), или они должны быть зафиксированы на этапе изготовления, что резко сужает области применения

intdif Автор
07.03.2026 21:24Именно так. Поэтому гибридный подход не универсален. Но для задач, где веса меняются редко (обученные модели, конкретные оптимизационные задачи), однократная загрузка данных окупается тысячекратным выигрышем в скорости и энергии при каждой операции.

BenGunn
07.03.2026 21:24Прочитав про назначение цифр каждому пооутону и 44100 кусочков в секунду уже можно закрывать статью.

frt123
07.03.2026 21:24Как прикладной математик начала 80х могу заметить, что специалисты в компьютерных технологиях из нас не самые сильные, очень не хватает академических знаний. Papers ( не уверен, как это по русски будет, "курсы" - как-то странно звучит) вроде булевой алгебры, теории игр и лабораторная работа на фортране по визуализации переходных процессов в катушке индуктивности не очень помогают.
С другой стороны, по меткому замечанию преподавателя на экзамене:Аналоговые машины это быстро и неточно, цифровые машины это точно, но долго.
Гибридные машины пробовали и они фантастическим образом сочетают в себе недостатки как аналоговых машин так и цифровых.

aal27
07.03.2026 21:24Аналоговые вычисления очень плохо воспроизводятся :-( Не взлетит . . .

JBFW
07.03.2026 21:24Справедливости ради - на аналоговых компьютерах удобно проверять некоторые теории и идеи. Например, в части разнообразных автоматических систем управления - ТАУ хорошо ложится на электронные схемы из всяких там ОУ с ОС и RC-фильтров, и вот это как раз можно проверять, в пределах определенных допусков.
Все равно в жизни ни одна реальная система не будет 100% соответствовать расчетам, всегда есть помехи.

vladeloff
07.03.2026 21:24"Мир" это разворачивание информации через материю. "Аналоговый и цифровой" это этапы разворачивания в разных субстратах. Противоречия нет.

qwaqwaqwaqwaqwa
07.03.2026 21:24Q.ANT уже выпускает готовые решения NPU
Дорожная карта до 2028 года: прогнозируемый рост производительности — с 0,1 GOps в 2024 году до 100 000 GOps к 2028-му, то есть миллионократный прирост за пять лет.Q.ANT — это по-сути лазерное подразделение TRUMPF, миллиарды крутятся — аналоговые процессоры мутятся.

intdif Автор
07.03.2026 21:24Q.ANT — отличная иллюстрация к статье: фотонные вычисления как раз из той же области — возврат к аналогу (оптике) для обхода энергетического потолка цифры. Их 30 Вт против тысяч у GPU прямо подтверждают что «ИИ уперся в розетку».

nv13
07.03.2026 21:24А что с графиками точность вс сложность для аналога и цифры? Опровергли уже?)

intdif Автор
07.03.2026 21:24В Пекинском университете (Sun Zhong, 2025) достигли точности 24-битной фиксированной запятой — на 5 порядков лучше традиционных аналоговых методов. Но это потребовало двухуровневой архитектуры: быстрое приближение + точное уточнение. Компромисс между точностью и скоростью можно обойти только за счет гибридизации. С Q.ANT я пока разбираюсь, но они заявляют точность 99.7% (FP16) в фотонных вычислениях.

LinkToOS
07.03.2026 21:24Очень плохо. И по стилю и по фактической точности. Лишнее подтверждение того, что LLM не пригодно для быстрого написания статей.
То есть один мемристор может хранить весовой коэффициент нейросети как аналоговую величину.
С каким разрешением? В приведенной работе китайских исследователей, они использовали RRAM матрицу с разрешением 3 бита на ячейку.

intdif Автор
07.03.2026 21:24Да, в работе Peking University 2025 года использовались 3-битные ячейки ReRAM . Фраза в статье — обобщение: мемристоры позволяют хранить аналоговые значения (в отличие от бинарных триггеров), но с ограниченной точностью, которая для разных задач варьируется от 2-3 бит до 8-9 в экспериментальных образцах. Спасибо, что обратили внимание.

SebastianP
07.03.2026 21:24Мы просто позволяем физике посчитать там, где данные лежат.Если мы в симуляции, мы просто переносим вычисления на сервер симуляции))

Combinator_30
07.03.2026 21:24Точность распознавания рукописных цифр составила 93.75%.
Это вообще ни о чём.(
JBFW
Узкое горлышко тут не пересылка байтов, а программы, писанные программистами в лоб без оглядки на ресурсы.
А зачем? Поставим ещё 100500 гигабайт, обновим железо - потянет!
Yuri__M
Именно. Особенно мода на интерпретируемые языки вместо компилируемых.
JBFW
Ну, слово "интерпретируемые" на самом деле не вполне точно, некоторые интерпретируемые на момент запуска программы языки по сути компилируются в код, который висит в памяти и исполняется, так что потерь на интерпретацию тут нет, если не запускать программу постоянно заново.
Но вот абстракции на абстракции, когда для записи десятка байт в ячейки памяти нужно перемолотить кучу функций во вложенных классах со всеми проверками - это тормозит работу в разы
Yuri__M
Jit-компиляторам все-таки до компиляторов классических (GCC/Clang/MSVC/etc) по степени оптимизации получаемого исполняемого кода далековато.
JBFW
Это оборотная сторона удобства модификации.
Скриптовую программу можно поправить или поменять быстро, компилируемую - сложнее и дольше.
А так-то можно и на ассемблере написать, будет эффективно. Или вовсе на конечных автоматах аппаратную конструкцию собрать - сумматоры, делители, регистры всякие...
Yuri__M
Критичные по производительности части кода обычно на ассемблере (или в виде интринсиков, что по сути то же самое) и пишут, причем так, чтобы использовать возможности целевого процессора по максимуму (avx/neon/etc). Тогда и получается нормальный рабочий продукт.
Насчет "сложнее и дольше" - все-таки, если речь о финальном продукте, а не о этапе разработки-отладки - код правят не каждый день, потери процессорного времени и памяти на постоянное выполнение неоптимизированного кода - выше, чем затраты на разовые перекомпиляции.
MountainGoat
Это какие? Bash?