Кремний правит IT-миром уже полвека, но сегодня даже самые продвинутые чипы всё чаще сталкиваются с пределами: тепловые ловушки, токи утечки и борьба за каждый дополнительный гигагерц превращается в разработку на грани фола на грани физики. Частотная гонка больше не спасает — теперь в фокусе многоядерные архитектуры, вертикальная упаковка и поиски замены кремнию.

Почему классические технологии больше не тянут, как новые подходы формируют будущее вычислений — и что это значит для разработчиков?

Как мы пришли к плато частот

Вы когда-нибудь задумывались, почему ваш смартфон мощнее компьютера 1998 года, но при этом не перегревается? 

В течение почти трёх десятилетий процессорная индустрия жила по двум фундаментальным правилам: закону Мура и масштабированию по Деннарду. Закон Мура (1965) предсказывал удвоение числа транзисторов на кристалле примерно каждые два года, что обеспечивало постоянный рост производительности и снижение стоимости вычислений. Масштабирование по Деннарду (1974) объясняло, как это срабатывает на практике: уменьшение геометрии транзисторов сопровождалось пропорциональным понижением напряжения питания, благодаря чему плотность рассеиваемой мощности оставалась стабильной и частоты росли без перегрева.

График по закону Мура. Источник.
График по закону Мура. Источник.

Итогом этого тандема в 1990-х — начале 2000-х стала знаменитая «тактовая гонка»: Intel и AMD соревновались, выпуская всё более высокочастотные процессоры — вплоть до 4 ГГц в эпоху Pentium 4 и Athlon XP. Однако к концу 2000-х годов физические законы взяли своё: токи утечки и квантовое туннелирование при масштабировании вступили в конфликт с требованием понижать напряжение, и дальше понижение уже не работало. Попытки разогнать ядро выше 4 ГГц встретили непреодолимый рост тепловыделения и энергопотребления; так возник «тепловой кризис» середины 2000-х, когда TDP массовых чипов достиг уровня, неподъёмного для стандартных систем охлаждения.

Переломный момент настал, когда стало ясно, что чистая скорость тактового цикла достигла своего потолка. Индустрия ответила сменой парадигмы: вместо наращивания частоты появились многоядерные архитектуры. Первые двухъядерные процессоры сменили 4 и 8-ядерные, а затем и десятки ядер в серверных решениях. Параллельно начали широко поддерживаться SIMD-инструкции (SSE, AVX) и графические процессоры как вычислительные ускорители для интенсивных задач.

В результате «тактовая гонка» подошла к логическому концу, и индустрия развернулась к новым путям роста: многопоточности и многоядерности, микроархитектурным оптимизациям и повышению энергоэффективности. Сегодня плато частот — это не признак застоя, а отражение пределов кремниевой физики и триумфа архитектурных инноваций над чистой дикой скоростью такта.

Физические лимиты такта

Рост тактовой частоты процессоров неизбежно наталкивается на фундаментальные законы физики. Энергопотребление цифровой логики приближенно описывается формулой

где P — потребляемая мощность, C — ёмкость вентилей, V — напряжение питания, а f — частота. Благодаря квадратичной зависимости от напряжения повышение V и f быстро превращается в тепловую проблему: современные чипы выделяют больше тепла, чем способны отвести традиционные системы охлаждения.

В реальном мире это означает отказ дата-центров от привычных кондиционеров. Например, в тёплых регионах Google перешла на жидкостное охлаждение своих стойких Xeon-серверов с частотой около 3,5 ГГц. Жидкость циркулирует прямо через медные каналы в процессоре, позволяя поддерживать PUE (Power Usage Effectiveness) на уровне 1,1 и сохранять производительность там, где воздушное охлаждение уже бессильно.

С уменьшением техпроцесса до 3 нм открывается ещё один рубеж — квантовые токи утечки. Толщина оксида затвора оказывается всего в 1–2 атома, и электроны начинают преодолевать это барьерное пространство туннельным эффектом, что не просто разогревает кристалл, но и приводит к постоянному сидячему потреблению энергии. В ответ производители мобильных SoC вводят «boost»-режимы: кратковременное повышение частоты до максимума (обычно не дольше 100 мс), после чего ядро переходит на более низкие частоты, чтобы не вывести себя из строя из-за перегрева.

Наконец, существует предел, заданный временными характеристиками самих транзисторов. Чтобы работать стабильно, каждое переключение должно завершаться внутри одного такта. Хотя граничная частота современных кремниевых вентилей теоретически может достигать сотен гигагерц, на практике архитектурные ограничения и паразитные индуктивности заставляют держать реальный ff на уровне в несколько гигагерц. Именно поэтому мы уже более десяти лет наблюдаем застой в диапазоне 3–5 ГГц: дальнейший рост требует не более агрессивного разгона, а совершенно новых архитектурных подходов — многоядерности, специализированных ускорителей и энергоэффективных структур.

Литография: дорого и сложно

Переход к узлам 5, 3 и теперь 2 нм в производстве чипов — это не просто снижение размеров, а настоящий вызов как с точки зрения технологий, так и инвестиций. Сегодня для печати самых тонких слоёв используют экстремальную ультрафиолетовую (EUV) литографию, и один лишь EUV-сканер обходится примерно в $200 млн. TSMC потратила $14 млрд в 2023 г. на запуск двух линий 3 нм производства — и это без учёта затрат на коммунальные системы, чистые комнаты и вспомогательное оборудование. Так что о тратах на техпроцесс в 2 нм мы можем только догадываться, вытирая пот со лба. В планах компания хочет запустить его во второй половине этого года.

Как выглядит и из чего состоит EUV-сканер. Источник.
Как выглядит и из чего состоит EUV-сканер. Источник.

Но даже при таких инвестициях проблем становится всё больше. На уровне 3 нм и тем более 2 нм любой крохотный дефект маски или погрешность процесса умножается на сотни бракованных кристаллов с одной пластины. А тончайший оксид затвора, насчитывающий всего пару атомных слоёв, становится «дырявым» из-за квантового туннелирования, что порождает новые утечки и точки нагрева, которые не устранить обычными методами контроля.

Чтобы справиться с этой лавиной брака, фабрики переходят на мультипаттерн-процессы, разделяя один слой на несколько этапов экспонирования, но это ещё сильнее удорожает каждую пластину и усложняет технологию. Параллельно ведутся исследования альтернативных методов: Directed Self-Assembly (DSA), экранированная литография электронным лучом для коррекции ошибок и, конечно, High-NA EUV со значительно более короткой рабочей длиной волны — но полноценное производство на этом оборудовании ожидается не ранее конца десятилетия.

В результате современная литография превратилась в узкое горлышко всей микроэлектронной отрасли. Рост себестоимости каждого следующего перехода растёт экспоненциально, а борьба с физикой и квантовыми эффектами требует синергии материаловедения, машинного зрения для inline-контроля и новых архитектур чипов, оптимизированных под неоднородные возможности производства. Без объединения масштабных вложений, научных открытий и кросс-дисциплинарных подходов продолжать «микроразмерную гонку» уже не получится. Как говорится, кофе покрепче, ночь покороче.

Где кризис GHz ощущается на практике

Уже давно все поняли, что невозможность бесконечно наращивать тактовые частоты и то, что это насущная проблема в самых разных областях вычислений. Рассмотрим, как именно «кризис GHz» отражается на практике и какие решения выработали разработчики систем.

Дата-центры и жидкостное охлаждение. Когда серверы AMD EPYC на 2,4–2,6 ГГц начинают регулярно терять производительность из-за нагрева, простого кондиционера уже не хватает. В регионах с жарким климатом компании вроде Meta* (Facebook) переходят на жидкостное охлаждение, прокачивая охлаждающую среду прямо через медные трубки в процессоре. Это позволяет поддерживать PUE на уровне 1.1 и оставаться уверенными в стабильности работы при высокой плотности рендер- и аналитических узлов.

Игровые приставки и ПК. PlayStation 5 и Xbox Series X работают на ~3,5 ГГц, и дальше наращивать такт просто некуда — вместо этого Sony и Microsoft добиваются роста FPS через оптимизацию шейдеров, использование SIMD-инструкций и эффективную многопоточность. Разработчики переориентировались с «разгона» на повышение IPC (instructions per cycle) и асинхронные вычисления, чтобы получить каждый лишний кадр.

Мобильные чипы. В смартфонах тепловые рамки ещё строже. Snapdragon 8 Gen 3 действительно может в мгновение выдать до 3,2 ГГц, но уже спустя сотни миллисекунд переходит в энергоэффективный big.LITTLE-режим. На практике это означает: максимум производительности для тяжёлых задач и плавный переход на «экономное» ядро, чтобы и батарея держала, и корпус не «закипал». Всё ради того, чтобы когда заходили в настройки, вас не расстраивал упавший % АКБ.

Edge-устройства и IoT. В «умных» холодильниках, датчиках и контроллерах акцент смещён в сторону минимального энергопотребления: традиционные Atom-ядра на ~1,8 ГГц всё чаще заменяются RISC-V-микроконтроллерами на 500–800 МГц. Здесь стабильный низкий такт ценится выше эпизодических пиков — хороший пример того, как индустрия реагирует на «GHz-плато» В одной из прошлых статей рассказал, как Edge Computing стал новой нормой для критичных IoT‑сценариев.

ASIC-ускорители для майнинга. В мире крипто-майнинга частота редко превышает 1 ГГц, но глубокая оптимизация логических ячеек и конвейеров позволяет этим чипам выдавать сотни терахэшей в секунду. Визуально «низкий» такт компенсируется архитектурой, спроектированной под единую задачу.

Автономные автомобили и встраиваемые системы. Платформа NVIDIA Drive и Tesla FSD-SoC работают на примерно 2,2 ГГц, но при этом в каждой системе десятки специализированных блоков (TPU-ускорители, видеоядра, нейронные энжин). Главный фокус — параллелизм и распределение нагрузки между разными процессорами, а не экстремальная частота одного ядра.

GPU и HPC. Современные графические процессоры NVIDIA и AMD балансируют между ~2 ГГц для основных ядер и специализированными RT-ядрами на чуть более низком такте. В суперкомпьютерах рост производительности сегодня достигается масштабированием кластеров и оптимизацией межсоединений (NVLink, Infinity Fabric), а не плавным увеличением GHz на одном кристалле.

Переход к новым парадигмам
Плато тактовых частот — это не тупик, а сигнал к переосмыслению. Сегодня прирост вычислительной мощности достигается не «разгоном герц», а:

  • Многоядерностью и гетерогенностью, где разные типы ядер работают над узкоспециализированными задачами.

  • Аппаратными ускорителями (нейросетные блоки, криптоускорители, FPGA), встроенными прямо в SoC.

  • Улучшением IPC, оптимизацией конвейеров и кешей для извлечения большего числа инструкций за такт.

  • Новой физикой: переход на 3D-упаковку кристаллов, использование альтернативных материалов (FinFET, GAAFET) и эксперименты с оптоэлектронными и нейроморфными схемами.

Именно сочетание параллелизма, энергоэффективных архитектур и специализированных блоков позволяет индустрии расти там, где чистые «гигагерцы» уже не помогают.

Будущее кремния: новые транзисторы и материалы

Классические FinFET-структуры, лежавшие в основе «закона Мура» с 2010-х, подошли к физическому пределу при рубеже 3 нм. Индустрия уже перешла к следующим вехам эволюции — новым архитектурам транзисторов, трёхмерной упаковке кристаллов и поиску альтернативных полупроводников. Эти направления не просто позволяют «дотянуть» ещё пару поколений чипов, но и закладывают основу для принципиально новых типов вычислений в ближайшие годы.

Gate-All-Around (GAA) и nanosheet-транзисторы

В GAA-транзисторах канал полностью окружён затвором, а не «растёт» из подложки, как в FinFET. Такая геометрия даёт более жёсткий контроль за потоком носителей заряда и заметно уменьшает токи утечки. К тому же инженеры могут гибко менять ширину nanosheet-каналов: широкие — для максимального тока и высокой производительности, узкие — для экономных «тяжеловесов» с минимальным энергопотреблением. TSMC, Samsung и Intel уже выводят на рынок свои первые 3- и 2-нм продукты на GAA, хотя вертикальная укладка nanosheet-слоёв усиливает тепловые эффекты и усложняет контроль качества.

Сравнение транзисторов. Источник.
Сравнение транзисторов. Источник.

3D-stacking (Foveros, CoWoS и подобные)

Если раньше всё размещалось «на плоскости» кристалла, то теперь отдельные чиплеты (вычислительные ядра, кеш, память) сворачивают друг над другом. Технологии Intel Foveros и TSMC CoWoS сокращают длину межсоединений, повышают пропускную способность и улучшают энергоэффективность за счёт близости элементов. Такой подход становится стандартом в серверных CPU, ускорителях и высокопроизводительных GPU, где плотность соединений критична.

Трёхмерная упаковка: стек HBM-DRAM над базовым логическим кристаллом, соединённым с подложкой и печатной платой. Intel Foveros. Источник.
Трёхмерная упаковка: стек HBM-DRAM над базовым логическим кристаллом, соединённым с подложкой и печатной платой. Intel Foveros. Источник.
Схема упаковки на пассивном интерпозере: логический кристалл между двумя HBM-стеками, соединённый через межposer и субстрат. TSMC CoWoS. Источник.
Схема упаковки на пассивном интерпозере: логический кристалл между двумя HBM-стеками, соединённый через межposer и субстрат. TSMC CoWoS. Источник.

Альтернативные полупроводники. Карбид кремния (SiC) и нитрид галлия (GaN) уже врываются в силовую электронику, предлагая меньшие потери и более высокие рабочие температуры. В вычислительной технике на горизонте замаячили двумерные материалы — графен и переходные металл-дихалькогениды. Их уникальные свойства обещают новые рубежи миниатюризации, однако массовый переход ждёт нас не раньше второй половины 2020-х.

Спиновые и квантовые элементы. Новые типы памяти, как MRAM, уже вошли в коммерческую стадию, обеспечивая энергонезависимость и высокую скорость работы. Параллельно появляются первые квантовые модули для узкоспециализированных расчётов. В перспективе спиновые транзисторы и нейроморфные архитектуры могут стать основой нового поколения вычислительных устройств.

Таким образом, будущее кремния сегодня рисуется на стыке трёх направлений: GAA-архитектуры, трёхмерной упаковки и внедрения новых материалов. Вместе они помогут преодолеть ограничения классических CMOS-технологий и дадут импульс развитию кардинально новых платформ и вычислительных возможностей.

Итоги и рекомендации

Сегодня гонка за тактовыми частотами утратила смысл: кремниевые транзисторы не позволяют поднимать GHz без жёстких тепловых и энергетических ограничений, а цена перехода на каждый последующий техпроцесс растёт миллиардами долларов. Вместо стремления к «чистому» разгону важнее эффективность работы с тем, что уже есть.

На что смотреть вместо GHz

— Операции на ватт (GOPS/Watt) и вычисления на киловатт-час показывают, сколько реальной работы выполняет система при ограниченном энергобюджете.

— Гетерогенные SoC, где CPU соседствует с GPU, NPU и DSP, позволяют распределять задачи по наиболее подходящим вычислителям и добиваться максимума производительности при минимуме энергозатрат.

Напоследок, советы разработчику

Не пытайтесь впихнуть всю логику в одно ядро. Разбейте тяжёлые задачи на небольшие фрагменты и запускайте их параллельно — многопоточность сегодня может дать гораздо больше, чем простое увеличение тактовой частоты.

Помните, что в вашем устройстве есть не только CPU. Отправьте математику графическому ядру, нейросетевые вычисления — тензорным блокам, а сигнальную обработку — DSP. Освойте хотя бы одну технологию ускорения (CUDA, OpenCL или TensorRT) и доверьте тяжёлую работу «специалистам».

Каждый лишний байт и лишний переход в память — это потеря энергии. Старайтесь упаковывать данные так, чтобы использовать векторные инструкции, минимизировать копирования и сводить к минимуму «холостые» циклы. Регулярно замеряйте не только время работы, но и потребление энергии, чтобы не гнать лошадей впустую.

А вы уже ощущаете пределы кремниевой эпохи? Делитесь мнением и опытом в комментариях, куда катится кремниевый мир.

* Компания Meta запрещена в России как экстремистская

© 2025 ООО «МТ ФИНАНС»

Комментарии (60)


  1. kuza2000
    18.06.2025 10:00

    Мы стали свидетелями потрясающих событий. Лет за 30 создали магические устройства, впихнув немыслимую вычислительную мощь в карман. И уперлись в размеры атомов, дальше уже никак.

    Как такое стало возможно? А очень просто - почти каждый житель нашей планеты вкладывал в развитие этой технологии существенную часть своего дохода. Эта технология везде - телефоны, ПК, приставки, чипы в картах, роутеры, ТВ, бытовая техника и т.д....

    "Любая достаточно развитая технология неотличима от магии"
    (С) Артур Кларк


    1. ABy
      18.06.2025 10:00

      Лет за 30 создали магические устройства, впихнув немыслимую вычислительную мощь в карман. И уперлись в размеры атомов

      А ПО все равно продолжает тормозить.


      1. Belkogoth
        18.06.2025 10:00

        так потому что оптимизация кода и расходов идут рука об руку)) Пока ты вылизываешь код для простого пользовательского приложения - конкурент нанимает калокодера, который из кусков собирает визуально рабочее приложение, и скармливает пользователям. Тормозит? Беги в елдараду, бери 2 ядра 2 гига, это просто) Вот так к этому и пришли плавно. Грубо говоря, бурный поток неотвратимо несет весь IT-бизнес туда, причем поток сам бизнес создал, и сам же в нем и погряз) В результате пришли к тому, что весь передовой прогресс от флагмана кремниевой отрасли, очкарика в куртке - это лепить кучу кремния на подложку от поколения к поколению, кратно добавляя киловатты к потреблению. На последние поколения RTX тех же без слёз не взглянешь, TDP там уже скоро с конвекторами сравнится, и что смешнее всего - никого вообще это не смущает. А ведь когда-то над прескоттами с их 130 Вт ржали))

        Видимо, это безумие охватило многие отрасли. Когда-то и над владельцами смартфонов с экранами больше 5.5 дюймов потешались, мол, купил огород вспахивать или кубок по гребле с таким веслом брать. А теперь нормального компакта уже много лет как днем с огнем не сыщешь.


        1. adante
          18.06.2025 10:00

          Вот ровно вся статья объясняет почему другой прогресс пока невозможен. Ну нету технологий.

          Я согласен с комментом выше, технологический прогресс в некоторых областях впечатляет, а мы зажрались и воспринимаем его как должное.

          Двухметровые телеки офигенного качество стоят 2000. Нейросетки за 5 лет развились от «поставь будильник» до «проанализируй рынок».

          Но да, отсутствие маленьких телефонов это прям безумие (про которые много пищат, но продаются они из рук вон плохо). First world problems


          1. StjarnornasFred
            18.06.2025 10:00

            отсутствие маленьких телефонов это прям безумие (про которые много пищат, но продаются они из рук вон плохо)Раз они продаются плохо, значит, это не безумие, а норма. Оно и понятно - большой экран удобнее маленького. Слишком большой, конечно, неудобен, но тут тоже найдено плато: в последние 6-7 лет почти все смартфоны имеют экран диагональю 6.5-6.9 дюйма и минимальную рамку. Ну а для тех, кому очень надо, есть некоторый ассортимент и в мини-сегменте. От продвинутых SGS25 и i16 до бронированных Armor Mini 20 и N6000.


            1. Belkogoth
              18.06.2025 10:00

              На мой взгляд, стоит немного лет на 6-8 оглянуться, корни плохих продаж ведут туда. Во-первых, эпоха мелких смартов пришлась на то время, когда еще не было тонких рамок - в то время царили толстые рамки сверху и снизу, и сенсорные\аппаратные кнопки навигации. Лопаты начали входить в моду когда рамки начали убирать - современные лопаты по размерам как 5.5" аппараты из рамочной эпохи. Из-за этого лопаты многим зашли, плюс сработал эффект некоей свежей моды в отрасли. Чисто на этой волне. В это время к концу 10-х производители начали считать, что лопаты - наше всё, и начали задвигать компакты, по факту выпуская лишь совсем несбалансированные варианты. Это либо обмылки за 30-50 баксов, на которых разве что калькулятор запускать, либо овердорогие флагманы типа Zenfon, которые от розетки разве что в туалет позволяют отойти.

              Так что, как по мне, мнение "компакты не продаются потому что они никому неинтересны" ошибочно. Точнее, сильно обрезано и не раскрывает причину:: компакты не покупают, потому что такие, какие выпускают - никому не интересны.

              С одной стороны компакты давит действительно факт, что большинство от них отвыкнуть успело, но оставшуюся, довольно приличную аудиторию, которой компакт нужен (я в их числе) производители сами от себя же отгоняют, ибо выпускают непонятных свойств обмылки, а потом дружно утверждают, что компакты никому не интересны)) Это можно по косвенным признакам поглядеть. Тот же недавно выпущенный Unihertz Jelly Max говорят купило прилично народу. Прилично для его немаленькой цены, ибо начинка у него добротная середнячковая. Но откровенно слабая камера отпугнула немало народу, многие из-за камеры отказались от покупки, судя по обсуждениям на 4pda. Но даже в таком кривоватом балансе у аппарата неплохие продажи. Потому что в этом бюджете компакты на глобальном рынке вообще много лет отсутствуют как класс: на безрыбье и рак - рыба.


    1. MaTocoB
      18.06.2025 10:00

      И уперлись в размеры атомов, дальше уже никак.

      В размеры кристаллической решётки, а не атомов. И те ещё не близко, но наноразмеры уже дают знать о себе квантовыми эффектами. Размер решётки кремния - 0,5 нм. Но если пересчитать плотность тразисторов в чипе на линейные размеры, там получатся десятки нанометров, а не то что пишут маркетологи. Опять-таки, карбид кремния и арсенид галлия не замена классическому кремнию, это гетерогенные материалы и кристаллическая решётка у них крупнее.


  1. JordanCpp
    18.06.2025 10:00

    Скорость ЦПУ подняли, но скорость исполнения кода на этих ЦПУ, всрали. Извиняюсь, просто другого слова не нашел, для выражения общей тенденции.


    1. fx32
      18.06.2025 10:00

      Потому как быстродействие ЦПУ давно уже избыточно и если умышленно не тормозить скорость исполнения кода на этих ЦПУ, то упадут и продажи и выделение денег на разработку железа и как следствие программ -- всё это бег ради бега.


    1. kuza2000
      18.06.2025 10:00

      Еще как подняли. На процессорах 80х регистровые операции занимали 2 такта, к памяти - 7 и больше тактов. На современных за счет конвеера регистровые обычно меньше такта (до четырех за такт = 0.25). И к памяти за 3 такта, если в кэше, без кэша - примерно как было.

      Просто кода этого стало в десятки-сотни раз больше))


      1. SIISII
        18.06.2025 10:00

        Вообще, суперскалярные процы с внеочередным выполнением команд появились ещё в конце 1960-х, так что в этом плане ничего принципиально нового современные не представляют. А вот кода -- да, стало намного больше, причём зачастую в тех же самых задачах, что и полвека назад.


  1. Iorentz
    18.06.2025 10:00

    до настоящих 2 нм еще очень далеко


    1. tequier0
      18.06.2025 10:00

      Как раз хотел попросить назвать процессор, где техпроцесс (в классическом его понимании, а не маркетинговом) меньше 10 нм. В идеале картинку с микроскопа на эту структуру.


    1. kuza2000
      18.06.2025 10:00

      Настоящих 2 нм и не будет. Если мне не изменяет память, 2 нм - это около 4-х периодов кристаллической решетки. Но если будут продавать чипы 0.05 нм - я не удивлюсь))


      1. 3-DIP70224
        18.06.2025 10:00

        Да, 2 нм это 8-9 атомов кремния в рядок.


        1. MaTocoB
          18.06.2025 10:00

          Кто-то не понимает разницу между размерами атома и кристаллической решётки. Шаг кристаллической решётки кремния 0,54 нм, так что, 2 нм < 4 * 0,54 - меньше четырёх нанокристаллов кремния.


    1. vanxant
      18.06.2025 10:00

      Вот да. Автор тут пару раз пишет про "два атомных слоя оксида". Это, грубо 2х0,2 нм = 0,4 нм. Мне показалось, кто-то ошибся на порядок, а то и два.


    1. MaTocoB
      18.06.2025 10:00

      Оно и не может быть ближе, для понимания не хватает размера кристаллической решётки кремния - 0,54 нм. Поэтому размер структуры не может быть меньше 5,4 нм, что равнозначно погрешности в 10% (уже слишком много).


  1. PsihXMak
    18.06.2025 10:00

    Чувствую, моих 5.8 Ггц хватит ещё очень и очень на долго.


    1. Jorell
      18.06.2025 10:00

      Походу навсегда)


    1. checkpoint
      18.06.2025 10:00

      А если не хватит, то Вы в любой момент можете поставить на проц стакан с жидким азотом и разогнать его до 12.7 ГГц. ;-)


      1. KvanTTT
        18.06.2025 10:00

        Однако стоит не забывать, что при частоте 3 ГГц свет проходит около 10 см. На таких частотах все будет упираться в скорость обмена данных с памятью.


  1. Gudd-Head
    18.06.2025 10:00

    приводит к постоянному сидячему потреблению энергии

    Чем оно отличается от... стоячего?

    реальный ff

    Что это такое?


    1. Kurochkin
      18.06.2025 10:00

      Это такой перевод, беспощадный к логике и здравому смыслу. Почему нет ссылок на оригинал(ы) - непонятно.


  1. WASD1
    18.06.2025 10:00

    Почти всё написанное про архитектуру CPU будто написано из неверных предпосылок (проблема не в том, что CPU считает быстро, но плохо, проблема в том, что быстрый CPU ждёт данных из памяти на Stall) - в итоге выглядит ужасно. Но абзац ниже - квинтэссенция некорректности:

    Игровые приставки и ПК. PlayStation 5 и Xbox Series X работают на ~3,5 ГГц, и дальше наращивать такт просто некуда — вместо этого Sony и Microsoft добиваются роста FPS через оптимизацию шейдеров, использование SIMD-инструкций и эффективную многопоточность. Разработчики переориентировались с «разгона» на повышение IPC (instructions per cycle) и асинхронные вычисления, чтобы получить каждый лишний кадр.

    1. Увеличить тактовую частоту можно, ценой удлинения конвейра. Но зачем?

    2. Шейдеры - считаются на видеокарте (и у неё не 3.5 ГГЦ частота)

    3. SIMD-инструкции - это просто частный, далеко не всегда применимый случай увеличения скорости вычислений.

    Теперь как правильно (см рисунок ниже):

    Демонстрационная картинка из интернета. Примерно 50% времени CPU ждёт данных из памяти и только 50% времени работает.
    Демонстрационная картинка из интернета. Примерно 50% времени CPU ждёт данных из памяти и только 50% времени работает.

    Все вычисления делятся на вычисления с "регулярным (иногда говорят геометрическим) параллелизмом" (для этого нужны CUDA \ OpenMP .....). И без "регулярного параллелизма" - для этого нужны CPU.
    И на уровне программной модели - основное направление выделение этого самого "регулярного параллелизма" из существующих алгоритмов.


    По поводу CPU (см картинку выше) - основная проблема в том, что процессор ждёт данных из памяти едва ли не больше, чем работает. Проблема также в том, что подсистема памяти включая кэши "хуже прогрессирует" с уменьшением техпроцесса.

    По поводу архитектур CPU более детально:

    1. Примерно 50% времени CPU ждёт данных из памяти, и только 50% времени работает. И это ключевая проблема разработки производительных CPU сегодня.

    2. Ускорение процессора - обязательно повлечёт удлинение конвейра. Которое само повлечёт негативные эффекты, как то:

      1. "удорожание" неверного предсказания перехода MissBranchPredict

      2. Увеличение числа спекулятивных и ненужных load - увеличение нагрузки на подсистему памяти.

    3. Уменьшение времени простоя процессора - в основном увеличение ROB (reorder buffer) и prefetch в кэшах. Как уже сказано выше - прогресс подсистемы кэшей куда хуже с уменьшением техпроцесса, чем комбинационной логики (вычислительной части).


    1. moscowman
      18.06.2025 10:00

      Возможно в основных задачах процессор половину времени пинает сами знаете чего.

      Но как только нужно что-нибудь ffmpeg'нуть что-нибудь в 4К, так сразу вроде как надо процессор и побольше и пожирнее.


      1. tbl
        18.06.2025 10:00

        На стриминговых задачах (таких как перекодирование видео) увеличение кэша помогает только до определенного размера, потому что данные из ram влетают бурстом туда и используются только 1 раз, а затем лежат мертвым грузом, чтобы затем быть вытесненными следующей порцией данных. Здесь помогает подход стандартов gddr5-7 для GPU, когда важна не latency, а throughput (минимизация простаивания ядер на однотипной в моменте задачи). Классическое развитие интерфейса памяти в стандартах DDR для CPU направлено на поиск золотой середины между противоречивыми требованиями: предоставить минимальное latency, не просесть по throughput и при этом быть дешевой. Поэтому видосики быстрее всего кодируются на GPU (даже если использовать не аппаратные средства сжатия, встроенные в видеокарты, а компрессоры на основе compute-шейдеров), чем на CPU


      1. WASD1
        18.06.2025 10:00

        Все вычисления делятся на вычисления с "регулярным (иногда говорят геометрическим) параллелизмом" (для этого нужны CUDA \ OpenMP .....). И без "регулярного параллелизма" - для этого нужны CPU.

        При наличии опорных кадров (надеюсь они есть в любом приличном формате) - задача декодирования это задача с регулярным параллелизмом, т.е. задача для GPU (в худшем случае для OpenMP).

        Iphone вроде бы с первой версии видео-кодеки на GPU заворачивал.

        Если в 2025 году для этого всё ещё нужен мощный CPU - просветите зачем.


        1. moscowman
          18.06.2025 10:00

          Я не специалист.
          Нахватался вершков, но судя по тому что мне влили в уши, качество кодирования CPU нельзя сравнивать с GPU.
          Как я понял, CPU = точно так.
          GPU ≈ где-то примерно так, как должно быть.


          1. SIISII
            18.06.2025 10:00

            У ГПУ, если не всегда, то обычно есть встроенные железные блоки для декодирования видео -- т.е. они это делают чисто аппаратно, а не программно, что и быстрей, и намного энергоэффективней. Есно, возможно и программная перекодировка, но она нужна, скажем, для какого-то нового алгоритма, не поддерживаемого в железе.

            Если же говорить про чисто программную перекодировку, ГПУ с этим справляется лучше по скорости просто из-за того, что эта задача почти всегда очень хорошо параллелится. Обычные процы по своей натуре чисто последовательные, и наличие всяких дополнительных СИМД-команд лишь несколько увеличивает их "параллелизм" (и то, при условии, что программа умеет их использовать: толку от очередного новомодного SSE100500/AVX200600, если кодек был скомпилирован под базовую систему команд IA-32 (x86) без каких-либо SIMD-расширений?), в то время как ГПУ изначально созданы для параллельной обработки.

            Качество же кодирования с видом проца прямо не связано -- оно зависит от конкретного алгоритма, используемого для кодирования. Если алгоритм абсолютно идентичен, то и результат будет абсолютно идентичен. Другое дело, что для ускорения или уменьшения объёма данных могут использовать определённые упрощения, допуская при этом некоторую потерю качества. Можно вспомнить, например, картинки JPEG, алгоритм кодирования которых позволяет играться с качеством результата и степенью сжатия изображения (чем меньше результат -- тем ниже качество). Но это, повторюсь, не от вида процессора зависит, а от особенностей алгоритма.


            1. WASD1
              18.06.2025 10:00

              Хотел бы добавить одно уточнение (не отменяя общей правильности ответа):

              У GPU (в первую очередь nVidia) всё-таки есть определённые проблемы с fp64 вычислениями. Как производительностью так и точностью (в ряде сценариев).

              То есть доля правды, в словах человека выше - всё же есть.


  1. onets
    18.06.2025 10:00

    Короче ясно понятно - жефорс 6090 будет стоить не 5к, а 10к $


  1. Sabbone
    18.06.2025 10:00

    Статья выглядит как написанная нейросетью, например слова о том что сейчас вместо увеличения частоты, увеличивают число ядер встречаются множество раз, иногда почти подряд


    1. outlingo
      18.06.2025 10:00

      Как и про медные трубки для рхлаждения процессоров. Причем почти дословно


      1. SebastianP
        18.06.2025 10:00

        И как такое пропустили, тут недавно был строгий редактор, учил как статьи писать. Но если это даже я отметил, представляю сколько там ошибок


      1. MaxKozlov
        18.06.2025 10:00

        причём про разные компании :)


      1. christener
        18.06.2025 10:00

        Вот-вот, искал комментарий, чтобы не повторяться. Мало того, в первой фразе о жидкостном охлаждении говорится о серверах "Xeon с частотой около 3,5 ГГц", а во второй - "AMD EPYC на 2,4–2,6 ГГц". После этого бросил читать данный нейровысер.

        А ведь в начале статьи я даже репортил автору на недочет в путанице атомов и атомных слоев..