Жиза(((
Жиза(((

Если в середине 90-х вы уже знали, что такое ватты и киловатты и сами платили за электричество, то наверняка подтвердите, что ПК того времени потребляли куда меньше энергии, чем флагманские видеокарты современности. Весь системный блок - а это процессор, материнская плата, жесткий диск и видеокарта - укладывался максимум в 200 Вт. А сегодня одна только RTX 5090 забирает из розетки в 2,5 раза больше. Конечно, на выходе мы получаем поистине завораживающую графику, но есть и издержки в виде большого количества тепла, шума и, конечно, рисков оплавления. В этой статье мы проследим путь эволюции видеокарт и разберемся в технических причинах их растущих аппетитов. 

Voodoo Graphics: первая видеокарта с 3D от 3dfx

Прародителем всех современных видеокарт принято считать Voodoo Graphics от давно забытой компании 3dfx. Технически это было просто дополнение к графическому ускорителю, которое подключалось через специальный петлевой кабель. Его задача состояла в том, чтобы пропускать сигнал от 2D-карты напрямую к монитору. А когда пользователь запускал игру с поддержкой 3D, Voodoo перехватывала управление, обрабатывала трехмерную графику и отправляла готовое изображение на экран.

Эх, были времена…
Эх, были времена…

Характеристики первой Voodoo по современным меркам выглядят совсем смехотворно:

  • Видеопамять — 4 МБ (EDO DRAM)

  • Частота — 50 МГц

  • Кол‑во текстурных блоков — 1

  • Макс. разрешение — 800×600

  • Глубина цвета — 16 бит (RGBA)

  • Интерфейс — PCI

  • Энергопотребление — 15–20 Вт

Особенно впечатляет энергопотребление той карточки. Да лампа накаливания потребляет больше! Но успех Voodoo был феноменальным. Карта использовала собственный API под названием Glide, с которым по качеству и скорости построения изображения не мог сравниться ни один из существовавших в то время интерфейсов. Она действительно преображала игры, демонстрируя невиданную до этого реалистичность и детализацию. Quake, Need for Speed II, Tomb Raider и многие другие игры получили второе рождение благодаря аппаратному 3D‑ускорению.

За Voodoo Graphics была Voodoo2, которая вышла в 1998 году. Новая карта получила 8-12 МБ памяти, увеличенную до 90 МГц частоту и поддержку режима SLI, который позволял объединить две видеокарты для увеличения производительности. Её энергопотребление подросло, но по нынешним меркам совсем некритично.

Несмотря на технологическое лидерство, 3dfx не смогла удержаться на рынке. Стратегические ошибки руководства, задержки с выпуском новых продуктов и агрессивная конкуренция со стороны NVIDIA и ATI привели к тому, что в 2000 году компанию выкупила NVIDIA, и легендарный бренд исчез. Но наследие 3dfx живет в каждой современной видеокарте, заложив фундамент всей индустрии графических ускорителей.

Что такое GPU: рождение термина

Развитие отрасли, впрочем, не остановилось. Напротив, уже в 1999 году NVIDIA представила GeForce 256 — видеокарту, которую компания назвала первым в мире GPU. Этот термин, как вы знаете, используется до сих пор и своей актуальности не теряет.

Главной фишкой GeForce 256 стала аппаратная поддержка трансформации и освещения. Раньше эти вычисления выполняли процессоры, которых могло не хватать на то, чтобы тянуть на себе обработку 3D‑операций. А появление видеокарт высвободило значительный ресурс CPU и позволило направить их для выполнения других задач и реализовывать более сложные графические эффекты.

Когда-то карточки NVIDIA потребляли не больше 25 Вт
Когда-то карточки NVIDIA потребляли не больше 25 Вт

GeForce 256 производилась по 220-нм техпроцессу, содержала около 23 миллионов транзисторов и потребляла в районе 25 Вт энергии. Для своего времени это была революционная карта, но это не мешало ей оставаться весьма эффективной с точки зрения энергопотребления. Разброс с конкурентами, кстати, тоже был небольшим.

Затем была GeForce 3 на архитектуре nFinite FX Engine. Она имела уже 57 млн транзисторов и обладала поддержкой программируемых шейдеров. Карту оснастили программируемым вершинным процессором (Vertex Shader), текстурным комбинатором (Pixel Shader), делавшим текстурные операции более гибкими, и она позволяла запускать пользовательские визуальные эффекты на языке Microsoft Shader 1.1. Полный фарш по тем временам, но энергопотребление этой карточки все равно не выходило за пределы 30 Вт.

С другой стороны ей противостояла ATI со своей Radeon 8500, которая вышла 14 августа 2001 года. Она поддерживала DirectX 8.1, содержала 60 миллионов транзисторов, использовала 150-нм техпроцесс и имела энергопотребление около 23 Вт, что делало её немного более энергоэффективной по сравнению с GeForce 3.

Обе видеокарты представляли собой значительный технологический скачок, поскольку программируемые шейдеры позволяли разработчикам создавать собственные эффекты обработки вершин и пикселей, а не ограничиваться фиксированным набором функций, как в предыдущих поколениях. Это открыло путь к гораздо более реалистичной графике с продвинутыми эффектами освещения, тенями, более сложными текстурами и поверхностями. Но до настоящего скачка оставалось еще несколько лет.

Начало гонки энергопотребления видеокарт

Поворотным моментом стал релиз 6800 Ultra, а потом и GeForce 8800 GTX, которая стала первой видеокартой с унифицированной шейдерной архитектурой. До этого графические процессоры имели лишь отдельные блоки для обработки вершинных и пиксельных шейдеров. А в новой архитектуре все блоки стали универсальными и могли выполнять любые типы шейдеров.

Это привело к серьезному росту энергопотребления. GeForce 8800 GTX потребляла уже 185 ватт. Архитектура сильно усложнилась, и карточка содержала более 680 миллиона транзисторов, использовала 90-нм техпроцесс и имела 128 унифицированных шейдерных процессоров. Выросла и частота. GeForce 8800 GTX работала уже при 1800 МГц, и во многом этот показатель и определил дальнейший рост TDP.

А вы тоже заметили, что чем красивее видеокарта, тем больше энергии она потребляет?
А вы тоже заметили, что чем красивее видеокарта, тем больше энергии она потребляет?

Вот как развивалась ситуация в разрезе энергопотребления:

  1. 3dfx Voodoo (1996) — 15–20 Вт

  2. GeForce 256 (1999) — 15 Вт

  3. GeForce 3 (2001) — 29 Вт

  4. Radeon 8500 (2001) — 23 Вт

  5. GeForce 6800 Ultra (2004) — 110 Вт

  6. GeForce 8800 GTX (2006) — 185 Вт

  7. GeForce GTX 280 (2008) — 236 Вт

  8. GeForce GTX 480 (2010) — 250 Вт (до 300 Вт в реальности)

  9. GeForce GTX 680 (2012) — 195 Вт

  10. GeForce GTX 780 Ti (2013) — 250 Вт

  11. GeForce GTX 980 (2014) — 165 Вт

  12. GeForce GTX 1080 Ti (2016) — 250 Вт

  13. GeForce RTX 2080 Ti (2018) — 250 Вт

  14. GeForce RTX 3090 (2020) — 350 Вт

  15. GeForce RTX 4090 (2022) — 450 Вт

  16. GeForce RTX 5090 (2025) — 500–575 Вт

Как видите, за редким исключением рост TDP оказался не линейным, но ускоряющимся. Причины кроются не только в желании производителей выдать максимум мощности, но и в объективных физических и архитектурных факторах.

Если в нулевых энергопрофиль видеокарты держался в пределах 100–200 Вт и не вызывал особых вопросов, то с появлением трассировки лучей, высокоскоростной памяти и других нововведений вроде ИИ требования к питанию резко выросли. Ведь DLSS, мультикадровый генератор, декодирование AV1 и прочее работает не на воздухе, а на транзисторах, где каждый блок требует питания.

Но такой рост нельзя объяснить одним лишь добавлением новых функций. Чтобы понять, откуда берутся эти ватты, нужно заглянуть внутрь.

Первый и наиболее очевидный фактор роста TDP — увеличение тактовых частот. Производители стараются выжать максимум производительности, и потому частоты современных графических процессоров стабильно растут.

Если первые карты, как мы уже выяснили, работали на частотах в районе 500–700 МГц, то сегодня мы видим значения свыше 2500 МГц. При этом любое повышение частоты требует больше энергии, особенно если одновременно поднимается напряжение питания. Даже незначительное, на первый взгляд, увеличение вольтажа способно экспоненциально увеличить энергопотребление за счёт зависимости мощности от квадрата напряжения.

Второй аспект — работа GPU на износ. Они будут разгоняться до тех пор, пока не упрутся в ограничения по температуре, мощности или стабильности. То есть карта постоянно работает на пределе своего термопакета, и даже при средних нагрузках энергопотребление может оставаться высоким. Система мониторинга и управления питанием постоянно адаптируется под условия, и эта адаптация сама по себе требует дополнительных аппаратных ресурсов.

Третий фактор — подсистемы питания и потери в компонентах. Переход на более высокие токи требует усиленной схемотехники на уровне VRM. Количество фаз увеличивается, токи возрастают, а КПД всей системы питания падает. Даже если сам GPU потребляет условные 400 Вт, ещё десятки ватт теряются на преобразовании напряжения и стабилизации питания.

Ну, и, конечно, четвёртое — это архитектурная сложность. С течением времен неизменно увеличивается количество блоков, объемы кэша и контроллеров. Кроме того, растёт не только площадь самого кристалла, но и его внутренняя связность. Это требует дополнительной логики, а значит — дополнительного питания. Та же RTX 5090 содержит более 90 миллиардов транзисторов.

А инфраструктура? Современные видеокарты используют быструю память GDDR6 и GDDR7, требующую высоких напряжений и интенсивного охлаждения. Широкие шины данных, скоростные интерфейсы, активное охлаждение — всё это дополняет общую картину и увеличивает суммарное потребление. В результате TDP современных видеокарт растёт не только из‑за самого кристалла, но и из‑за всей сопровождающей его электроники.

А как же закон Деннарда? Да, был и такой. Он обещал нам, что уменьшение размера транзистора приведет к снижению энергопотребления на единицу площади. Но в какой-то момент физика решила больше не подыгрывать.
А как же закон Деннарда? Да, был и такой. Он обещал нам, что уменьшение размера транзистора приведет к снижению энергопотребления на единицу площади. Но в какой-то момент физика решила больше не подыгрывать.

Когда техпроцесс ушел ниже 28 нм, стали проявляться эффекты, которые раньше были несущественными, а теперь стали определяющими:

  1. Туннельные утечки: на суб-28-нм техпроцессах электроны начинают «просачиваться» даже через закрытые затворы. Это увеличивает статическое энергопотребление.

  2. Плотность тока: при сохранении напряжения и росте плотности компонентов — увеличивается количество тепла на единицу площади.

  3. Паразитные ёмкости и сопротивления: становятся значимыми, особенно в многослойных структурах и при высоких частотах. Требуется больше энергии на переключение.

  4. Ограничения по напряжению: снижать Vcore дальше уже невозможно без потери стабильности.

В итоге всё пошло по обратному сценарию: меньше техпроцесс — выше плотность — выше утечки — выше энергопотребление. И чем больше логики в чипе, тем заметнее этот эффект.

Почему видеокарты не энергоэффективны

Почему же производители ничего с этим не делают? Ну, на самом деле попытки обуздать энергоэффективность были. Например, архитектура Kepler была серьезным шагом в этом направлении. Построенная на ней видеокарта GTX 680 хоть и не была флагманской, потребляла всего 195 Вт, что было заметно меньше, чем у ее предшественников.

То же самое и Maxwell. GeForce GTX 980 требовалось еще меньше энергии, и ее TDP составлял всего 165 Вт. И это притом, что с точки зрения производительности эта карточка примерно соответствовала флагману предыдущего поколения в лице GTX 780 Ti, которая потребляля 250 Вт.

Этого достигли благодаря кардинальной переработке архитектуры шейдерных блоков, оптимизации планирования инструкций и улучшенному управлению питанием. Maxwell показал, что рост производительности не обязательно должен сопровождаться пропорциональным увеличением энергопотребления. Однако эта тенденция не сохранилась. Почему?

Ответ кроется в новых требованиях к графическим процессорам. Они вынуждены выполнять столько операций, что делать это одним набором блоков стало просто невозможно. Как следствие, теперь их количество выросло настолько, что их даже по пальцам одной руки стало не пересчитать:

  • CUDA-ядра

  • RT-ядра 

  • Тензорные ядра

  • Блоки растеризации

  • Текстурные блоки 

  • Геометрические шейдеры 

Та же RTX 5090 содержит 21 760 CUDA-ядер, 680 текстурных блоков и 176 блоков растеризации. Модель оснастили 32 ГБ памяти GDDR7 с 512-битной шиной и пропускной способностью 1792 ГБ/с. А ее тактовая частота достигает 2550 МГц в буст-режиме. Да еще и площадь кристалла GB202 выросла и теперь  составляет 744 мм², что на 22% больше, чем у AD102 в RTX 4090. И как после всего этого ее TDP может быть ниже 500 Вт? Вопрос риторический.

Впрочем, та же AMD смогла в энергоэффективность лучше NVIDIA. Например, при переходе от архитектуры GCN к RDNA она добилась 50-процентного повышения производительности на ватт, а RDNA 2 была на 65% эффективнее первого поколения. В RDNA 3 компания пошла дальше. Она перешла на чиплетную архитектуру, которая разделила GPU на Graphics Compute Die (GCD) и Memory Cache Die (MCD. Это позволило ещё больше оптимизировать энергопотребление каждого компонента отдельно. И это кроме того, что AMD также применяет адаптивное управление питанием на уровне отдельных блоков GPU и более агрессивное снижение частот при низких нагрузках.

RX 9070 XT уступает RTX 5090 по мощности, но на сегодня это самая продвинутая видеокарта AMD, поэтому сравнивать их абсолютно уместно
RX 9070 XT уступает RTX 5090 по мощности, но на сегодня это самая продвинутая видеокарта AMD, поэтому сравнивать их абсолютно уместно

Но у всего есть своя цена. Несмотря на лучшую энергоэффективность, карты AMD проигрывают решениям NVIDIA в ключевых технологиях. NVIDIA сделала ставку на искусственный интеллект задолго до того, как эта область стала мейнстримом, создав мощную экосистему CUDA. Технология DLSS обеспечивает более высокое качество изображения при апскейлинге по сравнению с FSR, а RT‑ядра NVIDIA дают значительно более высокую производительность в играх с трассировкой лучей. К тому же, программная экосистема NVIDIA более зрелая и стабильная, чем — ROCm от AMD.

Заключение: цена прогресса

Эволюция видеокарт от 3dfx Voodoo до NVIDIA RTX 5090 — это история непрерывного технологического прогресса, сопровождающегося ростом энергопотребления. За 30 лет производительность GPU выросла в тысячи раз, что позволило реализовать такие технологии, как трассировка лучей в реальном времени, нейросетевой апскейлинг и генеративный ИИ.

Высокое энергопотребление современных GPU обусловлено объективными техническими причинами: увеличением количества транзисторов и площади кристалла, добавлением специализированных вычислительных блоков, использованием высокоскоростной памяти и физическими ограничениями техпроцесса. Эти факторы делают практически невозможным создание сверхмощного GPU с низким энергопотреблением при текущем уровне технологий.

Для большинства пользователей оптимальным выбором является поиск баланса между производительностью и энергопотреблением. Не всем нужна мощность RTX 5090 — карты среднего сегмента часто обеспечивают отличное соотношение производительности к энергопотреблению и стоимости. Кроме того, современные технологии, такие как DLSS, FSR и Frame Generation, позволяют получить высокую частоту кадров даже на менее мощных GPU.

В конечном счете, высокое энергопотребление современных GPU — это цена, которую мы платим за технологический прогресс. И каждый пользователь сам решает, готов ли он платить эту цену за возможность наслаждаться фотореалистичной графикой и использовать мощь искусственного интеллекта в своих проектах.

Комментарии (4)


  1. AKudinov
    10.07.2025 10:29

    Странно, что между Voodoo и GeForce 256 пропущены линейки ATI Rage и NVidia Riva


  1. RuslanChessplayer
    10.07.2025 10:29

    AMD RX 9070 XT можно сравнивать с RTX 5070 XT у них близкие и производительность и число транзисторов и потребление.


  1. orphaniel
    10.07.2025 10:29

    А с какого потолка вдруг взялась частота в 1800 мГц у 8800гтх, если там было хорошо если 570-580 мГц? Опять статью нейроиндусы писали?


  1. PerroSalchicha
    10.07.2025 10:29

    Voodoo Graphics: первая видеокарта с 3D от 3dfx

    Занудства ради, и не первая, и не видеокарта. До Voodoo Graphics вышло несколько полноценных видеокарт с 3D. Та же вездесущая S3 ViRGE вышла на год раньше, и основная её проблема была в том, что она слишком опередила своё время. Несмотря на неплохую производительность для своего времени (по текстурированию всего лишь в два раза уступала Voodoo Graphics, а по скорости обработки треугольников даже и не уступала), целилась на ещё пустой рынок, т.к. поддерживала только новый сырой DirectX. Voodoo Graphics же имел API для распространённых тогда игр под DOS.