Привет, Хабр! На связи Виталий, дежурный системный инженер дата-центра в Selectel.

Продолжаем тему, поднятую в наших предыдущих публикациях, где мы говорили об уплотнении серверов линейки ChipCore и усмирении Ryzen™ в мини‑корпусе. Сегодня углубимся в специфику размещения по‑настоящему мощного оборудования. Напомню, нашей главной целью было эффективно использовать стандартные 19‑дюймовые серверные стойки для размещения систем, собранных из высокопроизводительных десктопных компонентов. Очевидно, что для решения этой задачи, разработки собственного корпуса не избежать.

В отличие от прошлых проектов, появилась новая особенность — железо экстремальной производительности с потребляемой мощностью, значительно превышающей стандартные показатели TDP в 180 Вт. Конфигурации на базе процессоров Intel® Core™ i9-13900K или AMD Ryzen™ 9 7950X с 128 ГБ памяти DDR5 и быстрыми NVMe-накопителями по 2 ТБ — настоящие «печки». Было изначально понятно, что без жидкостной системы охлаждения (СЖО) в этот раз не обойтись.

Используйте навигацию, если не хотите читать текст целиком:

При создании серверов подобного уровня производительности мы сперва взяли стандартный корпус форм-фактора Tower АТХ. Он был оснащен СЖО — чаще всего мы брали модели MSI P240 и С240, которые хорошо справлялась с отводом тепла.

Возникла существенная проблема — нерациональное использование пространства внутри стандартных серверных шкафов. В 19-дюймовую стойку удалось установить максимум восемь–девять таких устройств. Этот факт стал значимым ограничением, ведь уровень заполнения стойки не превышал отметку в 18−20%. Такой подход вынудил нас искать пути улучшения компоновки.

Стандартная серверная стойка, в которой размещены несколько больших корпусов Tower ATX.
Общий вид стойки Tower ATX.

Рассмотрим возможные способы увеличения плотности установки серверов аналогичного уровня производительности и энергозатрат. Важно: необходимо сохранить при этом высокую эффективность теплоотвода и надежность функционирования.

Собственный сервер Selectel

В основе — самые современные процессоры Intel® Xeon® 6, до 8 ТБ оперативной памяти DDR5 и специально разработанная материнская плата. Арендуйте сервер у нас или закажите в свой дата-центр.

Узнать подробности →

Slim Tower

Первоначальная модернизация предполагала создание специального шасси и монтажной панели. Корпус изготавливался методом лазерной резки и гибки из оцинкованного стального листа марки SGCC толщиной 1,2 мм с последующей порошковой окраской.

Специально разработанная металлическая полка черного цвета высотой 2U. На полке видны крепежные отверстия и вырезы для установки нескольких вертикальных серверных платформ.
Полка для платформ.

При разработке мы в значительной степени опирались на предыдущий опыт создания корпусов, о котором уже рассказывали в других статьях.

Технический чертеж (CAD-модель) корпуса Slim Tower. На схеме показаны его габариты и расположение внутренних компонентов, таких как материнская плата и блок питания.
Чертеж корпуса SlimTower.

Высота получилась два юнита (2U). Поскольку корпуса расположились вертикально, их ряд занял 7,5U. Хотя общий объем увеличился по сравнению со стандартным АТХ с горизонтальным размером около 5U, такая компоновка вместила четыре мощнейших вычислительных узла на одной полке.

Вертикальный размер U = 1,75″ ≈ 44,45 мм.

Соответственно: 2U ≈ 9 см, 5U ≈ 22 см, 7,5U ≈ 33 см.

Для отвода тепла мы воспользовались системой жидкостного охлаждения с двухсекционным радиатором. При первичной отладке прототипов степень охлаждения поверхностей измеряли простым пирометром. Ни в одной точке он не зафиксировал температуру выше 85 5°C.

Собранный сервер в корпусе Slim Tower со снятой боковой панелью. Внутри видны материнская плата, двухсекционный радиатор системы жидкостного охлаждения с вентиляторами и аккуратно уложенные кабели.
Платформа SlimTower с открытой крышкой.

После финальной доработки наш смежный отдел тестирования оборудования провел полную серию нагрузочных испытаний. Они применяют специализированное программное обеспечение, которое доводит все компоненты до предельных режимов. Детали своей работы ребята не раскрывают, но финальный отчет подтвердил — система охлаждения полностью справляется с задачей, имеет стабильные показатели и не допускает перегрева никаких компонентов.

Блок питания размещался непосредственно внутри платформы. Такое решение дает дополнительное охлаждение и самого блока, и радиаторов СЖО воздухом из холодных коридоров серверной комнаты.

Для понимания среды, в которой работают серверы, отвлечемся на небольшое техническое описание горячих и холодных коридоров.

Стойки стоят плотными рядами. Их передние панели смотрят друг на друга и образуют «холодный коридор». Задние части также обращены друг к другу и формируют «горячий коридор».

Через перфорированные плиты фальшпола охлажденный воздух подается в холодный коридор. Затем он забирается вентиляторами систем охлаждения серверов и проходит через компоненты оборудования. Наконец, отобравший тепло воздух выбрасывается в изолированный горячий коридор. Оттуда поток возвращается к прецизионным кондиционерам для охлаждения и повторения цикла.

Система питания построена на связке двух компонентов:

  • DELTA STS30002SR — автоматический ввод резерва в стойках;

  • Tesla Power TP-STD-C20A04В — блоки распределения питания.

Со стороны блоки выглядят как ряд обычных розеток. При этом они бывают как управляемые, так и неуправляемые. На всех стойках линейки ChipCоге мы используем только первый тип, чтобы иметь возможность перезагрузить сервер при необходимости.

Продуманная конструкция платформ позволила использовать существующие кабели питания стандартной длины. Нам не пришлось усложнять кабель-менеджмент, изготавливать или заказывать что-то особенное — это еще один плюс к эффективности решения.

Вид сзади на серверную стойку, заполненную полками с платформами Slim Tower. Показаны задние панели серверов и плотная разводка кабелей питания и сетевых подключений со стороны горячего коридора.
Общий вид стойки SlimTower со стороны горячего коридора.

Внутри же платформ установлен кабель питания собственной разработки С13−С14 длиной 0,6 м с возможностью крепления его к корпусу и вставкой с плавким предохранителем.

Вид спереди на полностью заполненную серверную стойку с вертикально установленными платформами Slim Tower. Аккуратные и однородные передние панели демонстрируют высокую плотность размещения со стороны холодного коридора.
Общий вид стойки SlimTower со стороны холодного коридора.

Для удаленного контроля по‑прежнему используются внешние IP-KVM, о которых мы недавно подробно рассказали в статье. 

Несмотря на успешность решения, необходимость в дальнейшем повышении компактности не отпала. Требовалось уменьшить размеры конструкции, сохранив возможность установки сетевых карт и компонентов.

UltraSlim

Вторая модификация продемонстрировала значительное улучшение эффективности. За счет уменьшения толщины конструкции на одной монтажной панели теперь удается разместить пять серверных платформенных блоков вместо прежних четырех.

Внутреннее устройство корпуса UltraSlim со снятой крышкой. В очень узком вертикальном шасси плотно скомпонованы материнская плата с водоблоком ЦП и трехсекционный радиатор системы жидкостного охлаждения.
Платформа UltraSlimTower с открытой крышкой.

Дополнительным преимуществом стала интеграция поддержки трехсекционного жидкостного охлаждения, что существенно увеличило потенциал теплоотвода. 

Однако возникает закономерный вопрос: как оптимизировать размещение серверов, оснащенных графическими ускорителями? Решение найдено.

FatSlim

Разработанный нами новый корпус стал значительным прорывом — появилась возможность интегрировать видеокарты шириной до 142 мм и длиной до 337 мм. Внутри предусмотрено пространство для установки как двух-, так и трехсекционных систем жидкостного охлаждения. Остались посадочные места и для сетевых карт.

Открытый корпус FatSlim, который шире модели UltraSlim. Внутри установлена большая высокопроизводительная видеокарта рядом с материнской платой и трехсекционной системой жидкостного охлаждения.
Платформа FatSlim с открытой крышкой.

Крепление для видеокарт и карт расширения было скопировано с обычного ATX корпуса так, чтобы можно было устанавливать видеокарту без дополнительных кронштейнов.

Вид спереди на полностью собранную серверную стойку, в которой скомбинированы платформы UltraSlim и FatSlim. Изображение демонстрирует финальную конфигурацию с высокой плотностью размещения серверов.
Общий вид комбинированной стойки UltraSlimTower+FatSlim со стороны холодного коридора.

Поскольку современные видеокарты отличаются высоким энергопотреблением и тепловыделением, мы применили комбинированный подход к монтажу: шесть мощных платформ типа FatSlim и пятнадцать облегченных моделей UltraSlim. Такое решение позволило равномерно распределить тепловую и электрическую нагрузки по всей стойке.

Вид сзади на комбинированную стойку с платформами UltraSlim и FatSlim. Показана плотная разводка кабелей питания и сетевых подключений, необходимая для поддержки 21 сервера в одной стойке
Общий вид комбинированной стойки UltraSlimTower+FatSlim со стороны горячего коридора.

Итоги

Итак, завершилась разработка нашего нестандартного корпуса для высокопроизводительных серверов. Мы смогли кардинально переосмыслить использование стоечного пространства. Итоговая конфигурация из шести платформ FatSlim и пятнадцати UltraSlim позволила разместить 21 сервер в одной стойке. При этом плотность размещения оборудования увеличилась на 163%. Получился идеальный баланс между производительностью, компактностью и эффективностью охлаждения. Оборудование уже пользуется спросом у клиентов.

На данный момент не видится дальнейших идей по уплотнению — текущее решение полностью нас удовлетворяет. Нет никаких причин что-то исправлять или улучшать в обозримом будущем.

Впрочем… нет предела совершенству. Возможно, через несколько месяцев вы увидите новую статью о том, как мы еще улучшили компоновку высокопроизводительных десктопных компонентов для специальной линейки ChipCore.

Комментарии (13)


  1. greenlittlefrog
    01.09.2025 12:21

    Не очень понятно, вентилятор втягивает воздух из холодного коридора через горячий радиатор СЖО, затем выбрасывает это на GPU?
    Ещё интересна средняя температура в ЦОДе.

    Со своей стороны я собирал в 3U Exegate Pro (рекомендую) 9900X на стандартных компонентах - всё ок, можно было это запихнуть даже в 2U с помощью кулеров Dynatrone.


    1. i273
      01.09.2025 12:21

      ну по расположению кулеров на фото похоже так и есть, холодный воздух забирается из коридора, далее СЖО


  1. frozzzen
    01.09.2025 12:21

    Уплотнение для чего? Чтобы что? С какой целью?


    1. max9
      01.09.2025 12:21

      деньги же. за условных 10 серверов вместо 9 в стойке можно больше денег взять


    1. bvo09 Автор
      01.09.2025 12:21

      Место в серверных стойках ограничено


  1. Poterashka
    01.09.2025 12:21

    Ребят. Как художник художникам. То, что вы разместили масс маркет в самодельные корпуса в стойку - они от этого серверами не станут. У серверов основное отличие - взаимозаменяемость компонентов, особенно горячая, и гарантия три года. А, ну и правильный вендор серверов привезет вам переставший работать компонент на замену в течении 4 часов. То, что описано в статье, никак этим правилам для серверов, не соответствует.


    1. bvo09 Автор
      01.09.2025 12:21

      Все комплектующие есть в наличии у нас на складе. А то что дестоп комплектующие то это вариант дешевых серверов(chipcore) для того чтобы закрыть потребности любого клиента.


      1. Poterashka
        01.09.2025 12:21

        Это вариант рабочих станций (даже не производительных - производительные, это Ryzen Threadripper). С общим доступом. Вы в отраслевых определениях плаваете. Соответственно заголовок никак не соответствует описанию. Сервер - это отказоустойчивые система. У вас даже зеркалирования этих рабочих станций не предусмотренно. А при выходе из строя компонента этой рабочей станции, через сколько миллисекунд она снова будет в работе?


        1. bvo09 Автор
          01.09.2025 12:21

          Сервер — это устройство, которое хранит данные и даёт доступ к ним большому числу клиентов. Им может быть абсолютно любое устройство. Мы же предоставляем инфраструктуру под любой бюджет, соответственно и сервера на базе дестктоп компонентов у нас есть.


          1. Poterashka
            01.09.2025 12:21

            Смелое определение. Т.е. внешний расшаренный usb диск по вашему определению тоже является сервером? И для расширения вашего кругозора. На десктоп решениях сервера построить невозможно. По мнению производителей. Но кто они такие :). Мне в принципе с базой знаний в вашей компании все понятно. Просто хотел прочитать про сервера, а подсунули даже не высокопроизводительные рабочие станции. Всего хорошего.


            1. ramiil
              01.09.2025 12:21

              Сервером может быть что угодно, в щависимости от жадности, бедности или потребности того, кто его разворачивает. Хотя я согласен, что это не продакшн решение из-за зоопарка компонентов и отсутствия поддержки и нормального удалённого доступа, как минимум, это всё таки сервак. Не ынтерпрайз, но сервак.


        1. greenlittlefrog
          01.09.2025 12:21

          У вас наверное сейчас шаблон порвет, но Hetzner называет это серверами, и да, они сами проектируют и делают корпуса. Прекращайте уже быть снобом, а то я встречал таких которые и Supermicro за сервера не считают.

          Скрытый текст


  1. gaussssss
    01.09.2025 12:21

    А почему бы не использовать готовые серверные водянки (1u варианты даже есть), в паре с серверным бп и matx доской для варианта без видюхи? А то эффективность использования поверхности радиатора там под вопросом.

    При первичной отладке прототипов степень охлаждения поверхностей измеряли простым пирометром. Ни в одной точке он не зафиксировал температуру выше 85 5°C.

    Это каких поверхностей? Если у вас так врм жарилось или водянка, то на самом проце была сотка получается? И при каком тдп? Короче не хватает тестов эффективности теплоотвода.