Всё началось с желания автономно заниматься исследованиями в области искусственного интеллекта и запускать свои эксперименты без ограничений облачных сервисов или недостаточных ресурсов рабочих кластеров. Наука и исследования давно стали для меня не только профессией, но и хобби: запускать эксперименты, сравнивать модели, тестировать свежие идеи - всё это требует собственной инфраструктуры. Именно поэтому я решил собрать GPU‑сервер «под себя» для полноценного AI‑ресёрча.

До этого опыта самостоятельной сборки серьёзного железа у меня не было, но огромное влияние оказал мой научный руководитель - делился опытом и давал ценные советы, за что я ему очень благодарен. Его помощь стала критически важной частью этого пути: без него, возможно, не вышло бы довести этот сервер до ума.

При изучении чужого опыта обнаружил, что в интернете мало конкретных материалов по домашним мульти‑GPU сборкам под задачи ресёрча(не майнинга). Хотелось найти готовое решение: закрытый корпус, много дисков и места под несколько видеокарт, но воспроизводимых и дешёвых схем сборки или даже фотографий я почти не встретил. В итоге корпус подбирал на ощупь (это уже третий корпус), много часов ушло просто на поиски нужных комплектующих. Я даже консультировался с инженерами из бигтеха, но многие детали им тоже были неочевидны.

Многое шло не по плану: были ограничения по бюджету и эксперименты с охлаждением (процессорный кулер я менял четыре раза). Честно говоря, затраты всякий раз выходили больше, чем планировал - то более длинные провода, то вентиляторы, то ещё какая‑нибудь мелочь.

Главные инсайты для меня за время сборки:

  • Найти корпус под много десктопных карт - тот еще квест;

  • Материнскую плату, которой можно доверять искать очень тяжело(я так и не нашёл);

  • Продавцы на авито предлагают чудесные цены на новое железо.

Теперь расскажу, как именно я подошёл к процессу сборки - от выбора корпуса до конфигурации внутренних компонентов, охлаждения и питания всего этого сервера.

Корпус, в который точно всё влезет

Ginzu GL180
Ginzu GL180

На старте проекта бюджет был сильно ограничен, поэтому первую итерацию серверной сборки я делал в Ginzu GL180 — неплохой, дешёвый корпус, который отлично заходит для минимального сетапа, но быстро становится тесным, если хочется расширяться.

Procase RE411-D8H4-FC-55
Procase RE411-D8H4-FC-55

Следом попробовал Procase 4u: корпус попросторнее, но и там быстро упёрся в лимит — места для многогпу‑сборки не хватало.

Выбранный китаец
Выбранный китаец

Финальная (и самая удачная!) версия - двухэтажный китайский корпус, который нашёл на AliExpress (ссылка). Внутри оказалось более чем достаточно пространства под все мои хотелки: видеокарты, диски и хорошую вентиляцию. В комплекте идут съёмные перегородки и внушительный запас места под стандартные комплектующие.

Базовые внутренности

Основа сервера: двупроцессорная плата, питания и оператива.
Основа сервера: двупроцессорная плата, питания и оператива.

На фото ключевой этап сборки: установка двухпроцессорной серверной материнской платы Huananzhi X99-F8D Dual Plus. Почему именно два процессора? Больше ядер — больше операций предобработки данных, что критично для экспериментов, в том числе параллельных. В этой плате — 2 сокета, 8 слотов под оперативную память, 6 слотов PCIe для видеокарт, 3 M.2 NVMe и 10 SATA‑разъёмов.

Оперативная память реализована в виде 8 модулей Atermiter по 16 ГБ. Установлены два процессора Intel Xeon E5-2699A v4 — самые мощные для сокета LGA2011-3 (22 ядра на каждом). Да, иногда хочется «эпик», но стоимость AMD EPYC несравнимо выше, а производительности этих Xeon хватает, чтобы не страдать из‑за CPU‑болтнека (по крайней мере, за несколько недель использования ощутимых фризов не было).

В качестве электропитания выбраны два блока GamerStorm (DeepCool) PQ1200G WH по 1200W — такой объём питает все внутренние компоненты.

Охлаждение

Водяное охлаждение процессора.
Водяное охлаждение процессора.

В серверном корпусе с двумя процессорами возникла неожиданная проблема: высота башенного кулера может быть не больше 5 см, так как прямо над процессорами находятся другие компоненты, и выдув наверх невозможен, а подходящих кулеров с боковым обдувом для такого сокета я не нашёл вообще.

Поэтому единственным адекватным вариантом стало водяное охлаждение. Я выбрал две модели: ExeGate BlackWater-240V2.PWM и ExeGate BlackWater-120V2.PWM. Почему разный размер? Начинал с двухюнитового радиатора, примерялся к корпусу — оказалось, что большой радиатор частично мешает воздушным потокам внутри, поэтому на второй процессор пришлось взять версию с меньшим радиатором. Оставил обе водянки: оба варианта отлично справляются со своей задачей.

Результат оказался выше ожиданий: под пиковой нагрузкой температура процессоров не превышала 55°.

Основные кулеры сервера.
Основные кулеры сервера.

Для внутреннего охлаждения корпуса я решил не экономить и выбрал сверхмощные кулеры Arctic S12038-8K. Они способны вращаться на скорости до 8000 оборотов в минуту - этого вполне хватает, чтобы эффективно выдувать горячий воздух из корпуса даже при максимальной нагрузке всех компонентов.

Плохая практика крепления кулеров.
Плохая практика крепления кулеров.

Одна из неожиданных проблем при монтаже: кулеры оказались шире стандартных, и классические болты для крепления оказались короткими. Решили зафиксировать вентиляторы на обычные пластиковые стяжки. Такой лайфхак оказался рабочим: лишних вибраций или дребезжания не появилось, крепление вроде надёжное, а установка заняла буквально пару минут.

Установка охлаждения

Установка охлаждения.
Установка охлаждения.

На данном этапе установлены три мощных кулера с радиатором водяного охлаждения. Питание материнской платы, процессоров и части видеокарт обеспечивает чёрный бпшник. Также на фото появились два накопителя с пассивными радиаторами.

Ссдшники и их радиаторы.
Ссдшники и их радиаторы.

Были установлены два SSD M.2 Samsung 990 Pro по 4 ТБ - они нужны для операционной системы, хранения моделей и кода. Чтобы избежать перегрева, оба диска посажены в радиаторы Coolleo SSD-V2 (HR-10) с двумя тепловыми трубками.

Установка охлаждения.
Установка охлаждения.

Добавили вторую тройку кулеров сверху - в сумме теперь шесть мощных вентиляторов обеспечивают активную продувку всего корпуса. На процессоры установили помпы, а для максимальной теплопроводности вместо обычной термопасты использовали жидкий металл Thermal Grizzly Conductonaut. Управление оборотами всех вентиляторов реализовано через контроллер ARCTIC Case Fan Hub.

Установка дисков

Диски и райзреа
Диски и райзреа

За год работы с этим сервером я успел собрать шесть жёстких дисков для хранения датасетов и экспериментов:

  • Seagate Barracuda 2 TB

  • Seagate Barracuda 1 TB

  • Seagate SkyHawk 4 TB

  • WD Red 1 TB

  • x2 Seagate Exos 8 TB (они брендированы как Dell EMC)

Сверху на фото видно металлическую плашку с райзерами - это та самая конструкция, к которой крепятся видеокарты. Райзеры китайские, с поворотом PCI-E слота на 90° чтобы удобно их было закрепить на этой самой пластине. Подробнее к этой плашке мы вернёмся чуть позже.

Установка дисков и вид сервера спереди.
Установка дисков и вид сервера спереди.

На этом фото финальный этап подключения накопителей. Все диски запитаны с помощью кабелей. Для корректной синхронизации двух блоков питания обязательно требуется специальная плата: у меня здесь стоит Espada ESP-DPSS02, она гарантирует одновременно запуск и стабильную работу всей системы. Без такой платы сервер запуск двух БПшников для питания системы, насколько я знаю, невозможен.

Установка видеокарт

Крепления для видеокарт
Крепления для видеокарт

В специальные крепления устанавливаются две основные планки: одна с райзерами для подключения видеокарт, вторая служит передней опорой для их фиксации. Третья точка опоры - боковая металлическая плашка, куда карты прикручиваются сбоку. Благодаря такому трёхточечному креплению ни одна видеокарта не провисает: вся конструкция жёсткая и устойчивая, даже при полной загрузке слотов.

Финальный вид сервера
Финальный вид сервера

Финальный этап сборки - установка видеокарт и обзор корпуса сверху. В этот кейс помещается максимум пять видеокарт, и для текущих задач этого более чем достаточно. Карты установлены в разнесённых слотах - так обеспечивается оптимальный обдув.

На фото сетап такой:

  • RTX 4060 Ti 16 ГБ (×2)

  • RTX 5060 Ti 16 ГБ (×1)

  • И ещё две видюхи для полноты картины. Они не используются и поставлены для фото. На данный момент я жду две другие карты из Китая.

По мощности эти карты быстрее, чем tesla A100, хоть уступают по ширине шины памяти и объёму видеопамяти. Для экспериментов скорость всё окупает.

Финальное слово

Построить домашний мульти‑GPU сервер оказалось непросто, но очень интересно. Если подходить к задаче с практическим интересом и готовностью к экспериментам: правильный корпус, продуманное охлаждение и грамотное подключение питания позволяют собрать рабочую машину для ресёрча, которая по производительности и гибкости не уступает облачным решениям. Если вы задумались о подобной сборке, не бойтесь пробовать - процесс даёт опыт, а результат приносит реальную пользу в работе и исследовании ИИ.

Спасибо за прочтение статьи! Если интересно следить за тем, как мы используем этот сервер в научных исследованиях, подписывайтесь на мой тг канал https://t.me/KORALLLLLL и канал моего научного руководителя

Комментарии (10)


  1. koresh_builder
    04.11.2025 10:45

    Если говорить про бюджетную сборку, то ИМХО водянка нафиг не нужна, корпус можно было из алюминиевых уголков собрать, а ля майнинг ферма, обшить чем-нибудь листовым. ССД - самые дешевые китайские, главное объем побольше - они по сути расходником будут. Двухпроцессорная мать не нужна, лучше на Epic - у него много PCIe+ 8 канальная память, эта конфигурация будет в NUMA упираться, если что-то делать на CPU


    1. korallll_cult Автор
      04.11.2025 10:45

      про водянку - воздушное охлаждение не вмещалось в корпус
      про корпус - он поедет в ЦОД, поэтому такой собрать я не мог
      ССД - вот страшно брать китайские, поэтому решил взять надёжные
      про мать мне нечего сказать, она просто одна из самых дешёвых куда можно поставить 5 карт


      1. koresh_builder
        04.11.2025 10:45

        Я конечно не знаю, но с такой водянкой в ЦОД пустят?


        1. korallll_cult Автор
          04.11.2025 10:45

          Коротко: да

          Длинно: я сам не в восторге, что пришлось ставить водянку. Год сервер стоял с полноразмерными башнями. Затем я взял наклонные(top-flow). По размеру наклонная без кулеры прям идеально вписывалась, но тогда не получилось бы райзеры тянуть. Взял ExeGate ESNK-0049.PWM.1U.2011/66.Cu. Он недостатачно охлаждал. После поиска активного единственное, что вышло найти, это водянку.

          Водянке этой сам не доверяю, при первой возможности заменю на что-то более удобно. А так, пока что не спрашивали про неё в ЦОДе, поэтому проблем не возникло



  1. Taywox
    04.11.2025 10:45

    Водянка, я уж думал там кастом, пару контуров на процы и видяхи, а тут какие то необслуживаемые две хрени, да еще и на древнем железе!

    Заголовок стоит поменять!


  1. weirded
    04.11.2025 10:45

    А расскажите про софт, который используете! Как задействуете 2х RTX4060ti? Цель MultiGPU ведь обойти ограничение в объёме VRAM, а не получить параллельную работу нескольких моделей?


    1. korallll_cult Автор
      04.11.2025 10:45

      В нашем случае задействовано все 5 карт. И в нашем случае часто ограничение не только в обходе VRAM, но и чтобы было больше вычислительных ресурсов. Больше гпу = больше экспериментов. Эксперимент - проверка гипотезы по исследованию.

      Для оркестрации между девайсами используем accelerate.

      Также, сейчас размечаем гигантский объёмы русской речи с помощью нашего пайплайна https://arxiv.org/pdf/2507.13563

      Больше карт позволяют запустить больше моделей.

      Для инференса ЛЛМ, когда действительно нужно больше VRAM для модели используем vLLM

      Для обучения и файнтюна ЛЛМ используем HuggingFace Trainer, но под его капотом также accelerate


  1. kkdit
    04.11.2025 10:45

    4 GPU setup
    4 GPU setup

    1.5 года назад собирал для себя тоже для экспериментов и инференса своих моделей под ЦОД. Тоже пришлось возиться с башней. Поменял на меньшую притык в 1мм был зазор с башней. Но водянку в ЦОД не пускали. Но уже работает без перебоев уже год в ЦОД. Надо скоро пасты поменять и обслужит. С размерами было проблема тоже, с Китая было долго. По 70$ стоили райзера. По GPU RTX 4060 TI 16GB и RTX 3060 12GB

    Но в основном для инференса 2х разных моделей так что vRAM был нормально.

    Но думаю через пол года заменить их на 5060 16гб. По сравнению с арендой Tesla t4 у Яндекса окупили себя за 2-3 месяца


  1. Cheshir_zip
    04.11.2025 10:45

    У меня не такой большой опыт в серверном железе, но тоже недавно захотел что бы мой пк мог потянуть локальную нейросеть, основная проблема в деньгах. Ни финансирования ни своих средств нету и пока я только на этапе проектирования. Да и комп будет стоять дома. Не хотелось бы что бы он дико шумел как сервер.

    Для корпуса думал взять phanteks enthoo pro 2, меня в нем только толщина стенок смущает. Жесткие диски планировал подключать через рэйд контролер и объединять их в рейд. Для моих маленьких задач надеюсь хватит, а если он поможет диплом написать будет вообще отлично