Тестируем NVIDIA HGX B300 — инференс-сервер с 8 GPU и 2,3 ТБ VRAM на DeepSeek, Qwen и MiniMax 15.05.2026 08:00 nsforth 5 Блог компании Selectel IT-инфраструктура Искусственный интеллект Машинное обучение Компьютерное железо
«Золотая рыбка, хочу LLM без GPU»: как собрать Inference-сервер на CPU +42 14.11.2025 07:00 nsforth 11