DellShop B2B
Новости

Gigabyte G893-ZX1-AAX4: новый ИИ-сервер на базе AMD Instinct MI355X для задач машинного обучения

04.03.2026Автор: Кирилл Волков8 мин
Gigabyte G893-ZX1-AAX4: новый ИИ-сервер на базе AMD Instinct MI355X для задач машинного обучения

Почему рынок ИИ-инфраструктуры требует новых аппаратных решений

Рост спроса на генеративный ИИ, большие языковые модели и высокоточное компьютерное зрение создал беспрецедентную нагрузку на дата-центры. Традиционные серверные платформы перестают справляться с требованиями к пропускной способности памяти, параллельным вычислениям и энергоэффективности. В ответ на этот вызов Gigabyte Technology представила сервер G893-ZX1-AAX4 — 8U-платформу, спроектированную специально для ресурсоёмких задач искусственного интеллекта. Новинка базируется на процессорах AMD EPYC 9005/9004 и восьми ускорителях AMD Instinct MI355X, что делает её одним из наиболее сбалансированных решений для инференса и обучения моделей в корпоративном сегменте. Для организаций, масштабирующих ИИ-инфраструктуру, выбор правильного сервера становится критическим фактором производительности и TCO.

Архитектура платформы: процессоры, память и ввод-вывод

G893-ZX1-AAX4 построен на платформе AMD с поддержкой двух процессоров семейства EPYC 9005 «Turin» или EPYC 9004 «Genoa» в исполнении Socket SP5 (LGA 6096). Каждый процессор может иметь TDP до 500 Вт, что обеспечивает до 128 ядер Zen 4/Zen 5 на сокет и суммарно до 256 потоков в двухпроцессорной конфигурации. Такая вычислительная плотность критична для предобработки данных, управления очередями задач и координации работы GPU-ускорителей.

Подсистема памяти включает 24 слота DDR5 с поддержкой частот 4800 и 6400 МТ/с. При установке модулей по 64 ГБ суммарный объём ОЗУ достигает 1,5 ТБ, что позволяет загружать в память крупные датасеты и промежуточные результаты вычислений без постоянных обращений к дисковой подсистеме. Контроллер памяти AMD EPYC обеспечивает низкие задержки и высокую пропускную способность, что особенно важно при работе с векторными базами данных и трансформерными архитектурами.

Для высокоскоростного хранения данных сервер оснащён восемью фронтальными отсеками SFF под NVMe-накопители с интерфейсом PCIe 5.0 x4. Пропускная способность каждого такого накопителя достигает 14 ГБ/с, что в сумме даёт более 100 ГБ/с для операций чтения/записи. Дополнительно предусмотрены два внутренних слота M.2 2280/22110 с интерфейсами PCIe 3.0 x4 и x1 — идеальное решение для размещения ОС, гипервизора или кэша метаданных. При планировании инфраструктуры хранения стоит учитывать, что корректная настройка RAID и балансировка нагрузки между накопителями напрямую влияют на общую производительность ИИ-конвейера. Подробнее о совместимых компонентах можно узнать в разделе системы хранения.

Ускорение вычислений: восемь AMD Instinct MI355X в формате OAM

Сердцем G893-ZX1-AAX4 являются восемь графических ускорителей AMD Instinct MI355X, установленных в слоты OAM (Open Accelerator Module). Архитектура CDNA 3, лежащая в основе MI355X, оптимизирована именно для задач машинного обучения: она поддерживает матричные операции с пониженной точностью (FP8, FP16, BF16), аппаратное ускорение трансформеров и эффективную работу с разреженными тензорами. Каждый ускоритель оснащён 192 ГБ памяти HBM3 с пропускной способностью до 5,3 ТБ/с, что минимизирует «узкие места» при передаче данных между GPU и памятью.

Важным преимуществом платформы является поддержка PCIe 5.0 x16 для каждого слота расширения. Восемь разъёмов предназначены для однослотовых карт FHHL, ещё четыре — для двухслотовых решений. Это даёт гибкость при добавлении сетевых адаптеров, контроллеров хранения или специализированных ускорителей. Для задач распределённого обучения критична скорость межпроцессорного обмена: Gigabyte реализовала топологию соединений, минимизирующую задержки между GPU и процессорами EPYC. При построении кластера ИИ-серверов рекомендуется использовать высокоскоростное сетевое оборудование с поддержкой RoCE или InfiniBand для эффективной синхронизации градиентов.

Терморегуляция и энергопитание: надёжность под нагрузкой

Тепловыделение платформы с восемью MI355X и двумя 500-ваттными CPU превышает 10 кВт, поэтому система охлаждения спроектирована с запасом. В зоне GPU-лотка установлены 15 вентиляторов диаметром 80 мм, создающих направленный воздушный поток через радиаторы ускорителей. Материнская плата охлаждается шестью 60-мм кулерами, а секция PCIe — четырьмя дополнительными 80-мм вентиляторами. Все вентиляторы управляются через контроллер ASPEED AST2600 с адаптивным алгоритмом: при пиковой нагрузке обороты увеличиваются плавно, без резких скачков шума.

Энергопотребление обеспечивается двенадцатью блоками питания по 3000 Вт каждый с сертификатом 80 PLUS Titanium (КПД >96% при 50% нагрузке). Такая избыточность (N+N или N+1 в зависимости от конфигурации) гарантирует непрерывную работу даже при отказе нескольких БП. Для российских дата-центров это особенно важно: перепады напряжения и ограничения по мощности требуют максимально эффективного использования каждого ватта. При расчёте инфраструктуры не забудьте учесть требования к электросети и охлаждению помещения — сервер работает в диапазоне температур от +10 до +30 °C, что соответствует стандартным условиям машинного зала.

Управление, мониторинг и интеграция в существующую инфраструктуру

Базовый контроллер управления ASPEED AST2600 предоставляет полный набор функций BMC: удалённый доступ через IPMI 2.0, мониторинг температур, напряжений и оборотов вентиляторов, журналирование событий SEL. Два сетевых порта 10GbE на базе Intel X710-AT2 (RJ45) обеспечивают высокоскоростное подключение к сети хранения и вычислительному кластеру, а выделенный порт 1GbE предназначен для out-of-band управления. Это позволяет администраторам выполнять обновление прошивок, диагностику и перезагрузку даже при неработающей основной ОС.

Для удобства локального обслуживания предусмотрены два порта USB 3.2 Gen1 и аналоговый видеовыход D-Sub. Габариты сервера (447 × 351 × 923 мм) соответствуют стандарту 8U, что требует соответствующей глубины серверной стойки. При планировании размещения учтите вес полностью укомплектованной системы — он превышает 100 кг, поэтому рекомендуются усиленные направляющие и помощь при монтаже. Если вы оцениваете варианты размещения оборудования, обратите внимание на категории rack-серверы и tower-серверы для сравнения форм-факторов.

Практические сценарии применения G893-ZX1-AAX4

Платформа оптимальна для следующих задач:

  • Инференс больших языковых моделей: высокая пропускная способность HBM3 и поддержка FP8 позволяют обслуживать сотни запросов в секунду с минимальной задержкой.
  • Обучение компьютерного зрения: параллельная обработка изображений с нескольких камер в реальном времени для систем безопасности и автономного транспорта.
  • Научное моделирование: климатические расчёты, молекулярная динамика, финтех-аналитика — задачи, требующие двойной точности и большого объёма памяти.
  • Генеративный ИИ: создание контента, синтез речи, дизайн-ассистенты — все сценарии, где критична скорость генерации и качество вывода.

При внедрении важно правильно настроить стек ПО: ROCm 6.0+ для работы с MI355X, оптимизированные контейнеры Docker, оркестрация через Kubernetes с GPU-шейдулингом. Для упрощения развёртывания Gigabyte предоставляет образы ОС с предустановленными драйверами и библиотеками. Если требуется помощь в подборе совместимых комплектующих или настройке кластера, специалисты готовы проконсультировать по вопросам интеграции.

Сравнительная таблица ключевых характеристик

Параметр Значение
Форм-фактор 8U rack-mount
Процессоры 2× AMD EPYC 9005/9004, Socket SP5, до 500 Вт TDP
Оперативная память 24× DDR5-4800/6400, до 1,5 ТБ
Ускорители ИИ 8× AMD Instinct MI355X OAM, 192 ГБ HBM3 каждый
Накопители 8× SFF NVMe PCIe 5.0 + 2× M.2 PCIe 3.0
Слоты расширения 8× PCIe 5.0 x16 (FHHL single) + 4× PCIe 5.0 x16 (FHHL dual)
Сеть 2× 10GbE (Intel X710-AT2) + 1× 1GbE management
Охлаждение 25 вентиляторов (15×80 мм GPU, 6×60 мм MB, 4×80 мм PCIe)
Блоки питания 12× 3000 Вт, 80 PLUS Titanium, N+N redundancy
Рабочая температура +10 °C … +30 °C
Габариты 447 × 351 × 923 мм

Где приобрести и получить техническую поддержку

Gigabyte G893-ZX1-AAX4 — решение премиум-класса, требующее профессионального подхода к закупке и внедрению. При заказе важно учитывать не только базовую конфигурацию, но и совместимость с существующей инфраструктурой, условия гарантии, наличие запчастей и квалификацию сервисной команды. Для российских компаний, работающих в сфере ИИ и высокопроизводительных вычислений, критична оперативная техническая поддержка и возможность быстрой замены компонентов. Если вы оцениваете варианты поставки серверного оборудования, рекомендуем обратиться к официальным партнёрам, специализирующимся на инфраструктуре для машинного обучения. Для консультации по наличию, конфигурации и условиям доставки вы можете связаться с командой через страницу контактов.

Поддерживает ли G893-ZX1-AAX4 виртуализацию GPU?

Да, платформа совместима с технологиями виртуализации GPU, включая AMD MxGPU и сторонние решения на базе SR-IOV. Это позволяет разделять ресурсы ускорителей MI355X между несколькими виртуальными машинами или контейнерами, что особенно востребовано в облачных сценариях и multi-tenant средах. Для корректной работы требуется поддержка на уровне гипервизора (VMware vSphere, KVM, Hyper-V) и настройка драйверов ROCm.

Какова реальная производительность при инференсе LLM?

Точные показатели зависят от модели, точности вычислений и размера батча. В тестовых сценариях с моделью Llama 3 70B в режиме FP16 платформа демонстрирует до 120 токенов/сек на один запрос при задержке <200 мс. При использовании FP8 и оптимизированного компилятора производительность может вырасти на 30–40%. Для оценки под вашу конкретную задачу рекомендуется запросить бенчмарки у поставщика или провести пилотное тестирование.

Можно ли использовать сервер для обучения моделей с нуля?

Да, G893-ZX1-AAX4 подходит как для инференса, так и для полного цикла обучения. Высокая пропускная способность HBM3, поддержка крупного батча и эффективная межпроцессорная коммуникация позволяют ускорить сходимость моделей. Однако для обучения очень крупных моделей (сотни миллиардов параметров) рекомендуется кластеризация нескольких серверов с высокоскоростной сетью (InfiniBand/RoCE) для синхронизации градиентов.

Какие требования к электропитанию и охлаждению в дата-центре?

Максимальное энергопотребление полностью укомплектованного сервера достигает 12–14 кВт. Рекомендуется подключение к ИБП с мощностью от 15 кВт на стойку и система охлаждения с расходом воздуха не менее 2000 м³/ч. Температурный диапазон +10…+30 °C соответствует стандартным условиям, но для продления срока службы компонентов желательно поддерживать температуру на уровне +20…+25 °C с контролем влажности 40–60%.

Есть ли поддержка российских ОС и ПО?

Платформа совместима с основными дистрибутивами Linux, включая Astra Linux, RED OS и Alt Server, при условии наличия драйверов AMD ROCm для соответствующей версии ядра. Для работы с ИИ-фреймворками (PyTorch, TensorFlow) рекомендуется использовать контейнеризацию (Docker/Podman) с предварительно настроенными образами. Перед внедрением в регулируемых отраслях необходимо проверить сертификацию ПО и соответствие требованиям ФСТЭК/ФСБ.

Поделиться статьёй:

Об авторе

Кирилл Волков

Кирилл Волков

Серверное оборудование / Практик-универсал

Инженер по серверному оборудованию, 8 лет в профессии. Настраивал и чинил серверы Dell, HP и Huawei — от небольших офисов до нагруженных дата-центров. Пишет гайды, которые сам хотел бы прочитать, когда начинал.

Первый сервер разобрал в 2016 году — и с тех пор не остановился. За 8 лет прошёл путь от помощника сисадмина до инженера, который проектирует серверные решения для компаний. Работал с оборудованием Dell, HP, Huawei. Поднимал инфраструктуру для интернет-магазинов, настраивал кластеры для 1С, восстанавливал данные после аварий. Видел серверы в идеальных стойках дата-центров и в подвалах с протекающими трубами. В гайдах делюсь тем, что знаю сам: как выбрать сервер и не переплатить, когда б/у выгоднее нового, какие ошибки совершают при первой покупке. Без воды и маркетинговых лозунгов — только то, что реально пригодится в работе.

Похожие материалы