Giga Computing представила вычислительные узлы TO25-ZU4 и TO25-ZU5 на базе процессоров AMD EPYC Turin для гипермасштабируемых дата-центров

Тайваньская компания Giga Computing, входящая в экосистему Gigabyte Technology, официально анонсировала выпуск двух новых вычислительных узлов формата OCP ORV3 — TO25-ZU4 и TO25-ZU5. Эти решения, выполненные в двухузловой конфигурации 2OU, созданы специально для гиперскейлеров и крупных облачных провайдеров, которым требуется максимальная плотность вычислений при оптимизации энергопотребления и стоимости владения инфраструктурой. Ключевым технологическим прорывом новых платформ стала поддержка процессоров AMD EPYC серии 9005 «Turin» с рекордными 192 ядрами в одном сокете.
Стандарт OCP ORV3: почему гиперскейлеры выбирают открытую архитектуру
Open Compute Project (OCP) изначально был инициирован Facebook (ныне Meta) как ответ на ограничения традиционных серверных платформ при масштабировании дата-центров до десятков тысяч узлов. Стандарт OCP Open Rack Version 3 (ORV3) представляет собой эволюцию концепции открытого железа, решающую три критические задачи современных гипермасштабируемых сред:
- Унификация механики и электрики для снижения стоимости обслуживания
- Оптимизация воздушных потоков при высокой плотности размещения
- Модульность компонентов для быстрой замены без простоя всего шкафа
Формат 2OU (два юнита высоты), применённый в решениях TO25-ZU4/ZU5, позволяет разместить два независимых вычислительных узла в едином физическом корпусе. Такая архитектура снижает совокупные затраты на шасси, блоки питания и системы охлаждения на 30–40% по сравнению с классическими 1U-серверами при сохранении полной изоляции ресурсов каждого узла. Для провайдеров, эксплуатирующих инфраструктуру на уровне 50+ МВт, такие оптимизации напрямую влияют на рентабельность бизнеса.
AMD EPYC Turin: архитектурные преимущества нового поколения процессоров
Процессоры серии AMD EPYC 9005 «Turin», лежащие в основе новых узлов Giga Computing, построены на архитектуре Zen 5 и производственном процессе TSMC N4X. Ключевые улучшения по сравнению с предыдущим поколением «Genoa» (EPYC 9004):
| Параметр | EPYC 9004 «Genoa» | EPYC 9005 «Turin» | Прирост |
|---|---|---|---|
| Максимальное число ядер | 128 | 192 | +50% |
| Частота кэша L3 на ядро | 16 МБ | 24 МБ | +50% |
| Пропускная способность памяти | 400 ГБ/с | 600 ГБ/с | +50% |
| Энергоэффективность (производительность/ватт) | Базовый уровень | На 35% выше | +35% |
Важнейшим достижением «Turin» стала реализация технологии 3D V-Cache второго поколения, позволяющая размещать до 1,5 ГБ кэш-памяти третьего уровня на процессоре. Это критически важно для рабочих нагрузок с высокой локальностью данных: базы данных, кэширующие системы, инференс ИИ-моделей. При этом поддержка памяти DDR5-6400 обеспечивает пропускную способность до 600 ГБ/с на сокет — показатель, необходимый для эффективной загрузки 192 вычислительных ядер.
TO25-ZU4 и TO25-ZU5: сравнительный анализ технических характеристик
Обе модели построены на единой системной плате MZU3-MG0, что упрощает логистику и обучение персонала дата-центра. Различия между конфигурациями касаются подсистемы хранения и расширяемости — выбор зависит от специфики рабочих нагрузок.
Процессорная платформа и энергетические параметры
Каждый узел поддерживает установку одного процессора AMD EPYC 9005 «Turin» или 9004 «Genoa» с тепловым пакетом до 500 Вт. Такая гибкость позволяет:
- Использовать топовые 192-ядерные модели для задач параллельных вычислений
- Выбирать энергоэффективные 64-ядерные процессоры с низким TDP для веб-хостинга
- Постепенно мигрировать с архитектуры «Genoa» на «Turin» без замены серверного шасси
Контроллер управления платформой ASPEED AST2600 обеспечивает полную реализацию спецификации Redfish для удалённого администрирования, включая виртуальный носитель, мониторинг датчиков в реальном времени и автоматическое восстановление после сбоев. Выделенный порт 1GbE для BMC (Baseboard Management Controller) изолирован от основного трафика, что критично для безопасности инфраструктуры.
Подсистема памяти и хранения данных
Платформа оснащена 12 слотами для модулей памяти DDR5 с поддержкой частот 4800 и 6400 МГц. Максимальный объём оперативной памяти достигает 6 ТБ при использовании модулей ёмкостью 512 ГБ — параметр, востребованный для аналитических СУБД и виртуализации с высокой плотностью ВМ.
Ключевое различие между моделями заключается в конфигурации накопителей:
| Модель | E1.S (PCIe 5.0 NVMe) | SFF-накопители | Особенности |
|---|---|---|---|
| TO25-ZU4 | 2 шт. × 9,5 мм | 4 шт. (NVMe/SATA/SAS-4) | Оптимизирована под гибридные нагрузки с балансом скорости и ёмкости |
| TO25-ZU5 | 2 шт. × 9,5 мм | 8 шт. (NVMe/SATA/SAS-4) | Максимальная плотность хранения для объектных хранилищ и аналитики |
Форм-фактор E1.S (Enterprise and Data Center SSD Form Factor) представляет собой стандарт, разработанный специально для дата-центров с требованиями к высокой плотности и эффективному охлаждению. Накопители устанавливаются вертикально вдоль воздушного потока, что снижает термическое сопротивление на 25% по сравнению с традиционными U.2. Поддержка протокола PCIe 5.0 обеспечивает пропускную способность до 14 ГБ/с на накопитель — вдвое выше, чем у решений предыдущего поколения.
Сетевые возможности и расширяемость
Базовая конфигурация включает двухпортовый адаптер Intel X710-AT2 с интерфейсом 10GbE, обеспечивающий достаточную пропускную способность для большинства корпоративных приложений. Для сценариев с высокими требованиями к сетевой задержке доступны два варианта расширения:
- Слоты OCP NIC 3.0 (PCIe 5.0 x16) — для установки адаптеров 100/200/400GbE от ведущих вендоров
- Слоты расширения FHFL (Full Height Full Length) PCIe 5.0 x16 — для ускорителей вычислений (GPU, FPGA, SmartNIC)
Модель TO25-ZU4 поддерживает два слота FHFL, тогда как TO25-ZU5 ограничена низкопрофильными картами расширения из-за особенностей размещения дисковых корзин. Этот нюанс критически важен при выборе платформы для задач машинного обучения, где требуется установка нескольких ускорителей в один узел.
Сценарии применения в современных дата-центрах
Вычислительные узлы TO25-ZU4 и TO25-ZU5 демонстрируют максимальную эффективность в трёх ключевых сценариях:
Гипермасштабируемая виртуализация и контейнеризация
192 ядра процессора «Turin» позволяют запускать до 768 виртуальных машин средней нагрузки или 384 контейнерных пода в одной ноде. При плотности размещения 40 узлов в стандартном 42U-шкафу получаем 7680 ядер и 30 720 ВМ на одном шкафу — показатель, недостижимый для классических rack-серверов. Такая плотность критична для провайдеров публичного облака, где стоимость квадратного метра дата-центра напрямую влияет на маржинальность услуг.
Высокопроизводительные вычисления (HPC) и инференс ИИ
Архитектура с поддержкой 6 ТБ оперативной памяти и слотов PCIe 5.0 x16 делает платформу пригодной для задач, требующих обработки крупных наборов данных в памяти. Примеры:
- Молекулярное моделирование в фармацевтике
- Сейсморазведка в нефтегазовой отрасли
- Инференс крупных языковых моделей (до 70 млрд параметров в режиме реального времени)
Для сценариев с ускорителями рекомендуется конфигурация TO25-ZU4 с двумя слотами FHFL, позволяющая установить пару профессиональных GPU (например, NVIDIA L40S) с прямым доступом к памяти процессора через технологию PCIe Peer-to-Peer.
Масштабируемые системы хранения
Модификация TO25-ZU5 с восемью SFF-накопителями оптимальна для построения объектных хранилищ на базе Ceph или MinIO. При использовании NVMe-накопителей ёмкостью 15,36 ТБ общая полезная ёмкость одного двухузлового блока достигает 245 ТБ (с учётом репликации 3x). В конфигурации из 20 шкафов такая система обеспечивает более 5 ПБ надёжного хранилища с пропускной способностью свыше 100 ГБ/с — решение для медиа-платформ и архивов.
Энергоэффективность и эксплуатационные особенности
Рабочий диапазон температур (+10…+30 °C) соответствует рекомендациям ASHRAE класса A3 для современных дата-центров. Такой подход позволяет:
- Снизить энергопотребление систем охлаждения на 18–22%
- Использовать свободное охлаждение (free cooling) до 8 месяцев в году в умеренном климате
- Увеличить надёжность компонентов за счёт снижения термических циклов
Габариты решений (258 × 86 × 771 мм) оптимизированы под стандартные шкафы глубиной 1200 мм с учётом размещения кабельных организаторов. Вес одного двухузлового блока не превышает 18 кг, что позволяет проводить монтаж/демонтаж одному инженеру без грузоподъёмного оборудования.
Для повышения уровня безопасности доступны опциональные модули:
- TPM 2.0 для аппаратного шифрования и аттестации платформы
- RAID-контроллеры с поддержкой кэширования записи и защиты от сбоев питания
- Сенсоры вскрытия шасси с логированием в неизменяемую память BMC
Как выбрать между TO25-ZU4 и TO25-ZU5 для вашей инфраструктуры
Решение о выборе конфигурации должно основываться на анализе трёх факторов:
Пошаговая методика выбора вычислительного узла
- Определите доминирующий тип рабочей нагрузки: вычислительно-интенсивная (рендеринг, моделирование), память-интенсивная (базы данных, кэши) или ввод-вывод-интенсивная (хранилища, потоковая обработка).
- Проанализируйте соотношение ядер ЦПУ к объёму памяти и скорости хранилища в текущей инфраструктуре. Если на 64 ядра приходится менее 1 ТБ памяти — выбирайте конфигурацию с акцентом на вычисления (TO25-ZU4).
- Оцените потребность в расширении: необходимость установки полноразмерных карт ускорения однозначно указывает на TO25-ZU4, тогда как максимальная плотность дисков требует TO25-ZU5.
- Рассчитайте совокупную стоимость владения (TCO) за 5 лет с учётом стоимости электроэнергии в вашем регионе. В регионах с дорогой электроэнергией преимущество получают конфигурации с процессорами среднего энергопакета (200–280 Вт).
Для гибридных сред, сочетающих разнородные нагрузки, рекомендуется комбинированное размещение: 70% узлов TO25-ZU5 для хранения и 30% TO25-ZU4 с ускорителями для обработки. Такая стратегия обеспечивает баланс между стоимостью терабайта хранилища и стоимостью вычислительной операции.
Перспективы развития платформы и совместимость с экосистемой
Giga Computing подтверждает обратную совместимость платформы с процессорами предыдущего поколения EPYC 9004 «Genoa», что снижает риски при поэтапной модернизации инфраструктуры. Ближайшие обновления, запланированные на вторую половину 2026 года, включают:
- Поддержку памяти DDR5-8000 для процессоров следующего поколения
- Интеграцию контроллеров CXL 2.0 для создания пулов памяти между узлами
- Опциональные жидкостные системы охлаждения для работы при плотности выше 50 кВт/шкаф
Важно отметить, что архитектура OCP ORV3 изначально проектировалась с учётом перехода на жидкостное охлаждение. Корпуса TO25-ZU4/ZU5 имеют монтажные точки для установки холодных пластин (cold plates) на процессор и VRM-модули, что упростит модернизацию при росте тепловыделения будущих поколений процессоров.
Поддерживают ли узлы TO25-ZU4/ZU5 установку двух процессоров в одном узле?
Нет, обе модели реализованы в однопроцессорной (single-socket) конфигурации. Это осознанный архитектурный выбор, обусловленный трендом на увеличение числа ядер в одном сокете (до 192 у EPYC Turin) и снижением потребности в двухпроцессорных системах для большинства рабочих нагрузок. Однопроцессорная архитектура обеспечивает более предсказуемую задержку памяти и снижает стоимость лицензирования ПО, привязанного к числу сокетов.
Какие операционные системы и гипервизоры сертифицированы для платформы?
Giga Computing предоставляет официальную поддержку для Red Hat Enterprise Linux 8/9, SUSE Linux Enterprise Server 15, VMware vSphere 8.x, Microsoft Windows Server 2022 и Ubuntu Server 22.04 LTS. Для специализированных сценариев (Kubernetes, OpenStack) доступны готовые образы с предустановленными драйверами и агентами мониторинга. Все драйверы соответствуют требованиям безопасности платформы и проходят регулярное обновление через репозитории вендоров.
Возможна ли интеграция узлов с существующей инфраструктурой на базе традиционных серверов?
Да, узлы полностью совместимы с современными системами управления дата-центрами (DCIM) через стандартные протоколы Redfish и IPMI 2.0. Для гибридных сред рекомендуется использовать решения для оркестрации вроде VMware vCenter или OpenStack, которые абстрагируют различия в аппаратной платформе. Физическая интеграция требует установки шкафов, совместимых со стандартом OCP Open Rack, либо применения адаптеров для монтажа в традиционные 19-дюймовые стойки — такие решения доступны у партнёров Giga Computing в России и СНГ.
Как обеспечивается техническая поддержка и поставка запасных частей в РФ?
Официальным дистрибьютором решений Giga Computing на территории РФ и стран ЕАЭС выступает компания «Делл Шоп». Техническая поддержка предоставляется на русском языке с возможностью выезда инженера в дата-центр для критических инцидентов. Складские запасы ключевых компонентов (блоки питания, вентиляторы, контроллеры) размещены на территории РФ, что обеспечивает доставку запчастей в течение 24 часов для клиентов из Москвы и Санкт-Петербурга. Для консультации по подбору конфигурации и условиям поставки рекомендуем связаться со специалистами отдела корпоративных продаж.
Появление вычислительных узлов TO25-ZU4 и TO25-ZU5 знаменует переход гипермасштабируемой инфраструктуры на новую технологическую ступень. Сочетание рекордной плотности ядер, поддержки памяти следующего поколения и гибкой архитектуры хранения делает эти решения оптимальным выбором для дата-центров, ориентированных на работу с искусственным интеллектом, аналитикой больших данных и высоконагруженными облачными сервисами. При грамотном проектировании архитектуры такие платформы способны снизить совокупную стоимость владения на 25–30% по сравнению с традиционными серверными решениями при одновременном росте производительности на 40–60%.
Поделиться статьёй:
Об авторе

Кирилл Волков
Серверное оборудование / Практик-универсал
Инженер по серверному оборудованию, 8 лет в профессии. Настраивал и чинил серверы Dell, HP и Huawei — от небольших офисов до нагруженных дата-центров. Пишет гайды, которые сам хотел бы прочитать, когда начинал.
Первый сервер разобрал в 2016 году — и с тех пор не остановился. За 8 лет прошёл путь от помощника сисадмина до инженера, который проектирует серверные решения для компаний. Работал с оборудованием Dell, HP, Huawei. Поднимал инфраструктуру для интернет-магазинов, настраивал кластеры для 1С, восстанавливал данные после аварий. Видел серверы в идеальных стойках дата-центров и в подвалах с протекающими трубами. В гайдах делюсь тем, что знаю сам: как выбрать сервер и не переплатить, когда б/у выгоднее нового, какие ошибки совершают при первой покупке. Без воды и маркетинговых лозунгов — только то, что реально пригодится в работе.
Похожие материалы

SambaNova SN50 и партнёрство с Intel: новый этап в гонке ИИ-ускорителей
ИИ-ускоритель SambaNova SN50: архитектура RDU, 3,2 Пфлопс FP8, поддержка LLM до 10 трлн параметров, экономия TCO. Обзор новинки и партнёрства с Intel.

Nimbus Data представила универсальную All-Flash СХД FlashMax: единая платформа для блок, файл и объект-хранилищ
Nimbus Data FlashMax — универсальная All-Flash СХД с поддержкой блочных, файловых и объектных протоколов для высоконагруженных дата-центров. Читайте обзор.

Akash Systems начала поставки первых в мире GPU-серверов с алмазным охлаждением
Akash Systems начала поставки GPU-серверов с алмазным охлаждением. Технология Diamond Cooling повышает производительность ИИ-кластеров на 15% и снижает затраты на охлаждение ЦОД.