DellShop B2B
Новости

Giga Computing представила вычислительные узлы TO25-ZU4 и TO25-ZU5 на базе процессоров AMD EPYC Turin для гипермасштабируемых дата-центров

02.02.2026Автор: Кирилл Волков10 мин
Giga Computing представила вычислительные узлы TO25-ZU4 и TO25-ZU5 на базе процессоров AMD EPYC Turin для гипермасштабируемых дата-центров

Тайваньская компания Giga Computing, входящая в экосистему Gigabyte Technology, официально анонсировала выпуск двух новых вычислительных узлов формата OCP ORV3 — TO25-ZU4 и TO25-ZU5. Эти решения, выполненные в двухузловой конфигурации 2OU, созданы специально для гиперскейлеров и крупных облачных провайдеров, которым требуется максимальная плотность вычислений при оптимизации энергопотребления и стоимости владения инфраструктурой. Ключевым технологическим прорывом новых платформ стала поддержка процессоров AMD EPYC серии 9005 «Turin» с рекордными 192 ядрами в одном сокете.

Стандарт OCP ORV3: почему гиперскейлеры выбирают открытую архитектуру

Open Compute Project (OCP) изначально был инициирован Facebook (ныне Meta) как ответ на ограничения традиционных серверных платформ при масштабировании дата-центров до десятков тысяч узлов. Стандарт OCP Open Rack Version 3 (ORV3) представляет собой эволюцию концепции открытого железа, решающую три критические задачи современных гипермасштабируемых сред:

  • Унификация механики и электрики для снижения стоимости обслуживания
  • Оптимизация воздушных потоков при высокой плотности размещения
  • Модульность компонентов для быстрой замены без простоя всего шкафа

Формат 2OU (два юнита высоты), применённый в решениях TO25-ZU4/ZU5, позволяет разместить два независимых вычислительных узла в едином физическом корпусе. Такая архитектура снижает совокупные затраты на шасси, блоки питания и системы охлаждения на 30–40% по сравнению с классическими 1U-серверами при сохранении полной изоляции ресурсов каждого узла. Для провайдеров, эксплуатирующих инфраструктуру на уровне 50+ МВт, такие оптимизации напрямую влияют на рентабельность бизнеса.

AMD EPYC Turin: архитектурные преимущества нового поколения процессоров

Процессоры серии AMD EPYC 9005 «Turin», лежащие в основе новых узлов Giga Computing, построены на архитектуре Zen 5 и производственном процессе TSMC N4X. Ключевые улучшения по сравнению с предыдущим поколением «Genoa» (EPYC 9004):

Параметр EPYC 9004 «Genoa» EPYC 9005 «Turin» Прирост
Максимальное число ядер 128 192 +50%
Частота кэша L3 на ядро 16 МБ 24 МБ +50%
Пропускная способность памяти 400 ГБ/с 600 ГБ/с +50%
Энергоэффективность (производительность/ватт) Базовый уровень На 35% выше +35%

Важнейшим достижением «Turin» стала реализация технологии 3D V-Cache второго поколения, позволяющая размещать до 1,5 ГБ кэш-памяти третьего уровня на процессоре. Это критически важно для рабочих нагрузок с высокой локальностью данных: базы данных, кэширующие системы, инференс ИИ-моделей. При этом поддержка памяти DDR5-6400 обеспечивает пропускную способность до 600 ГБ/с на сокет — показатель, необходимый для эффективной загрузки 192 вычислительных ядер.

TO25-ZU4 и TO25-ZU5: сравнительный анализ технических характеристик

Обе модели построены на единой системной плате MZU3-MG0, что упрощает логистику и обучение персонала дата-центра. Различия между конфигурациями касаются подсистемы хранения и расширяемости — выбор зависит от специфики рабочих нагрузок.

Процессорная платформа и энергетические параметры

Каждый узел поддерживает установку одного процессора AMD EPYC 9005 «Turin» или 9004 «Genoa» с тепловым пакетом до 500 Вт. Такая гибкость позволяет:

  • Использовать топовые 192-ядерные модели для задач параллельных вычислений
  • Выбирать энергоэффективные 64-ядерные процессоры с низким TDP для веб-хостинга
  • Постепенно мигрировать с архитектуры «Genoa» на «Turin» без замены серверного шасси

Контроллер управления платформой ASPEED AST2600 обеспечивает полную реализацию спецификации Redfish для удалённого администрирования, включая виртуальный носитель, мониторинг датчиков в реальном времени и автоматическое восстановление после сбоев. Выделенный порт 1GbE для BMC (Baseboard Management Controller) изолирован от основного трафика, что критично для безопасности инфраструктуры.

Подсистема памяти и хранения данных

Платформа оснащена 12 слотами для модулей памяти DDR5 с поддержкой частот 4800 и 6400 МГц. Максимальный объём оперативной памяти достигает 6 ТБ при использовании модулей ёмкостью 512 ГБ — параметр, востребованный для аналитических СУБД и виртуализации с высокой плотностью ВМ.

Ключевое различие между моделями заключается в конфигурации накопителей:

Модель E1.S (PCIe 5.0 NVMe) SFF-накопители Особенности
TO25-ZU4 2 шт. × 9,5 мм 4 шт. (NVMe/SATA/SAS-4) Оптимизирована под гибридные нагрузки с балансом скорости и ёмкости
TO25-ZU5 2 шт. × 9,5 мм 8 шт. (NVMe/SATA/SAS-4) Максимальная плотность хранения для объектных хранилищ и аналитики

Форм-фактор E1.S (Enterprise and Data Center SSD Form Factor) представляет собой стандарт, разработанный специально для дата-центров с требованиями к высокой плотности и эффективному охлаждению. Накопители устанавливаются вертикально вдоль воздушного потока, что снижает термическое сопротивление на 25% по сравнению с традиционными U.2. Поддержка протокола PCIe 5.0 обеспечивает пропускную способность до 14 ГБ/с на накопитель — вдвое выше, чем у решений предыдущего поколения.

Сетевые возможности и расширяемость

Базовая конфигурация включает двухпортовый адаптер Intel X710-AT2 с интерфейсом 10GbE, обеспечивающий достаточную пропускную способность для большинства корпоративных приложений. Для сценариев с высокими требованиями к сетевой задержке доступны два варианта расширения:

  • Слоты OCP NIC 3.0 (PCIe 5.0 x16) — для установки адаптеров 100/200/400GbE от ведущих вендоров
  • Слоты расширения FHFL (Full Height Full Length) PCIe 5.0 x16 — для ускорителей вычислений (GPU, FPGA, SmartNIC)

Модель TO25-ZU4 поддерживает два слота FHFL, тогда как TO25-ZU5 ограничена низкопрофильными картами расширения из-за особенностей размещения дисковых корзин. Этот нюанс критически важен при выборе платформы для задач машинного обучения, где требуется установка нескольких ускорителей в один узел.

Сценарии применения в современных дата-центрах

Вычислительные узлы TO25-ZU4 и TO25-ZU5 демонстрируют максимальную эффективность в трёх ключевых сценариях:

Гипермасштабируемая виртуализация и контейнеризация

192 ядра процессора «Turin» позволяют запускать до 768 виртуальных машин средней нагрузки или 384 контейнерных пода в одной ноде. При плотности размещения 40 узлов в стандартном 42U-шкафу получаем 7680 ядер и 30 720 ВМ на одном шкафу — показатель, недостижимый для классических rack-серверов. Такая плотность критична для провайдеров публичного облака, где стоимость квадратного метра дата-центра напрямую влияет на маржинальность услуг.

Высокопроизводительные вычисления (HPC) и инференс ИИ

Архитектура с поддержкой 6 ТБ оперативной памяти и слотов PCIe 5.0 x16 делает платформу пригодной для задач, требующих обработки крупных наборов данных в памяти. Примеры:

  • Молекулярное моделирование в фармацевтике
  • Сейсморазведка в нефтегазовой отрасли
  • Инференс крупных языковых моделей (до 70 млрд параметров в режиме реального времени)

Для сценариев с ускорителями рекомендуется конфигурация TO25-ZU4 с двумя слотами FHFL, позволяющая установить пару профессиональных GPU (например, NVIDIA L40S) с прямым доступом к памяти процессора через технологию PCIe Peer-to-Peer.

Масштабируемые системы хранения

Модификация TO25-ZU5 с восемью SFF-накопителями оптимальна для построения объектных хранилищ на базе Ceph или MinIO. При использовании NVMe-накопителей ёмкостью 15,36 ТБ общая полезная ёмкость одного двухузлового блока достигает 245 ТБ (с учётом репликации 3x). В конфигурации из 20 шкафов такая система обеспечивает более 5 ПБ надёжного хранилища с пропускной способностью свыше 100 ГБ/с — решение для медиа-платформ и архивов.

Энергоэффективность и эксплуатационные особенности

Рабочий диапазон температур (+10…+30 °C) соответствует рекомендациям ASHRAE класса A3 для современных дата-центров. Такой подход позволяет:

  • Снизить энергопотребление систем охлаждения на 18–22%
  • Использовать свободное охлаждение (free cooling) до 8 месяцев в году в умеренном климате
  • Увеличить надёжность компонентов за счёт снижения термических циклов

Габариты решений (258 × 86 × 771 мм) оптимизированы под стандартные шкафы глубиной 1200 мм с учётом размещения кабельных организаторов. Вес одного двухузлового блока не превышает 18 кг, что позволяет проводить монтаж/демонтаж одному инженеру без грузоподъёмного оборудования.

Для повышения уровня безопасности доступны опциональные модули:

  • TPM 2.0 для аппаратного шифрования и аттестации платформы
  • RAID-контроллеры с поддержкой кэширования записи и защиты от сбоев питания
  • Сенсоры вскрытия шасси с логированием в неизменяемую память BMC

Как выбрать между TO25-ZU4 и TO25-ZU5 для вашей инфраструктуры

Решение о выборе конфигурации должно основываться на анализе трёх факторов:

Пошаговая методика выбора вычислительного узла

  1. Определите доминирующий тип рабочей нагрузки: вычислительно-интенсивная (рендеринг, моделирование), память-интенсивная (базы данных, кэши) или ввод-вывод-интенсивная (хранилища, потоковая обработка).
  2. Проанализируйте соотношение ядер ЦПУ к объёму памяти и скорости хранилища в текущей инфраструктуре. Если на 64 ядра приходится менее 1 ТБ памяти — выбирайте конфигурацию с акцентом на вычисления (TO25-ZU4).
  3. Оцените потребность в расширении: необходимость установки полноразмерных карт ускорения однозначно указывает на TO25-ZU4, тогда как максимальная плотность дисков требует TO25-ZU5.
  4. Рассчитайте совокупную стоимость владения (TCO) за 5 лет с учётом стоимости электроэнергии в вашем регионе. В регионах с дорогой электроэнергией преимущество получают конфигурации с процессорами среднего энергопакета (200–280 Вт).

Для гибридных сред, сочетающих разнородные нагрузки, рекомендуется комбинированное размещение: 70% узлов TO25-ZU5 для хранения и 30% TO25-ZU4 с ускорителями для обработки. Такая стратегия обеспечивает баланс между стоимостью терабайта хранилища и стоимостью вычислительной операции.

Перспективы развития платформы и совместимость с экосистемой

Giga Computing подтверждает обратную совместимость платформы с процессорами предыдущего поколения EPYC 9004 «Genoa», что снижает риски при поэтапной модернизации инфраструктуры. Ближайшие обновления, запланированные на вторую половину 2026 года, включают:

  • Поддержку памяти DDR5-8000 для процессоров следующего поколения
  • Интеграцию контроллеров CXL 2.0 для создания пулов памяти между узлами
  • Опциональные жидкостные системы охлаждения для работы при плотности выше 50 кВт/шкаф

Важно отметить, что архитектура OCP ORV3 изначально проектировалась с учётом перехода на жидкостное охлаждение. Корпуса TO25-ZU4/ZU5 имеют монтажные точки для установки холодных пластин (cold plates) на процессор и VRM-модули, что упростит модернизацию при росте тепловыделения будущих поколений процессоров.

Поддерживают ли узлы TO25-ZU4/ZU5 установку двух процессоров в одном узле?

Нет, обе модели реализованы в однопроцессорной (single-socket) конфигурации. Это осознанный архитектурный выбор, обусловленный трендом на увеличение числа ядер в одном сокете (до 192 у EPYC Turin) и снижением потребности в двухпроцессорных системах для большинства рабочих нагрузок. Однопроцессорная архитектура обеспечивает более предсказуемую задержку памяти и снижает стоимость лицензирования ПО, привязанного к числу сокетов.

Какие операционные системы и гипервизоры сертифицированы для платформы?

Giga Computing предоставляет официальную поддержку для Red Hat Enterprise Linux 8/9, SUSE Linux Enterprise Server 15, VMware vSphere 8.x, Microsoft Windows Server 2022 и Ubuntu Server 22.04 LTS. Для специализированных сценариев (Kubernetes, OpenStack) доступны готовые образы с предустановленными драйверами и агентами мониторинга. Все драйверы соответствуют требованиям безопасности платформы и проходят регулярное обновление через репозитории вендоров.

Возможна ли интеграция узлов с существующей инфраструктурой на базе традиционных серверов?

Да, узлы полностью совместимы с современными системами управления дата-центрами (DCIM) через стандартные протоколы Redfish и IPMI 2.0. Для гибридных сред рекомендуется использовать решения для оркестрации вроде VMware vCenter или OpenStack, которые абстрагируют различия в аппаратной платформе. Физическая интеграция требует установки шкафов, совместимых со стандартом OCP Open Rack, либо применения адаптеров для монтажа в традиционные 19-дюймовые стойки — такие решения доступны у партнёров Giga Computing в России и СНГ.

Как обеспечивается техническая поддержка и поставка запасных частей в РФ?

Официальным дистрибьютором решений Giga Computing на территории РФ и стран ЕАЭС выступает компания «Делл Шоп». Техническая поддержка предоставляется на русском языке с возможностью выезда инженера в дата-центр для критических инцидентов. Складские запасы ключевых компонентов (блоки питания, вентиляторы, контроллеры) размещены на территории РФ, что обеспечивает доставку запчастей в течение 24 часов для клиентов из Москвы и Санкт-Петербурга. Для консультации по подбору конфигурации и условиям поставки рекомендуем связаться со специалистами отдела корпоративных продаж.

Появление вычислительных узлов TO25-ZU4 и TO25-ZU5 знаменует переход гипермасштабируемой инфраструктуры на новую технологическую ступень. Сочетание рекордной плотности ядер, поддержки памяти следующего поколения и гибкой архитектуры хранения делает эти решения оптимальным выбором для дата-центров, ориентированных на работу с искусственным интеллектом, аналитикой больших данных и высоконагруженными облачными сервисами. При грамотном проектировании архитектуры такие платформы способны снизить совокупную стоимость владения на 25–30% по сравнению с традиционными серверными решениями при одновременном росте производительности на 40–60%.

Поделиться статьёй:

Об авторе

Кирилл Волков

Кирилл Волков

Серверное оборудование / Практик-универсал

Инженер по серверному оборудованию, 8 лет в профессии. Настраивал и чинил серверы Dell, HP и Huawei — от небольших офисов до нагруженных дата-центров. Пишет гайды, которые сам хотел бы прочитать, когда начинал.

Первый сервер разобрал в 2016 году — и с тех пор не остановился. За 8 лет прошёл путь от помощника сисадмина до инженера, который проектирует серверные решения для компаний. Работал с оборудованием Dell, HP, Huawei. Поднимал инфраструктуру для интернет-магазинов, настраивал кластеры для 1С, восстанавливал данные после аварий. Видел серверы в идеальных стойках дата-центров и в подвалах с протекающими трубами. В гайдах делюсь тем, что знаю сам: как выбрать сервер и не переплатить, когда б/у выгоднее нового, какие ошибки совершают при первой покупке. Без воды и маркетинговых лозунгов — только то, что реально пригодится в работе.

Похожие материалы