DellShop B2B
Корзина

Meta представила четыре новых ИИ-ускорителя MTIA — с FP8-производительностью до 10 Пфлопс

12 марта 2026 г.·8 мин чтения·Кирилл ВолковКирилл Волков
Meta представила четыре новых ИИ-ускорителя MTIA — с FP8-производительностью до 10 Пфлопс

Компания Meta официально анонсировала четыре новых поколения ИИ-ускорителей MTIA (Meta Training and Inference Accelerator): модели 300, 400, 450 и 500. Эти решения ориентированы на различные типы искусственного интеллекта — от инференса до генеративных сервисов, и уже частично внедряются в дата-центры компании. Для специалистов, занимающихся модернизацией серверной инфраструктуры, такой анонс открывает новые перспективы: архитектура чиплетов, поддержка памяти HBM и масштабируемость систем делают MTIA интересным объектом для анализа с точки зрения корпоративных закупок и построения высокопроизводительных вычислительных кластеров. Если вы подбираете комплектующие для апгрейда ЦОД или проектируете новую стойку под ИИ-нагрузки, технические детали новинок от Meta помогут сформировать требования к оборудованию и оценить вектор развития отрасли.

Эволюция архитектуры MTIA: от первого поколения к масштабируемым платформам

Первый ИИ-процессор Meta✴ — MTIA 100 — дебютировал в 2023 году с 128 ядрами RISC-V и 128 Мбайт SRAM. Уже в 2024-м вышло второе поколение, MTIA 200, с улучшенной производительностью. Новые модели 300–500 демонстрируют качественный скачок: упор сделан не только на рост вычислительной мощности, но и на пропускную способность памяти, энергоэффективность и гибкость развёртывания. Каждая модель заточена под конкретный сценарий: обучение моделей по методике Rephrase and Respond (R&R), инференс генеративных сервисов или универсальные ИИ-задачи. Важно отметить, что все ускорители используют модульную конструкцию на базе чиплетов — подход, который становится стандартом в сегменте высокопроизводительных вычислений. Для интеграции таких решений в существующую инфраструктуру критически важно сетевое оборудование с поддержкой низких задержек и высокой пропускной способности, поскольку обмен данными между чиплетами и узлами кластера напрямую влияет на итоговую производительность системы.

Сравнительная таблица технических характеристик MTIA 300–500

Параметр MTIA 300 MTIA 400 MTIA 450 MTIA 500
Назначение Обучение (R&R) Универсальные ИИ-задачи Инференс генеративного ИИ Инференс генеративного ИИ
Вычислительные чиплеты 1 2 2 2×2 (4)
Память HBM 216 Гбайт 288 Гбайт 288 Гбайт 384–512 Гбайт
Пропускная способность HBM 6,1 Тбайт/с 9,2 Тбайт/с 18,4 Тбайт/с 27,6 Тбайт/с
Производительность FP8/МХ8 1,2 Пфлопс 6 Пфлопс 7 Пфлопс 10 Пфлопс
Производительность МХ4 21 Пфлопс 30 Пфлопс
TDP 800 Вт 1200 Вт 1400 Вт 1700 Вт
Статус внедрения Используется в ЦОД Meta✴ Завершено тестирование План: начало 2027 План: 2027

Данные таблицы наглядно демонстрируют прогресс в каждом поколении: рост объёма и пропускной способности памяти, увеличение вычислительной плотности и адаптация под специфические форматы точности (МХ4, МХ8). Для инженеров, проектирующих серверы под ИИ-инференс, ключевым параметром становится не только пиковая производительность, но и эффективность работы с разреженными матрицами — именно здесь модели 450 и 500 показывают наибольшее преимущество. При этом важно учитывать, что рост TDP требует продуманной системы охлаждения: от воздушной с поддержкой жидкостных контуров до полностью иммерсивных решений.

MTIA 300: специализированный ускоритель для обучения по методике R&R

MTIA 300 — первый из новой линейки, уже применяющийся в дата-центрах Meta✴. Его архитектура включает один вычислительный чиплет с матрицей процессорных элементов (PE), каждый из которых содержит два векторных ядра RISC-V. Два сетевых чиплета (NIC) обеспечивают высокоскоростной обмен данными между узлами, что критично для распределённого обучения. Объём памяти HBM в 216 Гбайт с пропускной способностью 6,1 Тбайт/с позволяет эффективно работать с большими контекстными окнами и сложными графами вычислений. Заявленная производительность 1,2 Пфлопс в режимах FP8/МХ8 достаточна для задач рефакторинга и дообучения моделей по принципу Rephrase and Respond — методике, при которой ИИ переформулирует запрос для повышения точности ответа. Для корпоративных заказчиков, рассматривающих аналогичные сценарии, важно обратить внимание на совместимость с существующей инфраструктурой: при интеграции таких ускорителей в стойки требуется не только мощное электропитание, но и надёжные системы хранения для быстрого доступа к обучающим датасетам. Движок DMA, реализованный в MTIA 300, минимизирует задержки при работе с локальной памятью, что повышает общую эффективность конвейера данных.

MTIA 400: универсальная платформа для масштабируемых ИИ-кластеров

Решение общего назначения MTIA 400 объединяет два вычислительных чиплета и 288 Гбайт памяти HBM с пропускной способностью 9,2 Тбайт/с. Производительность до 6 Пфлопс (FP8/МХ8) и TDP 1200 Вт делают его подходящим для широкого спектра задач — от классического машинного обучения до инференса средних моделей. Ключевая особенность — возможность объединения 72 ускорителей в единую стойку через коммутируемую объединительную плату, формируя масштабируемый вычислительный домен. Такая архитектура позволяет линейно наращивать мощность кластера без кардинальной перестройки сетевой топологии. Для развёртывания подобных систем оптимально подходят rack-серверы с поддержкой высокоплотной компоновки и продвинутых схем охлаждения. Meta✴ использует как гибридные решения (жидкостное охлаждение с воздушной поддержкой), так и полностью жидкостные контуры — выбор зависит от теплового профиля ЦОД и доступной инфраструктуры. На сегодняшний день компания завершила тестирование MTIA 400 и перешла к этапу промышленного внедрения, что подтверждает зрелость платформы для корпоративного использования.

MTIA 450 и 500: фокус на инференс генеративного ИИ с экстремальной пропускной способностью

Модели 450 и 500 представляют собой флагманские решения для инференса генеративных моделей — сценария, где критичны не только вычисления, но и скорость подачи данных. Обе используют 288 Гбайт (450) и до 512 Гбайт (500) памяти HBM, но главное отличие — в пропускной способности: 18,4 Тбайт/с и 27,6 Тбайт/с соответственно. Это позволяет эффективно обрабатывать запросы с длинным контекстом и сложной структурой, характерные для современных LLM и мультимодальных систем. Производительность в режиме МХ4 достигает 21 Пфлопс (450) и 30 Пфлопс (500), что особенно важно для задач, где допустимо использование сверхнизкой точности без потери качества результата. Ускорители поддерживают смешанные вычисления с автоматическим приведением форматов — функция, снижающая нагрузку на ПО и упрощающая портирование моделей. Конфигурация чиплетов 2×2 в MTIA 500 обеспечивает высокую параллельность, а два сетевых чиплета минимизируют задержки при межузловом обмене. Внедрение этих решений в ЦОД Meta✴ запланировано на 2027 год, что даёт время для подготовки инфраструктуры: при планировании апгрейда стоит заранее оценить совместимость стоек, систем питания и охлаждения. Для сравнения: если в вашем ЦОД используются классические tower-серверы, переход на высокоплотные ИИ-платформы потребует существенной модернизации — как физической, так и логической.

Единая инфраструктура и стратегия бесшовного апгрейда

Meta✴ реализовала важный инженерный принцип: MTIA 400, 450 и 500 используют идентичное шасси, стойку и сетевую инфраструктуру. Это означает, что при переходе на следующее поколение не требуется замена всего «железа» — достаточно заменить вычислительные модули. Такой подход снижает CAPEX и ускоряет внедрение инноваций. Для корпоративных заказчиков это сигнал: при проектировании новых ЦОД стоит закладывать модульную архитектуру с возможностью поэтапной замены ускорителей. Кроме того, единая сетевая топология упрощает управление кластером и мониторинг производительности. При выборе оборудования для подобных задач рекомендуем обращаться к профильным специалистам — например, через контакты нашего магазина, чтобы получить консультацию по совместимости компонентов и оптимальным конфигурациям под конкретные ИИ-сценарии.

Чем отличаются модели MTIA 300, 400, 450 и 500?

MTIA 300 ориентирован на обучение по методике R&R с производительностью 1,2 Пфлопс (FP8). MTIA 400 — универсальное решение на 6 Пфлопс для широкого спектра задач. MTIA 450 и 500 сфокусированы на инференсе генеративного ИИ: 7 и 10 Пфлопс (FP8) соответственно, с поддержкой сверхнизкой точности МХ4 (до 30 Пфлопс). Рост производительности сопровождается увеличением объёма и пропускной способности памяти HBM, а также TDP — от 800 Вт у 300-й модели до 1700 Вт у 500-й.

Поддерживают ли ускорители MTIA смешанные форматы точности?

Да, начиная с MTIA 450 реализована аппаратная поддержка смешанных вычислений с низкой точностью (МХ4, МХ8) без необходимости программного преобразования данных. Это позволяет ускорить инференс генеративных моделей, сохраняя приемлемое качество результата, и снижает нагрузку на подсистему памяти за счёт уменьшения объёма передаваемых данных.

Можно ли интегрировать ускорители MTIA в существующие серверные стойки?

MTIA 400/450/500 используют единое шасси и сетевую инфраструктуру, что упрощает модернизацию. Однако из-за высокого TDP (до 1700 Вт) и требований к охлаждению необходима предварительная оценка ЦОД: поддержка жидкостного охлаждения, достаточная мощность электроснабжения и совместимость с коммутационным оборудованием. Для классических стоек может потребоваться адаптация или переход на специализированные платформы высокой плотности.

Когда начнётся массовое внедрение новых ускорителей?

MTIA 300 уже используется в дата-центрах Meta✴. MTIA 400 завершил тестирование и находится на этапе внедрения. Модели 450 и 500 запланированы к развёртыванию в 2027 году. Для сторонних заказчиков доступность будет зависеть от стратегии лицензирования и партнёрских программ Meta✴ — на текущий момент ускорители не предлагаются как отдельные коммерческие продукты.

Как оценить совместимость ИИ-ускорителей с вашей инфраструктурой

  1. Определите целевые ИИ-задачи: обучение, инференс, генеративные сервисы — от этого зависит выбор модели (300, 400, 450 или 500).
  2. Рассчитайте требования к памяти: объём и пропускная способность HBM напрямую влияют на производительность при работе с большими моделями.
  3. Оцените энергопотребление и охлаждение: TDP от 800 до 1700 Вт требует соответствующей инфраструктуры питания и теплоотвода.
  4. Проверьте сетевую готовность: высокоскоростные межчиплетные соединения и низкие задержки критичны для масштабируемых кластеров.
  5. Сопоставьте с существующим оборудованием: при использовании классических серверов может потребоваться переход на высокоплотные платформы или модульные шасси.
  6. Запланируйте поэтапную модернизацию: единая инфраструктура для 400/450/500 позволяет заменять ускорители без полной замены стоек.

Анонс новых ИИ-ускорителей Meta✴ MTIA 300–500 подчёркивает тренд на специализацию аппаратных платформ под конкретные сценарии искусственного интеллекта. Для корпоративного сектора это означает необходимость более тонкой настройки инфраструктуры: универсальные решения уступают место оптимизированным под инференс, обучение или генеративные задачи. При этом модульная архитектура и единая платформа для нескольких поколений снижают барьеры для внедрения инноваций. Если вы планируете модернизацию ЦОД или подбор оборудования под новые ИИ-нагрузки, рекомендуем начать с аудита текущей инфраструктуры и чёткого определения требований к производительности, памяти и охлаждению. Наши эксперты готовы помочь с подбором совместимых компонентов и конфигураций — обращайтесь за консультацией, чтобы сделать следующий шаг в развитии вашей вычислительной платформы.

Поделиться статьёй:

TelegramVKWhatsApp

Об авторе

Кирилл Волков
Кирилл Волков

Серверное оборудование · Практик-универсал

Инженер по серверному оборудованию, 8 лет в профессии. Настраивал и чинил серверы Dell, HP и Huawei — от небольших офисов до нагруженных дата-центров. Пишет гайды, которые сам хотел бы прочитать, когда начинал.

Все статьи автора →

Похожие материалы