Meta представила четыре новых ИИ-ускорителя MTIA — с FP8-производительностью до 10 Пфлопс

Компания Meta официально анонсировала четыре новых поколения ИИ-ускорителей MTIA (Meta Training and Inference Accelerator): модели 300, 400, 450 и 500. Эти решения ориентированы на различные типы искусственного интеллекта — от инференса до генеративных сервисов, и уже частично внедряются в дата-центры компании. Для специалистов, занимающихся модернизацией серверной инфраструктуры, такой анонс открывает новые перспективы: архитектура чиплетов, поддержка памяти HBM и масштабируемость систем делают MTIA интересным объектом для анализа с точки зрения корпоративных закупок и построения высокопроизводительных вычислительных кластеров. Если вы подбираете комплектующие для апгрейда ЦОД или проектируете новую стойку под ИИ-нагрузки, технические детали новинок от Meta помогут сформировать требования к оборудованию и оценить вектор развития отрасли.
Эволюция архитектуры MTIA: от первого поколения к масштабируемым платформам
Первый ИИ-процессор Meta✴ — MTIA 100 — дебютировал в 2023 году с 128 ядрами RISC-V и 128 Мбайт SRAM. Уже в 2024-м вышло второе поколение, MTIA 200, с улучшенной производительностью. Новые модели 300–500 демонстрируют качественный скачок: упор сделан не только на рост вычислительной мощности, но и на пропускную способность памяти, энергоэффективность и гибкость развёртывания. Каждая модель заточена под конкретный сценарий: обучение моделей по методике Rephrase and Respond (R&R), инференс генеративных сервисов или универсальные ИИ-задачи. Важно отметить, что все ускорители используют модульную конструкцию на базе чиплетов — подход, который становится стандартом в сегменте высокопроизводительных вычислений. Для интеграции таких решений в существующую инфраструктуру критически важно сетевое оборудование с поддержкой низких задержек и высокой пропускной способности, поскольку обмен данными между чиплетами и узлами кластера напрямую влияет на итоговую производительность системы.
Сравнительная таблица технических характеристик MTIA 300–500
| Параметр | MTIA 300 | MTIA 400 | MTIA 450 | MTIA 500 |
|---|---|---|---|---|
| Назначение | Обучение (R&R) | Универсальные ИИ-задачи | Инференс генеративного ИИ | Инференс генеративного ИИ |
| Вычислительные чиплеты | 1 | 2 | 2 | 2×2 (4) |
| Память HBM | 216 Гбайт | 288 Гбайт | 288 Гбайт | 384–512 Гбайт |
| Пропускная способность HBM | 6,1 Тбайт/с | 9,2 Тбайт/с | 18,4 Тбайт/с | 27,6 Тбайт/с |
| Производительность FP8/МХ8 | 1,2 Пфлопс | 6 Пфлопс | 7 Пфлопс | 10 Пфлопс |
| Производительность МХ4 | — | — | 21 Пфлопс | 30 Пфлопс |
| TDP | 800 Вт | 1200 Вт | 1400 Вт | 1700 Вт |
| Статус внедрения | Используется в ЦОД Meta✴ | Завершено тестирование | План: начало 2027 | План: 2027 |
Данные таблицы наглядно демонстрируют прогресс в каждом поколении: рост объёма и пропускной способности памяти, увеличение вычислительной плотности и адаптация под специфические форматы точности (МХ4, МХ8). Для инженеров, проектирующих серверы под ИИ-инференс, ключевым параметром становится не только пиковая производительность, но и эффективность работы с разреженными матрицами — именно здесь модели 450 и 500 показывают наибольшее преимущество. При этом важно учитывать, что рост TDP требует продуманной системы охлаждения: от воздушной с поддержкой жидкостных контуров до полностью иммерсивных решений.
MTIA 300: специализированный ускоритель для обучения по методике R&R
MTIA 300 — первый из новой линейки, уже применяющийся в дата-центрах Meta✴. Его архитектура включает один вычислительный чиплет с матрицей процессорных элементов (PE), каждый из которых содержит два векторных ядра RISC-V. Два сетевых чиплета (NIC) обеспечивают высокоскоростной обмен данными между узлами, что критично для распределённого обучения. Объём памяти HBM в 216 Гбайт с пропускной способностью 6,1 Тбайт/с позволяет эффективно работать с большими контекстными окнами и сложными графами вычислений. Заявленная производительность 1,2 Пфлопс в режимах FP8/МХ8 достаточна для задач рефакторинга и дообучения моделей по принципу Rephrase and Respond — методике, при которой ИИ переформулирует запрос для повышения точности ответа. Для корпоративных заказчиков, рассматривающих аналогичные сценарии, важно обратить внимание на совместимость с существующей инфраструктурой: при интеграции таких ускорителей в стойки требуется не только мощное электропитание, но и надёжные системы хранения для быстрого доступа к обучающим датасетам. Движок DMA, реализованный в MTIA 300, минимизирует задержки при работе с локальной памятью, что повышает общую эффективность конвейера данных.
MTIA 400: универсальная платформа для масштабируемых ИИ-кластеров
Решение общего назначения MTIA 400 объединяет два вычислительных чиплета и 288 Гбайт памяти HBM с пропускной способностью 9,2 Тбайт/с. Производительность до 6 Пфлопс (FP8/МХ8) и TDP 1200 Вт делают его подходящим для широкого спектра задач — от классического машинного обучения до инференса средних моделей. Ключевая особенность — возможность объединения 72 ускорителей в единую стойку через коммутируемую объединительную плату, формируя масштабируемый вычислительный домен. Такая архитектура позволяет линейно наращивать мощность кластера без кардинальной перестройки сетевой топологии. Для развёртывания подобных систем оптимально подходят rack-серверы с поддержкой высокоплотной компоновки и продвинутых схем охлаждения. Meta✴ использует как гибридные решения (жидкостное охлаждение с воздушной поддержкой), так и полностью жидкостные контуры — выбор зависит от теплового профиля ЦОД и доступной инфраструктуры. На сегодняшний день компания завершила тестирование MTIA 400 и перешла к этапу промышленного внедрения, что подтверждает зрелость платформы для корпоративного использования.
MTIA 450 и 500: фокус на инференс генеративного ИИ с экстремальной пропускной способностью
Модели 450 и 500 представляют собой флагманские решения для инференса генеративных моделей — сценария, где критичны не только вычисления, но и скорость подачи данных. Обе используют 288 Гбайт (450) и до 512 Гбайт (500) памяти HBM, но главное отличие — в пропускной способности: 18,4 Тбайт/с и 27,6 Тбайт/с соответственно. Это позволяет эффективно обрабатывать запросы с длинным контекстом и сложной структурой, характерные для современных LLM и мультимодальных систем. Производительность в режиме МХ4 достигает 21 Пфлопс (450) и 30 Пфлопс (500), что особенно важно для задач, где допустимо использование сверхнизкой точности без потери качества результата. Ускорители поддерживают смешанные вычисления с автоматическим приведением форматов — функция, снижающая нагрузку на ПО и упрощающая портирование моделей. Конфигурация чиплетов 2×2 в MTIA 500 обеспечивает высокую параллельность, а два сетевых чиплета минимизируют задержки при межузловом обмене. Внедрение этих решений в ЦОД Meta✴ запланировано на 2027 год, что даёт время для подготовки инфраструктуры: при планировании апгрейда стоит заранее оценить совместимость стоек, систем питания и охлаждения. Для сравнения: если в вашем ЦОД используются классические tower-серверы, переход на высокоплотные ИИ-платформы потребует существенной модернизации — как физической, так и логической.
Единая инфраструктура и стратегия бесшовного апгрейда
Meta✴ реализовала важный инженерный принцип: MTIA 400, 450 и 500 используют идентичное шасси, стойку и сетевую инфраструктуру. Это означает, что при переходе на следующее поколение не требуется замена всего «железа» — достаточно заменить вычислительные модули. Такой подход снижает CAPEX и ускоряет внедрение инноваций. Для корпоративных заказчиков это сигнал: при проектировании новых ЦОД стоит закладывать модульную архитектуру с возможностью поэтапной замены ускорителей. Кроме того, единая сетевая топология упрощает управление кластером и мониторинг производительности. При выборе оборудования для подобных задач рекомендуем обращаться к профильным специалистам — например, через контакты нашего магазина, чтобы получить консультацию по совместимости компонентов и оптимальным конфигурациям под конкретные ИИ-сценарии.
Чем отличаются модели MTIA 300, 400, 450 и 500?
MTIA 300 ориентирован на обучение по методике R&R с производительностью 1,2 Пфлопс (FP8). MTIA 400 — универсальное решение на 6 Пфлопс для широкого спектра задач. MTIA 450 и 500 сфокусированы на инференсе генеративного ИИ: 7 и 10 Пфлопс (FP8) соответственно, с поддержкой сверхнизкой точности МХ4 (до 30 Пфлопс). Рост производительности сопровождается увеличением объёма и пропускной способности памяти HBM, а также TDP — от 800 Вт у 300-й модели до 1700 Вт у 500-й.
Поддерживают ли ускорители MTIA смешанные форматы точности?
Да, начиная с MTIA 450 реализована аппаратная поддержка смешанных вычислений с низкой точностью (МХ4, МХ8) без необходимости программного преобразования данных. Это позволяет ускорить инференс генеративных моделей, сохраняя приемлемое качество результата, и снижает нагрузку на подсистему памяти за счёт уменьшения объёма передаваемых данных.
Можно ли интегрировать ускорители MTIA в существующие серверные стойки?
MTIA 400/450/500 используют единое шасси и сетевую инфраструктуру, что упрощает модернизацию. Однако из-за высокого TDP (до 1700 Вт) и требований к охлаждению необходима предварительная оценка ЦОД: поддержка жидкостного охлаждения, достаточная мощность электроснабжения и совместимость с коммутационным оборудованием. Для классических стоек может потребоваться адаптация или переход на специализированные платформы высокой плотности.
Когда начнётся массовое внедрение новых ускорителей?
MTIA 300 уже используется в дата-центрах Meta✴. MTIA 400 завершил тестирование и находится на этапе внедрения. Модели 450 и 500 запланированы к развёртыванию в 2027 году. Для сторонних заказчиков доступность будет зависеть от стратегии лицензирования и партнёрских программ Meta✴ — на текущий момент ускорители не предлагаются как отдельные коммерческие продукты.
Как оценить совместимость ИИ-ускорителей с вашей инфраструктурой
- Определите целевые ИИ-задачи: обучение, инференс, генеративные сервисы — от этого зависит выбор модели (300, 400, 450 или 500).
- Рассчитайте требования к памяти: объём и пропускная способность HBM напрямую влияют на производительность при работе с большими моделями.
- Оцените энергопотребление и охлаждение: TDP от 800 до 1700 Вт требует соответствующей инфраструктуры питания и теплоотвода.
- Проверьте сетевую готовность: высокоскоростные межчиплетные соединения и низкие задержки критичны для масштабируемых кластеров.
- Сопоставьте с существующим оборудованием: при использовании классических серверов может потребоваться переход на высокоплотные платформы или модульные шасси.
- Запланируйте поэтапную модернизацию: единая инфраструктура для 400/450/500 позволяет заменять ускорители без полной замены стоек.
Анонс новых ИИ-ускорителей Meta✴ MTIA 300–500 подчёркивает тренд на специализацию аппаратных платформ под конкретные сценарии искусственного интеллекта. Для корпоративного сектора это означает необходимость более тонкой настройки инфраструктуры: универсальные решения уступают место оптимизированным под инференс, обучение или генеративные задачи. При этом модульная архитектура и единая платформа для нескольких поколений снижают барьеры для внедрения инноваций. Если вы планируете модернизацию ЦОД или подбор оборудования под новые ИИ-нагрузки, рекомендуем начать с аудита текущей инфраструктуры и чёткого определения требований к производительности, памяти и охлаждению. Наши эксперты готовы помочь с подбором совместимых компонентов и конфигураций — обращайтесь за консультацией, чтобы сделать следующий шаг в развитии вашей вычислительной платформы.
Поделиться статьёй:
Об авторе

Серверное оборудование · Практик-универсал
Инженер по серверному оборудованию, 8 лет в профессии. Настраивал и чинил серверы Dell, HP и Huawei — от небольших офисов до нагруженных дата-центров. Пишет гайды, которые сам хотел бы прочитать, когда начинал.
Все статьи автора →Похожие материалы

Американцы создали память, способную работать при 700 °C — для Венеры, реакторов и ИИ
Мемристоры для работы при 700 °C: как новая высокотемпературная память изменит ИИ-вычисления, космические миссии и серверные решения в экстремальных условиях.

Gigabyte X870E Aero X3D Dark Wood: материнская плата премиум-класса с отделкой под тёмное дерево для платформы AM5
Материнская плата Gigabyte X870E Aero X3D Dark Wood для AM5: VRM 20-фаз, DDR5-9000, PCIe 5.0, USB4, Wi-Fi 7. Детальный обзор и рекомендации по сборке.

Nvidia RTX PRO 4500 Blackwell Server Edition: однослотовый серверный GPU с 32 ГБ GDDR7 для ИИ-ускорения
Однослотовый серверный GPU Nvidia RTX PRO 4500 Blackwell SE с 32 ГБ GDDR7 и TDP 165 Вт для ускорения ИИ-инференса, аналитики и видеообработки в дата-центрах.