Panmnesia представила чип-коммутатор Panswitch с поддержкой PCIe 6.4 и CXL 3.2 — новый этап в архитектуре ИИ-инфраструктуры

Южнокорейский стартап Panmnesia совершил технологический прорыв, представив первый в мире чип-коммутатор Panswitch (модель H1SW06245ACFAA), полностью соответствующий спецификации Compute Express Link (CXL) 3.2. Это решение ориентировано на масштабные вычислительные платформы, особенно в сфере искусственного интеллекта и высокопроизводительных вычислений (HPC). Одновременно с чипом компания анонсировала плату для разработчиков PanRDK, предназначенную для тестирования и интеграции новой технологии в реальных условиях.
Что такое Panswitch и почему он важен для ИИ-инфраструктуры?
Panswitch — это не просто сетевой коммутатор, а высокоинтеллектуальный чип-коммутатор, предназначенный для объединения тысяч устройств в единую вычислительную среду через протокол CXL. В отличие от традиционных решений, основанных на PCIe или Ethernet, Panswitch использует функции CXL 3.2, такие как Port-based Routing (PBR), что позволяет гибко управлять маршрутами передачи данных и значительно снижать задержки.
В основе Panswitch лежит проприетарный контроллер CXL, разработанный Panmnesia. Он обеспечивает сверхнизкую задержку и высокую пропускную способность, что критически важно при работе с большими моделями машинного обучения, где даже микросекунды могут влиять на общую производительность системы.
Ключевая особенность Panswitch — поддержка интерфейса PCIe 6.4, который обеспечивает скорость до 256 ГБ/с на канал. Это делает его совместимым с новейшими процессорами, GPU и системами хранения, ориентированными на задачи ИИ.
Поддержка CXL 3.2: что даёт Port-based Routing?
Спецификация CXL 3.2 ввела ряд важных обновлений, среди которых наиболее значимым является Port-based Routing (PBR). Эта функция позволяет маршрутизировать пакеты не только по адресу устройства, но и по физическому порту, к которому оно подключено. Это открывает новые возможности для построения сложных топологий сети:
- Древовидные (tree) — простые иерархические структуры;
- Ячеистые (mesh) — обеспечивают множественные пути между узлами, повышая отказоустойчивость;
- Dragonfly — оптимизированная для масштабируемых систем с минимальным диаметром сети;
- Тороидальные и другие гибридные конфигурации.
Такая гибкость особенно важна в ИИ-центрах обработки данных, где рабочие нагрузки постоянно меняются, и требуется динамическая адаптация топологии под текущие задачи. Например, при обучении больших языковых моделей (LLM) может быть эффективна mesh-топология, тогда как для инференса — древовидная.
Плата для разработчиков PanRDK: тестирование без компромиссов
Чтобы ускорить внедрение технологии, Panmnesia выпустила плату для разработчиков PanRDK. Она оснащена FPGA, что позволяет эмулировать различные типы устройств CXL:
- CXL CPU — для проверки взаимодействия с центральными процессорами;
- CXL GPU — для тестирования графических ускорителей;
- Пулы памяти CXL — для создания распределённой памяти с низкой задержкой.
Плата поддерживает слоты MCIO и CEM, что позволяет собирать полноценные CXL-системы. Более того, PanRDK совместима не только с продуктами Panmnesia, но и с оборудованием сторонних производителей, соответствующих стандарту CXL. Это делает её универсальным инструментом для OEM-производителей, системных интеграторов и исследовательских лабораторий.
Как Panswitch влияет на экосистему ИИ-оборудования?
Ранее масштабирование ИИ-инфраструктуры сталкивалось с «узким горлышком» — ограничениями межсоединений между GPU, CPU и памятью. Традиционные решения на базе NVLink, InfiniBand или даже PCIe не всегда обеспечивали необходимую гибкость и масштабируемость. CXL 3.2, реализованный в Panswitch, предлагает принципиально новую модель: память и вычисления становятся ресурсами, которые можно динамически распределять по всей системе.
Это особенно актуально для следующих сценариев:
- Обучение LLM — требует огромных объёмов памяти и быстрого обмена данными между узлами;
- Инференс в реальном времени — зависит от минимальной задержки и предсказуемости;
- Гибридные облачные платформы — где ресурсы должны быть легко перераспределяемыми между клиентами.
Таким образом, Panswitch становится не просто компонентом, а ключевым элементом новой архитектуры ИИ-дата-центров.
Совместимость с существующей ИТ-инфраструктурой
Одно из главных преимуществ Panswitch — его обратная совместимость. Чип поддерживает все предыдущие версии CXL (1.0, 2.0, 3.0, 3.1), а также работает с PCIe 5.0 и 6.0. Это означает, что компании могут постепенно модернизировать свои системы, не заменяя всё оборудование сразу.
Кроме того, благодаря открытой архитектуре PanRDK, разработчики могут интегрировать Panswitch в уже существующие серверные платформы, включая решения от Dell, HPE, Lenovo и других вендоров. Это особенно важно для предприятий, инвестирующих в долгосрочные ИТ-стратегии.
Когда ждать массовое внедрение?
По данным Panmnesia, поставки чипов Panswitch и пилотных систем уже начались. Первые клиенты — крупные облачные провайдеры и исследовательские центры в Южной Корее, США и Европе. Ожидается, что к концу 2026 года Panswitch будет доступен в составе коммерческих серверов и систем хранения.
Учитывая темпы развития ИИ и рост спроса на вычислительные мощности, можно прогнозировать, что CXL 3.2 и решения на его основе станут стандартом де-факто для новых дата-центров уже в ближайшие 2–3 года.
Как выбрать оборудование для CXL-совместимой ИИ-инфраструктуры?
Если вы планируете модернизировать ИТ-инфраструктуру под будущие требования ИИ, стоит обратить внимание на следующие категории оборудования:
- Серверы — особенно модели, поддерживающие PCIe 5.0/6.0 и CXL;
- Стойковые серверы — оптимальны для масштабируемых ИИ-кластеров;
- Башенные серверы — подходят для локальных ИИ-лабораторий и edge-вычислений;
- Системы хранения — с поддержкой NVMe и CXL-пулов памяти;
- Сетевое оборудование — для построения гибридных сетей с низкой задержкой;
- Комплектующие — включая модули памяти, SSD, блоки питания и шасси, совместимые с новыми стандартами.
Все эти категории представлены в каталоге DellShop.ru, где можно подобрать оборудование, готовое к интеграции с такими инновациями, как Panswitch.
FAQ: Ответы на ключевые вопросы о Panswitch и CXL 3.2
Чем CXL 3.2 отличается от предыдущих версий?
CXL 3.2 вводит Port-based Routing (PBR), что позволяет маршрутизировать трафик по физическим портам, а не только по логическим адресам. Это критически важно для построения сложных топологий (mesh, Dragonfly) и масштабирования до тысяч устройств в единой сети.
Можно ли использовать Panswitch с существующими серверами?
Да, при условии, что сервер поддерживает PCIe 5.0/6.0 и имеет слоты, совместимые с CXL. Многие современные серверы Dell PowerEdge уже имеют такую поддержку. Для точной совместимости рекомендуется проконсультироваться со специалистами технической поддержки DellShop.ru.
Что такое PanRDK и зачем она нужна?
PanRDK — это плата для разработчиков на базе FPGA, которая эмулирует различные CXL-устройства (CPU, GPU, память). Она позволяет тестировать Panswitch в реальных сценариях и ускоряет интеграцию технологии в коммерческие продукты.
Когда появятся серверы с поддержкой CXL 3.2 в продаже?
Первые пилотные системы уже поставляются. Массовые поставки ожидаются в 2026–2027 годах. Однако уже сейчас можно закладывать архитектуру, совместимую с CXL, выбирая серверы и комплектующие с поддержкой PCIe 6.0 и расширяемыми слотами.
Сравнение возможностей Panswitch и традиционных решений
| Параметр | Panswitch (CXL 3.2) | NVLink | InfiniBand | PCIe 5.0 |
|---|---|---|---|---|
| Макс. скорость на канал | 256 ГБ/с (PCIe 6.4) | ~300 ГБ/с (NVLink 4.0) | ~400 ГБ/с (NDR) | 128 ГБ/с |
| Поддержка памяти | Да (coherent memory sharing) | Ограничена (GPU-to-GPU) | Нет | Нет |
| Масштабируемость | Тысячи устройств | До 8–16 GPU | Высокая, но без памяти | Ограничена топологией |
| Задержка | Сверхнизкая (проприетарный контроллер) | Очень низкая | Низкая | Средняя |
| Гибкость топологии | Mesh, Dragonfly, Tree и др. | Фиксированная | Гибкая, но без памяти | Ограниченная |
Как подготовиться к переходу на CXL-архитектуру?
Для ИТ-директоров и системных архитекторов рекомендуется следующий план действий:
Пошаговый план подготовки к CXL-инфраструктуре
- Проведите аудит текущей ИИ-инфраструктуры: определите «узкие места» в межсоединениях и памяти.
- Выберите серверные платформы с поддержкой PCIe 6.0 и расширяемыми слотами CXL (например, из раздела стойковые серверы).
- Инвестируйте в модульную память и SSD с поддержкой CXL (раздел комплектующие).
- Настройте тестовую среду с использованием FPGA или плат типа PanRDK (если доступны).
- Сотрудничайте с поставщиками, которые активно участвуют в экосистеме CXL (например, Dell через DellShop.ru).
- Обучите ИТ-персонал основам CXL-архитектуры и управлению распределённой памятью.
Поделиться статьёй:
Об авторе

Максим Ковалёв
Железо и характеристики / Режет маркетинговую лапшу
Эксперт по серверам, 10+ лет с железом Dell, HPE, Supermicro. Разбирает характеристики на «реально важно» и «маркетинг для прайса». Объясняет так, чтобы не пришлось гуглить каждое второе слово.
Насмотрелся на «мощные серверы», которые не тянут даже нормальную виртуализацию. Больше 10 лет работает с серверным железом: Dell, HPE, Supermicro — рейды, контроллеры, память, апгрейды и вечное «почему оно тормозит». В гайдах объясняет без занудства и птичьего языка: какой сервер реально нужен под 1С, базы или виртуалки, что в характеристиках важно, а что — маркетинг ради красивых цифр в прайсе. Пишет так, как объяснил бы коллеге в серверной: коротко, по делу и с примерами из практики.
Похожие материалы

DeepX представила ИИ-ускорители DX-H1 V-NPU, DX-H1 Quattro и DX-M1 М.2
DeepX представила ИИ-ускорители DX-H1 и DX-M1 с до 100 TOPS и энергопотреблением от 5 Вт — решение для видеопроцессинга и edge-вычислений.

Nvidia Context Memory Storage Platform — новая архитектура хранения данных для масштабного ИИ-вывода
Nvidia Context Memory Storage Platform — новая архитектура хранения для масштабного ИИ-вывода с пятикратным ростом производительности и энергоэффективности.

AMD Instinct MI400 и AMD Helios на CES 2026: стоечная архитектура и ИИ-ускорители нового поколения
AMD Instinct MI400 и Helios на CES 2026: обзор новых ИИ-ускорителей, стоечной архитектуры и их применения в корпоративных и HPC-средах.