Lenovo представила серверы для ИИ-инференса: ThinkSystem SR675i V3, SR650i V4 и ThinkEdge SE455i V4

Компания Lenovo официально анонсировала новую линейку серверов в рамках стратегии Hybrid AI Advantage, ориентированную на растущий спрос бизнеса на решения для ИИ-инференса. Если ранее рынок был сфокусирован преимущественно на системах для обучения (training) гигантских моделей, то сегодня всё больше организаций нуждаются в инфраструктуре для эффективного вывода (inference) — запуска уже обученных моделей в реальных сценариях: от обработки клиентских запросов до анализа видеопотоков в промышленности. Новые платформы — ThinkSystem SR675i V3, ThinkSystem SR650i V4 и ThinkEdge SE455i V4 — призваны закрыть этот запрос на всех уровнях: от центров обработки данных (ЦОД) до периферийных точек.
Почему именно сейчас важен ИИ-инференс?
Согласно отраслевым исследованиям, к 2026 году более 70 % вычислительных ресурсов, связанных с искусственным интеллектом, будут направлены именно на задачи инференса, а не обучения. Это связано с тем, что:
- Обучение моделей — разовый или периодический процесс, тогда как инференс происходит постоянно;
- Бизнес стремится внедрять ИИ в повседневные операции: чат-боты, рекомендательные системы, предиктивное обслуживание, распознавание лиц и объектов;
- Эффективность инференса напрямую влияет на пользовательский опыт, задержки ответа и стоимость владения ИИ-решением.
Lenovo предлагает не просто «железо», а комплексный подход: готовые конфигурации, оптимизированное ПО и сервисы поддержки. Это особенно важно для компаний, которые хотят быстро развернуть ИИ без глубокой экспертизы в инфраструктуре.
Флагман для ЦОД: ThinkSystem SR675i V3
Модель ThinkSystem SR675i V3 представляет собой 3U-сервер, построенный на базе новейших процессоров AMD EPYC Turin 9535 (64 ядер / 128 потоков, 2,4 ГГц, TDP 300 Вт). Эта система — настоящий «монстр» производительности, предназначенный для масштабных задач инференса в условиях высокой плотности вычислений.
Ключевые характеристики:
- Память: до 1,5 Тбайт DDR5-6400 (24 слота × 64 Гбайт);
- Хранение: до 2× E3.S NVMe SSD по 3,84 Тбайт (PCIe 5.0 x4) + до 2× M.2 NVMe SSD по 960 Гбайт (PCIe 4.0 x4);
- Ускорители: до 8× NVIDIA RTX PRO 6000 Blackwell Server Edition — одни из самых мощных GPU для ИИ-инференса;
- DPU: до 5× NVIDIA BlueField-3 (4× 400G + 1× 200G) для ускорения сетевых и безопасностных задач;
- Расширение: 6 слотов PCIe 5.0 x16 + 1 слот OCP 3.0;
- Питание: 4 блока Titanium второго поколения по 2300 Вт;
- Охлаждение: 5 горячезаменяемых вентиляторов;
- IPMI: отсутствует — управление осуществляется через другие средства.
Эта конфигурация идеально подходит для крупных ЦОД, где требуется максимальная плотность ИИ-вычислений на один юнит стойки. Система поддерживает подписку TruScale, что позволяет оплачивать только реально используемые ресурсы.
Универсальный сервер для корпоративных нагрузок: ThinkSystem SR650i V4
Если SR675i V3 — это «тяжелая артиллерия», то ThinkSystem SR650i V4 — это сбалансированное решение для средних и крупных предприятий. Это 2U-сервер на базе двух процессоров Intel Xeon Granite Rapids-SP 6530P (32C/64T, 2,3 ГГц, TDP 225 Вт), сочетающий высокую ИИ-производительность с поддержкой традиционных корпоративных рабочих нагрузок.
Основные параметры:
- Память: 512 Гбайт DDR5-6400 (8× 64 Гбайт);
- Хранение: 2× U.2 NVMe SSD по 3,84 Тбайт (PCIe 5.0 x4) из возможных 8 слотов + RAID1 из 2× M.2 SATA SSD по 960 Гбайт;
- Ускорители: 2× NVIDIA RTX PRO 6000 Blackwell Server Edition;
- Сеть: встроенный двухпортовый адаптер Broadcom 57414 (25GbE SFP28);
- Расширение: 6 слотов PCIe 5.0 x16 + 2 слота OCP 3.0;
- Питание: 2 блока Titanium по 2700 Вт;
- Охлаждение: 6 вентиляторов или опциональная система жидкостного охлаждения Neptune.
SR650i V4 — отличный выбор для компаний, которые хотят запускать ИИ-модели параллельно с базами данных, ERP-системами и виртуализацией. Возможность установки СЖО делает его привлекательным для ЦОД с ограниченной вентиляцией.
Периферийный ИИ: ThinkEdge SE455i V4
Для задач на «краю сети» (edge computing) Lenovo предлагает компактный, но мощный сервер ThinkEdge SE455i V4 (2U, глубина всего 440 мм). Он предназначен для использования в ретейле, телекоммуникациях, производстве и других отраслях, где данные генерируются вне ЦОД.
Особенности модели:
- Процессор: AMD EPYC Embedded 8534P (64C/128T, 2,3 ГГц, TDP 200 Вт);
- Память: 576 Гбайт DDR5-4800 (6× 96 Гбайт);
- Ускорители: 2× NVIDIA L4 24 Гбайт (PCIe 4.0 x16) — энергоэффективные GPU для инференса;
- Хранение: 1× NVMe SSD 3,84 Тбайт + 1× SATA SSD 960 Гбайт;
- Сеть: двухпортовый OCP-адаптер Broadcom 57416 (10GbE);
- Расширение: до 2× PCIe 5.0 x16 + до 4× PCIe 4.0 x8 + 1× OCP 3.0;
- Питание: 2 блока Platinum второго поколения с горячей заменой;
- Условия эксплуатации: работает при температурах от -5 до +40 °C, защищённая конструкция;
- IPMI: отключён.
SE455i V4 — это решение для тех, кто хочет обрабатывать данные локально, минимизируя задержки и зависимость от облака. Например, в магазине можно анализировать видеопоток в реальном времени для управления очередями, а на заводе — контролировать качество продукции с помощью компьютерного зрения.
Готовые конфигурации и подписка TruScale
Важно отметить, что Lenovo предлагает эти серверы в виде предварительно сконфигурированных решений. Пользователь может внести лишь незначительные изменения — например, добавить накопители или сетевые карты. Это ускоряет развёртывание и гарантирует совместимость всех компонентов.
Кроме того, оборудование доступно по подписке TruScale — модели «Infrastructure-as-a-Service». Это снижает капитальные затраты и позволяет масштабировать ресурсы по мере роста бизнеса.
Сервисы Hybrid AI Factory Services
Lenovo дополняет аппаратные решения новыми сервисами Hybrid AI Factory Services, включающими:
- Консультации по выбору оборудования для инференса;
- Помощь в развёртывании и настройке ИИ-инфраструктуры;
- Оптимизацию производительности моделей;
- Поддержку на всех этапах жизненного цикла.
Это особенно ценно для компаний без собственной команды ИИ-инженеров. Сервисы позволяют сосредоточиться на бизнес-задачах, а не на технических деталях.
Как выбрать подходящий сервер?
| Модель | Сценарий использования | Процессор | GPU | Форм-фактор |
|---|---|---|---|---|
| ThinkSystem SR675i V3 | Масштабный ИИ-инференс в ЦОД | AMD EPYC Turin 9535 | до 8× RTX PRO 6000 Blackwell | 3U |
| ThinkSystem SR650i V4 | ИИ + корпоративные нагрузки | 2× Intel Xeon Granite Rapids | 2× RTX PRO 6000 Blackwell | 2U |
| ThinkEdge SE455i V4 | Периферийный инференс (edge) | AMD EPYC Embedded 8534P | 2× NVIDIA L4 | 2U, глубина 440 мм |
Часто задаваемые вопросы
Чем ИИ-инференс отличается от обучения?
Обучение (training) — это процесс, в ходе которого модель «учится» на больших наборах данных. Инференс (inference) — это использование уже обученной модели для получения ответов на новые запросы. Инференс требует меньше вычислительных ресурсов, но должен быть быстрым, надёжным и энергоэффективным.
Можно ли использовать эти серверы для обучения моделей?
Технически — да, особенно SR675i V3 с 8 GPU. Однако они оптимизированы именно под инференс: память, сеть и ПО настроены на низкие задержки и высокую пропускную способность при выводе. Для массового обучения лучше подходят специализированные системы с ещё большей плотностью GPU.
Что такое TruScale и как это работает?
TruScale — это подписка на ИТ-инфраструктуру от Lenovo. Вы платите только за реально используемые ресурсы (CPU, GPU, память), а оборудование остаётся в собственности Lenovo. Это снижает CapEx, упрощает масштабирование и включает техническую поддержку.
Где можно приобрести эти серверы в России?
Актуальные аналоги и совместимые компоненты для построения ИИ-инфраструктуры доступны в каталоге серверов, стойковых систем и башенных серверов. Также рекомендуем ознакомиться с разделами комплектующих и систем хранения данных. По всем вопросам можно обратиться в службу поддержки.
Пошаговая инструкция: как начать работу с ИИ-инференсом
Развёртывание ИИ-инфраструктуры для инференса
- Определите бизнес-задачу: что должна делать ваша ИИ-модель (например, классификация изображений, генерация текста)?
- Выберите тип развёртывания: в ЦОД, в облаке или на периферии (edge).
- Подберите сервер в зависимости от нагрузки: для edge — ThinkEdge SE455i V4, для ЦОД — SR675i V3 или SR650i V4.
- Оцените требования к памяти, хранилищу и сети. Учитывайте будущий рост.
- Рассмотрите подписку TruScale для снижения первоначальных затрат.
- Подключите сервисы Hybrid AI Factory для ускорения внедрения.
- Протестируйте модель на выбранной платформе и оптимизируйте её под оборудование.
- Запустите пилотный проект и масштабируйте решение на всю организацию.
Поделиться статьёй:
Об авторе

Кирилл Волков
Серверное оборудование / Практик-универсал
Инженер по серверному оборудованию, 8 лет в профессии. Настраивал и чинил серверы Dell, HP и Huawei — от небольших офисов до нагруженных дата-центров. Пишет гайды, которые сам хотел бы прочитать, когда начинал.
Первый сервер разобрал в 2016 году — и с тех пор не остановился. За 8 лет прошёл путь от помощника сисадмина до инженера, который проектирует серверные решения для компаний. Работал с оборудованием Dell, HP, Huawei. Поднимал инфраструктуру для интернет-магазинов, настраивал кластеры для 1С, восстанавливал данные после аварий. Видел серверы в идеальных стойках дата-центров и в подвалах с протекающими трубами. В гайдах делюсь тем, что знаю сам: как выбрать сервер и не переплатить, когда б/у выгоднее нового, какие ошибки совершают при первой покупке. Без воды и маркетинговых лозунгов — только то, что реально пригодится в работе.
Похожие материалы

Panmnesia представила чип-коммутатор Panswitch с поддержкой PCIe 6.4 и CXL 3.2 — новый этап в архитектуре ИИ-инфраструктуры
Panmnesia представила Panswitch — первый чип-коммутатор с поддержкой PCIe 6.4 и CXL 3.2 для масштабируемых ИИ-систем. Узнайте, как он меняет архитектуру дата-центров.

DeepX представила ИИ-ускорители DX-H1 V-NPU, DX-H1 Quattro и DX-M1 М.2
DeepX представила ИИ-ускорители DX-H1 и DX-M1 с до 100 TOPS и энергопотреблением от 5 Вт — решение для видеопроцессинга и edge-вычислений.

Nvidia Context Memory Storage Platform — новая архитектура хранения данных для масштабного ИИ-вывода
Nvidia Context Memory Storage Platform — новая архитектура хранения для масштабного ИИ-вывода с пятикратным ростом производительности и энергоэффективности.