AMD Instinct MI400: CDNA 5, 432 GB HBM4 и семейство MI430X/MI440X/MI455X
AMD раскрыла полный состав семейства Instinct MI400 на CES. Вместо одной флагманской SKU, как было с MI300X и MI350X, теперь три варианта под разные сценарии: MI455X, MI440X и MI430X. Разбираем, что именно AMD готовит против NVIDIA Vera Rubin.
CDNA 5 и общие характеристики
Все три чипа построены на архитектуре CDNA 5 и производятся по 2-нанометровому техпроцессу TSMC с упаковкой CoWoS-L. Ключевые цифры по флагману MI455X: до 432 GB HBM4 на ускоритель, пропускная способность памяти 19.6 TB/s (против ~8 TB/s у MI350X), до 40 PFLOPs FP4 и 20 PFLOPs FP8 — примерно двукратный прирост по сравнению с прошлым поколением. Scale-out bandwidth — 300 GB/s на GPU.
AMD прямо сравнивает это с NVIDIA Vera Rubin: сопоставимые вычисления и bandwidth памяти, но в 1.5 раза больше ёмкость HBM и scale-out throughput. Запуск серии — 2026, MI500 заявлен на 2027, то есть AMD подтверждает ежегодный цикл обновления.
MI455X, MI440X, MI430X: разделение ролей
MI455X — флагман под large-scale training и inference. Оптимизирован под низкую точность: FP4, FP8, BF16. Это чип для гиперскейлеров и крупных AI-кластеров, где каждый токен в секунду считается.
MI440X — корпоративная версия. Тоже заточена под low-precision AI-нагрузки, но живёт в стандартном rack-сервере с одним EPYC Venice и восемью MI440X на узел. AMD позиционирует это как drop-in решение для существующих дата-центров: без переделки питания и охлаждения, под training, fine-tuning и inference on-premise.
MI430X — для HPC и sovereign AI. Главное отличие — полноценная поддержка FP32 и FP64 на hardware level. Это чип для традиционных суперкомпьютерных задач (симуляции, моделирование) и национальных AI-инициатив. Идёт в паре с EPYC Venice-X — версией с увеличенным кэшем и лучшей однопоточной производительностью.
Логика разделения прозрачная: убрать из training-чипа лишнюю FP64-логику и не тащить в HPC-чип всю низкоточную матричную математику. Меньше транзисторов на ненужное — лучше энергоэффективность и стоимость силикона.
Helios: rack-scale решение
Helios — первая стоечная платформа AMD класса NVIDIA NVL72. В стойке: 72 ускорителя MI455X, 31 TB HBM4 суммарно, 1.4 PB/s агрегированной bandwidth памяти. Производительность — 2.9 FP4 ExaFLOPS на inference и 1.4 FP8 ExaFLOPS на training. CPU-ядро — EPYC Venice на Zen 6.
Требования к питанию и охлаждению серьёзные — Helios рассчитан на современные AI ЦОДы с жидкостным охлаждением и достаточной электрической мощностью. Это не то, что ставят в существующий зал без реконструкции.
Что это значит
MI400 — первый раз, когда AMD идёт в AI-сегмент не одним чипом, а линейкой. Это ответ на то, что рынок разделился: гиперскейлерам нужен максимум FP4/FP8 в стойке, корпорациям — совместимость с текущей инфраструктурой, научным центрам — FP64. Цифры MI455X по памяти и bandwidth выглядят сильно на бумаге, но реальное сравнение с Rubin будет зависеть от зрелости ROCm и готовности фреймворков — как и прошлые поколения Instinct.