Архив
Всего публикаций: 51
2026
- ASUS XA NR1I-E12L: серверы на HGX Rubin NVL8 с жидкостным охлаждением
ASUS представила два сервера на NVIDIA HGX Rubin NVL8 с 8 GPU, NVLink 6 и пропускной способностью 800G на GPU — с гибридным и полным жидкостным охлаждением.
- AWS и Cerebras CS-3: wafer-scale чипы для inference disaggregation в облаке
AWS разворачивает Cerebras CS-3 (WSE-3, 900K ядер, 44 ГБ SRAM, 27 ПБ/с) в своих ЦОД. Trainium3 берёт prefill, CS-3 — decode через EFA. Заявлен 5x рост throughput. Сервис в Amazon Bedrock во 2H 2026.
- CoreWeave добавляет NVIDIA Vera Rubin NVL72 и запускает Mission Control
CoreWeave объявила о развёртывании Vera Rubin NVL72 во второй половине 2026 года, запустила HGX B300 и представила Mission Control с интеграцией NVIDIA RAS Engine.
- Dell PowerEdge R770 и R771x с RTX PRO 4500 Blackwell доступны глобально
Dell вывела на рынок три сервера PowerEdge с GPU NVIDIA RTX PRO 4500 Blackwell Server Edition для enterprise AI-инференса в рамках обновлённой AI Factory.
- Google Cloud A5X: bare metal на Vera Rubin NVL72 до 960 000 GPU
Google анонсировал A5X bare metal инстансы на NVIDIA Vera Rubin NVL72 с ConnectX-9 и фабрикой Virgo — кластеры до 960 000 GPU и 10x снижение стоимости инференса.
- Lambda запускает Bare Metal Instances на Vera Rubin NVL72 Superclusters
Lambda выводит bare metal как отдельный cloud-продукт: прямой доступ к железу без гипервизора, кластеры GB300 NVL72 уже доступны, Vera Rubin NVL72 — во второй половине 2026.
- Lenovo ThinkSystem SR680a V4: флагманский AI-сервер с HGX B300 и Neptune cooling
Lenovo выпустила SR680a V4 — 8U сервер под NVIDIA HGX B300 с 2.3 TB HBM3e, Intel Xeon 6, Neptune liquid cooling (PUE 1.1) и N+N power redundancy для on-premise LLM.
- LG удваивает мощность CDU до 1,4 МВт и показывает иммерсионное охлаждение
На Data Center World 2026 LG представила CDU с инвертерными насосами на 1,4 МВт и иммерсионные баки совместно с GRC и SK Enmove. Разбираем, что это значит для GPU-стоек с плотностью >100 кВт.
- Maincode MC-2: суверенный AI-завод на AMD MI355X за $30M в Мельбурне
Австралийский стартап Maincode открыл AI-фабрику MC-2 в ЦОД Telstra (Clayton). AMD Instinct MI355X (288 ГБ HBM3E, 8 ТБ/с), EPYC 9575F, ROCm — on-prem bare metal без NVIDIA. Цель — суверенная разработка LLM для австралийских предприятий.
- MSI выходит на рынок AI-серверов с MGX и воркстейшеном WS300 на GTC 2026
MSI анонсировала линейку 4U и 6U серверов на NVIDIA MGX под RTX PRO 6000/4500 Blackwell и воркстейшен XpertStation WS300 с Grace CPU и Blackwell Ultra.
- Nvidia и Groq 3 LPX: первая специализированная inference-стойка в платформе Nvidia
Nvidia анонсировала Groq 3 LPX — стойку из 32 лотков с LPU на SRAM-архитектуре. Disaggregated inference в паре с Vera Rubin NVL72: prefill на NVL72, decode на LPX. Поставки — 2H 2026.
- RTX PRO 4500 Blackwell + vGPU 20: MIG и виртуализация для enterprise AI
NVIDIA разобрала RTX PRO 4500 Blackwell Server Edition с vGPU 20: Multi-Instance GPU делит физический GPU на изолированные инстансы с гарантированными ресурсами.
- QCT QuantaGrid D76V-1U: сервер под Vera Rubin NVL72 с 3600 PFLOPS
QCT анонсировала QuantaGrid D76V-1U под NVIDIA Vera Rubin NVL72: 72 GPU, HBM4 по 288 ГБ, NVLink 6-го поколения, ConnectX-9 1,6 Тбит/с и 100% жидкостное охлаждение.
- Samsung выходит на рынок CPO: silicon photonics для AI-кластеров до 2030
Samsung Foundry представил платформу silicon photonics на 300 мм пластинах и дорожную карту CPO до 2030 года. Разбираемся, почему co-packaged optics меняет сетевую архитектуру AI-кластеров.
- Supermicro первым показал CMX-сервер на NVIDIA BlueField-4 STX
Supermicro представил прототип context memory storage сервера на модульной архитектуре NVIDIA STX с BlueField-4 DPU — first-to-market анонс с GTC 2026.
- Supermicro Gold Series: 25+ серверов с отгрузкой за три дня
Supermicro запускает линейку преднастроенных серверов Gold Series для AI, compute, storage и edge с поставкой из американского склада за три рабочих дня.
- Supermicro HGX B300: 144 GPU в одном rack с жидкостным охлаждением
Supermicro выпустила два форм-фактора под NVIDIA HGX B300 — 2-OU и 4U. 18 нод, 144 GPU Blackwell Ultra, 2.1 TB HBM3e и 1.8 MW CDU в одной стойке.
- VAST Data: DASE-архитектура и CUDA AI OS для масштабных GPU-кластеров
VAST Data закрыла раунд Series F и запустила CUDA-ускоренный AI OS. Разбираемся, что такое DASE и почему NVMe-over-fabric без шардирования важен для кластеров на H100 и B200.
- Dell PowerEdge XE9880L и XE9885L: Rubin NVL8 с жидкостным охлаждением
Dell анонсировал три liquid-cooled сервера на HGX Rubin NVL8: XE9880L (Intel Xeon), XE9885L (AMD Venice), XE9882L (NVIDIA Vera CPU). До 144 GPU на стойку, NVLink v6, доступность Q3 2026.
- HPE Compute XD700: 128 GPU Rubin NVL8 на стойку в OCP-формате
HPE анонсировала OCP-совместимый сервер на NVIDIA HGX Rubin NVL8: вдвое выше плотность GPU по сравнению с предыдущим поколением, сниженные затраты на охлаждение и питание. Доступность — начало 2027.
- Marvell Structera: первый PCIe 6.0 и CXL 3.0 260-lane switch против NVLink
Marvell представила Structera S 60260 (260-lane PCIe 6.0) и S 30260 (260-lane CXL 3.0) на базе IP XConn Technologies — вдвое плотнее конкурентов. Открытая альтернатива NVLink для подключения GPU и XPU.
- NVIDIA DGX Station на GB300: 775 ГБ памяти и 20 ПФЛОПС в десктопе
Первый desktop-суперкомпьютер на GB300 Grace Blackwell Ultra Desktop Superchip: 252 ГБ HBM3e + 496 ГБ LPDDR5X, NVLink-C2C 900 ГБ/с, ConnectX-8 SuperNIC 800 Гб/с.
- NVIDIA Vera Rubin: обновлённый roadmap после GTC 2026
NVIDIA уточнила дорожную карту: Rubin (288 ГБ HBM4, 50 ПФЛОПС FP4) — 2H 2026; Rubin Ultra (1 ТБ HBM4E) и Kyber NVL144 — 2H 2027. Spectrum-6 со встроенной оптикой — в поколении Rubin Ultra.
- Supermicro: семь AI Data Platform на RTX PRO 6000 Blackwell
Supermicro выпустил семь turnkey-платформ на RTX PRO 6000 и RTX PRO 4500 Blackwell Server Edition с Spectrum-X Ethernet, NVIDIA NIM и NeMo. Разработаны совместно с DDN, VAST Data, IBM, Nutanix и WEKA.
- AMD Instinct MI355X пробивает отметку 1 млн токенов/с на MLPerf v6.0
MI355X на базе CDNA4 с HBM3E преодолел планку 1 млн tokens/s в MLPerf Inference v6.0 — AMD опубликовала технический разбор сабмишна.
- HPE занимает 18 первых мест в MLPerf Inference v6.0
ProLiant DL385 Gen11 и другие платформы HPE лидируют в 18 категориях MLPerf Inference v6.0 — разбираем, какие конфигурации и модели принесли эти результаты.
- Intel Arc Pro B70/B65: 4-GPU система для 120B-моделей в MLPerf v6.0
Intel впервые выставил Arc Pro GPU в MLPerf Inference v6.0: нестандартная конфигурация из 4 дискретных GPU с 128 ГБ суммарного VRAM для инференса GPT-OSS 120B.
- MLCommons выпускает MLPerf Inference v6.0
Новый раунд MLPerf Inference v6.0: DeepSeek R1, Qwen3-VL 235B, GPT-OSS 120B, Whisper и обновлённая методология измерения токен-пропускной способности.
- NVIDIA GB300 NVL72: 2,5 млн токенов/с и 2,7x прирост через софт
На MLPerf Inference v6.0 NVIDIA показала 2,5 млн tokens/s на GB300 NVL72 — и отдельно зафиксировала 2,7x прирост за счёт программных оптимизаций без смены железа.
- ASRock Rack на GTC 2026: жидкостные AI-серверы на NVIDIA Rubin NVL8 и Blackwell
ASRock Rack показала на GTC 2026 линейку DLC-систем: 2U/4U HGX Rubin NVL8, 44RU жидкостные стойки на 4U16X-TURIN2, MGX-серверы под RTX PRO 6000/4500 Blackwell и CPU-платформы на NVIDIA Vera.
- Dell PowerEdge XE9812: 72 GPU Vera Rubin в стойке и 260 ТБ/с NVLink
Новый rack-scale флагман Dell на платформе NVIDIA Vera Rubin NVL72: 72 GPU в одной стойке, полностью жидкостное охлаждение, 10× ниже стоимость за токен инференса MoE-моделей.
- Microsoft Azure первой из гиперскейлеров запустила стойку NVIDIA Vera Rubin NVL72
Azure сообщает о power-on первой production-стойки Vera Rubin NVL72: 36 Vera CPU и 72 Rubin GPU, NVLink 6 на ~260 ТБ/с, полностью жидкостное охлаждение. Обгоняет AWS, Google Cloud и OCI.
- Supermicro выпускает компактные edge AI-серверы на AMD EPYC 4005
Три форм-фактора — mini-1U, short-depth 1U и slim tower — для инференса на краю сети. Zen 5, TDP от 65 Вт, DDR5, PCIe Gen 5 и опциональные GPU-ускорители.
- AMD EPYC 9005 "Turin" на Zen 5 как host CPU для AI-серверов с GPU
Разбираем, чем EPYC 9005 интересен как host-процессор для платформ с NVIDIA H100/H200 и AMD Instinct MI300X: количество ядер, PCIe Gen5, память и конкуренция с Intel Xeon 6.
- AMD Instinct MI400: CDNA 5, 432 GB HBM4 и семейство MI430X/MI440X/MI455X
Обзор семейства AMD Instinct MI400 на CDNA 5 с 432 GB HBM4, 19.6 TB/s bandwidth и тремя вариантами под training, HPC и enterprise — прямой ответ на NVIDIA Vera Rubin.
- ASUS Nano4 в NCHC: первый в Тайване liquid-cooled GB200 NVL72
Разбираем деплой ASUS Nano4 (Crystal 26) в National Center for High-performance Computing Taiwan: dual-compute архитектура HGX H200 + GB200 NVL72, direct liquid cooling и PUE 1.18.
- Cerebras CS-3: Wafer-Scale Engine 3 против GPU-кластеров
Разбираем архитектуру Cerebras CS-3 и WSE-3 — чем один чип размером с пластину отличается от GPU-кластера и кому это реально нужно.
- HPE Cray GX240: блейд с 16 NVIDIA Vera CPU и 56 320 ARM-ядер на стойку
HPE анонсировала на GTC 2026 компьют-блейд GX240 на NVIDIA Vera CPU — первое поколение ARM после Grace в линейке Cray. Разбираем цифры, заказчиков и сроки.
- Lenovo ThinkSystem SR780a V3: HGX-сервер с Neptune direct liquid cooling
Разбираем флагманский GPU-сервер Lenovo на NVIDIA HGX с фирменным прямым жидкостным охлаждением Neptune — куда он метит и кому нужен.
- AMD Instinct MI350X: архитектура CDNA 4 и 288 GB HBM3e
Обзор AMD Instinct MI350X — ускорителя на архитектуре CDNA 4 с 288 GB HBM3e, конкурента NVIDIA H200 и B200 для инференса крупных моделей.
- Dell PowerEdge XE9680L: 8 GPU в 4U с жидкостным охлаждением
Обзор Dell PowerEdge XE9680L — 4U-сервера с 8 GPU NVIDIA H200/B200, direct-to-chip жидкостным охлаждением и вдвое большей плотностью на стойку по сравнению с 8U-платформами.
- HBM4: удвоение шины и 2+ TB/s на стек
Обзор стандарта HBM4 — памяти следующего поколения с 2048-битным интерфейсом, пропускной способностью свыше 2 TB/s и ёмкостью до 48 GB на стек.
- InfiniBand vs Ultra Ethernet: сеть для AI-кластера
Сравнение InfiniBand NDR/XDR и Ultra Ethernet (UEC 1.0) для AI-кластеров: latency, стоимость, масштабируемость и выбор по сценарию.
- Intel Gaudi 3: 128 GB HBM2e и встроенная сеть RoCE
Обзор Intel Gaudi 3 — ускорителя с 128 GB HBM2e и интегрированными 24 портами RoCE, ориентированного на инференс как бюджетная альтернатива NVIDIA H100.
- Жидкостное охлаждение: direct-to-chip vs immersion
Сравнение двух подходов к жидкостному охлаждению AI-серверов — direct-to-chip и immersion cooling: порог применимости, капекс, вендоры и реальная практика.
- NVIDIA DGX B200 и SuperPOD: референсная платформа на Blackwell
Обзор NVIDIA DGX B200 — нового узла на 8x B200 GPU с NVLink пятого поколения и архитектуры DGX SuperPOD для масштабирования AI-кластеров.
- NVIDIA Grace: ARM-процессор, который убирает PCIe из уравнения
Обзор NVIDIA Grace CPU — 72-ядерного ARM-процессора с LPDDR5X и NVLink-C2C, лежащего в основе суперчипов GH200 и GB200.
- OCP и открытые стандарты: как меняется архитектура AI-серверов
Обзор Open Compute Project и стандартов для AI-серверов: ORv3, 48V DC bus bar, вклад NVIDIA GB200 NVL72, и почему OCP — пока история гиперскейлеров.
- On-prem кластер для файнтюнинга: минимум железа на 70B модель
Практический гайд по сборке минимального on-prem кластера для файнтюнинга моделей класса Llama 70B: GPU, сеть, хранилище, питание и охлаждение.
- Supermicro SYS-821GE-TNHR: 8U-сервер на 8 GPU для обучения и инференса
Обзор Supermicro SYS-821GE-TNHR — 8U GPU-сервера на базе NVIDIA HGX H100/H200 с NVLink 4.0, до 8 ТБ DDR5 и опциональным жидкостным охлаждением.
- Supermicro ARS-511GD-NB-LCC: суперчип NVIDIA GB300 в настольном корпусе
Supermicro выпустила Super AI Station — первую настольную рабочую станцию на суперчипе NVIDIA GB300 Grace Blackwell Ultra с жидкостным охлаждением и производительностью 20 PFLOPS.