-
ASUS XA NR1I-E12L: серверы на HGX Rubin NVL8 с жидкостным охлаждением
-
AWS и Cerebras CS-3: wafer-scale чипы для inference disaggregation в облаке
-
CoreWeave добавляет NVIDIA Vera Rubin NVL72 и запускает Mission Control
-
Dell PowerEdge R770 и R771x с RTX PRO 4500 Blackwell доступны глобально
-
Google Cloud A5X: bare metal на Vera Rubin NVL72 до 960 000 GPU
-
Lambda запускает Bare Metal Instances на Vera Rubin NVL72 Superclusters
-
Lenovo ThinkSystem SR680a V4: флагманский AI-сервер с HGX B300 и Neptune cooling
-
LG удваивает мощность CDU до 1,4 МВт и показывает иммерсионное охлаждение
-
Maincode MC-2: суверенный AI-завод на AMD MI355X за $30M в Мельбурне
-
MSI выходит на рынок AI-серверов с MGX и воркстейшеном WS300 на GTC 2026
-
Nvidia и Groq 3 LPX: первая специализированная inference-стойка в платформе Nvidia
-
RTX PRO 4500 Blackwell + vGPU 20: MIG и виртуализация для enterprise AI
-
QCT QuantaGrid D76V-1U: сервер под Vera Rubin NVL72 с 3600 PFLOPS
-
Samsung выходит на рынок CPO: silicon photonics для AI-кластеров до 2030
-
Supermicro первым показал CMX-сервер на NVIDIA BlueField-4 STX
-
Supermicro Gold Series: 25+ серверов с отгрузкой за три дня
-
Supermicro HGX B300: 144 GPU в одном rack с жидкостным охлаждением
-
VAST Data: DASE-архитектура и CUDA AI OS для масштабных GPU-кластеров
-
Dell PowerEdge XE9880L и XE9885L: Rubin NVL8 с жидкостным охлаждением
-
HPE Compute XD700: 128 GPU Rubin NVL8 на стойку в OCP-формате
-
Marvell Structera: первый PCIe 6.0 и CXL 3.0 260-lane switch против NVLink
-
NVIDIA DGX Station на GB300: 775 ГБ памяти и 20 ПФЛОПС в десктопе
-
NVIDIA Vera Rubin: обновлённый roadmap после GTC 2026
-
Supermicro: семь AI Data Platform на RTX PRO 6000 Blackwell
-
AMD Instinct MI355X пробивает отметку 1 млн токенов/с на MLPerf v6.0
-
HPE занимает 18 первых мест в MLPerf Inference v6.0
-
Intel Arc Pro B70/B65: 4-GPU система для 120B-моделей в MLPerf v6.0
-
MLCommons выпускает MLPerf Inference v6.0
-
NVIDIA GB300 NVL72: 2,5 млн токенов/с и 2,7x прирост через софт
-
ASRock Rack на GTC 2026: жидкостные AI-серверы на NVIDIA Rubin NVL8 и Blackwell
-
Dell PowerEdge XE9812: 72 GPU Vera Rubin в стойке и 260 ТБ/с NVLink
-
Microsoft Azure первой из гиперскейлеров запустила стойку NVIDIA Vera Rubin NVL72
-
Supermicro выпускает компактные edge AI-серверы на AMD EPYC 4005
-
AMD EPYC 9005 "Turin" на Zen 5 как host CPU для AI-серверов с GPU
-
AMD Instinct MI400: CDNA 5, 432 GB HBM4 и семейство MI430X/MI440X/MI455X
-
ASUS Nano4 в NCHC: первый в Тайване liquid-cooled GB200 NVL72
-
Cerebras CS-3: Wafer-Scale Engine 3 против GPU-кластеров
-
HPE Cray GX240: блейд с 16 NVIDIA Vera CPU и 56 320 ARM-ядер на стойку
-
Lenovo ThinkSystem SR780a V3: HGX-сервер с Neptune direct liquid cooling
-
AMD Instinct MI350X: архитектура CDNA 4 и 288 GB HBM3e
-
Dell PowerEdge XE9680L: 8 GPU в 4U с жидкостным охлаждением
-
HBM4: удвоение шины и 2+ TB/s на стек
-
InfiniBand vs Ultra Ethernet: сеть для AI-кластера
-
Intel Gaudi 3: 128 GB HBM2e и встроенная сеть RoCE
-
Жидкостное охлаждение: direct-to-chip vs immersion
-
NVIDIA DGX B200 и SuperPOD: референсная платформа на Blackwell
-
NVIDIA Grace: ARM-процессор, который убирает PCIe из уравнения
-
OCP и открытые стандарты: как меняется архитектура AI-серверов
-
On-prem кластер для файнтюнинга: минимум железа на 70B модель
-
Supermicro SYS-821GE-TNHR: 8U-сервер на 8 GPU для обучения и инференса
-
Supermicro ARS-511GD-NB-LCC: суперчип NVIDIA GB300 в настольном корпусе