AI Digest

Home Blog Архив About
Follow Astro on Mastodon Follow Astro on Twitter Go to Astro's GitHub repo
  • ASUS XA NR1I-E12L: серверы на HGX Rubin NVL8 с жидкостным охлаждением

    Apr 29, 2026

    asusnvidiahgxrubinnvlinkliquid-coolingai-serversgpu-servers
  • AWS и Cerebras CS-3: wafer-scale чипы для inference disaggregation в облаке

    Apr 29, 2026

    awscerebraswafer-scaleinferencedisaggregated-inferenceamazon-bedrock
  • CoreWeave добавляет NVIDIA Vera Rubin NVL72 и запускает Mission Control

    Apr 29, 2026

    coreweavevera-rubinnvl72hgx-b300nvidiacloud-infrastructure
  • Dell PowerEdge R770 и R771x с RTX PRO 4500 Blackwell доступны глобально

    Apr 29, 2026

    dellnvidiablackwellrtx-propoweredgeinferenceai-serversenterprise
  • Google Cloud A5X: bare metal на Vera Rubin NVL72 до 960 000 GPU

    Apr 29, 2026

    google-cloudnvidiavera-rubinbare-metalinferencehpcnvl72
  • Lambda запускает Bare Metal Instances на Vera Rubin NVL72 Superclusters

    Apr 29, 2026

    lambdanvidiavera-rubinbare-metalgb300traininginference
  • Lenovo ThinkSystem SR680a V4: флагманский AI-сервер с HGX B300 и Neptune cooling

    Apr 29, 2026

    lenovothinksystemhgx-b300blackwell-ultraliquid-coolingon-premisellm
  • LG удваивает мощность CDU до 1,4 МВт и показывает иммерсионное охлаждение

    Apr 29, 2026

    coolingliquid-coolingimmersion-coolingcdudata-center
  • Maincode MC-2: суверенный AI-завод на AMD MI355X за $30M в Мельбурне

    Apr 29, 2026

    amdmi355xbare-metalhbm3erocmepycsovereign-ai
  • MSI выходит на рынок AI-серверов с MGX и воркстейшеном WS300 на GTC 2026

    Apr 29, 2026

    msinvidia-mgxblackwellgpu-serverworkstationgtc2026liquid-cooling
  • Nvidia и Groq 3 LPX: первая специализированная inference-стойка в платформе Nvidia

    Apr 29, 2026

    nvidiagroqinferencedisaggregated-inferencelpuvera-rubin
  • RTX PRO 4500 Blackwell + vGPU 20: MIG и виртуализация для enterprise AI

    Apr 29, 2026

    nvidiartx-problackwellvgpumiginferenceenterprisegpu-server
  • QCT QuantaGrid D76V-1U: сервер под Vera Rubin NVL72 с 3600 PFLOPS

    Apr 29, 2026

    qctvera-rubinnvl72hbm4nvlinkliquid-coolinggpu-serverinference
  • Samsung выходит на рынок CPO: silicon photonics для AI-кластеров до 2030

    Apr 29, 2026

    networkingsilicon-photonicscpoinfinibandai-infrastructure
  • Supermicro первым показал CMX-сервер на NVIDIA BlueField-4 STX

    Apr 29, 2026

    supermicronvidiabluefieldstxinferencebare-metalstorage
  • Supermicro Gold Series: 25+ серверов с отгрузкой за три дня

    Apr 29, 2026

    supermicroai-serversbare-metalgpu-serversenterprise
  • Supermicro HGX B300: 144 GPU в одном rack с жидкостным охлаждением

    Apr 29, 2026

    supermicrohgx-b300blackwell-ultraliquid-coolinggpu-serverinfiniband
  • VAST Data: DASE-архитектура и CUDA AI OS для масштабных GPU-кластеров

    Apr 29, 2026

    storagenvmeai-infrastructuregpu-clusternvidia
  • Dell PowerEdge XE9880L и XE9885L: Rubin NVL8 с жидкостным охлаждением

    Apr 28, 2026

    dellnvidiagpu-serversliquid-coolingrubinnvlinkintel-xeonamd-epyc
  • HPE Compute XD700: 128 GPU Rubin NVL8 на стойку в OCP-формате

    Apr 28, 2026

    hpenvidiagpu-serversrubinnvl8ocpliquid-cooling
  • Marvell Structera: первый PCIe 6.0 и CXL 3.0 260-lane switch против NVLink

    Apr 28, 2026

    marvellpciecxlinterconnectgpu-serversnetworkingopen-fabric
  • NVIDIA DGX Station на GB300: 775 ГБ памяти и 20 ПФЛОПС в десктопе

    Apr 28, 2026

    nvidiadgxblackwellgracehbmnvlinkworkstation
  • NVIDIA Vera Rubin: обновлённый roadmap после GTC 2026

    Apr 28, 2026

    nvidiavera-rubinroadmaphbm4gpu-serversnvlinkspectrum
  • Supermicro: семь AI Data Platform на RTX PRO 6000 Blackwell

    Apr 28, 2026

    supermicronvidiagpu-serversblackwellrtx-proenterprise-aispectrum-x
  • AMD Instinct MI355X пробивает отметку 1 млн токенов/с на MLPerf v6.0

    Apr 27, 2026

    amdinstinctmi355xmlperfbenchmarksinferencecdna4hbm3e
  • HPE занимает 18 первых мест в MLPerf Inference v6.0

    Apr 27, 2026

    hpeproliantmlperfbenchmarksinferenceamdnvidia
  • Intel Arc Pro B70/B65: 4-GPU система для 120B-моделей в MLPerf v6.0

    Apr 27, 2026

    intelarc-promlperfbenchmarksinferencexeon
  • MLCommons выпускает MLPerf Inference v6.0

    Apr 27, 2026

    mlperfbenchmarksinferencedeepseekmlcommons
  • NVIDIA GB300 NVL72: 2,5 млн токенов/с и 2,7x прирост через софт

    Apr 27, 2026

    nvidiablackwellmlperfbenchmarksinferencegb300nvl72
  • ASRock Rack на GTC 2026: жидкостные AI-серверы на NVIDIA Rubin NVL8 и Blackwell

    Apr 20, 2026

    asrock-racknvidiarubinnvl8blackwellrtx-proliquid-coolingveragtc-2026
  • Dell PowerEdge XE9812: 72 GPU Vera Rubin в стойке и 260 ТБ/с NVLink

    Apr 20, 2026

    dellnvidiagpu-serversrack-scaleliquid-coolingvera-rubinnvl72
  • Microsoft Azure первой из гиперскейлеров запустила стойку NVIDIA Vera Rubin NVL72

    Apr 20, 2026

    microsoftazurenvidiavera-rubinnvl72rack-scaleliquid-coolinghyperscaler
  • Supermicro выпускает компактные edge AI-серверы на AMD EPYC 4005

    Apr 20, 2026

    supermicroamdepycedge-aiinferencezen5
  • AMD EPYC 9005 "Turin" на Zen 5 как host CPU для AI-серверов с GPU

    Apr 16, 2026

    amdepyczen5turincpuai-serversknowledge-only
  • AMD Instinct MI400: CDNA 5, 432 GB HBM4 и семейство MI430X/MI440X/MI455X

    Apr 16, 2026

    amdinstinctmi400cdna5hbm4ai-accelerator
  • ASUS Nano4 в NCHC: первый в Тайване liquid-cooled GB200 NVL72

    Apr 16, 2026

    asusnvidiagb200nvl72liquid-coolingsupercomputer
  • Cerebras CS-3: Wafer-Scale Engine 3 против GPU-кластеров

    Apr 16, 2026

    cerebrascs3wse3wafer-scaleai-acceleratorhpcknowledge-only
  • HPE Cray GX240: блейд с 16 NVIDIA Vera CPU и 56 320 ARM-ядер на стойку

    Apr 16, 2026

    hpecraynvidiaverasupercomputingarm
  • Lenovo ThinkSystem SR780a V3: HGX-сервер с Neptune direct liquid cooling

    Apr 16, 2026

    lenovothinksystemnvidiahgxneptuneliquid-coolingknowledge-only
  • AMD Instinct MI350X: архитектура CDNA 4 и 288 GB HBM3e

    Apr 13, 2026

    amdinstinctgpucdnahbm3einference
  • Dell PowerEdge XE9680L: 8 GPU в 4U с жидкостным охлаждением

    Apr 13, 2026

    dellnvidiagpu-serversliquid-coolingh200b200
  • HBM4: удвоение шины и 2+ TB/s на стек

    Apr 13, 2026

    hbmmemorysk-hynixsamsungnvidiaamd
  • InfiniBand vs Ultra Ethernet: сеть для AI-кластера

    Apr 13, 2026

    infinibandethernetnetworkinggpu-clusternvidiaroce
  • Intel Gaudi 3: 128 GB HBM2e и встроенная сеть RoCE

    Apr 13, 2026

    intelgaudihabanainferencehbmroce
  • Жидкостное охлаждение: direct-to-chip vs immersion

    Apr 13, 2026

    liquid-coolingdata-centerinfrastructuregpu-servers
  • NVIDIA DGX B200 и SuperPOD: референсная платформа на Blackwell

    Apr 13, 2026

    nvidiadgxblackwellb200nvlinksuperpod
  • NVIDIA Grace: ARM-процессор, который убирает PCIe из уравнения

    Apr 13, 2026

    nvidiagracearmcpunvlinkgh200gb200
  • OCP и открытые стандарты: как меняется архитектура AI-серверов

    Apr 13, 2026

    ocpopen-computedata-centerinfrastructurenvidiastandards
  • On-prem кластер для файнтюнинга: минимум железа на 70B модель

    Apr 13, 2026

    on-premisefine-tuninggpu-clusterh100infrastructure
  • Supermicro SYS-821GE-TNHR: 8U-сервер на 8 GPU для обучения и инференса

    Apr 13, 2026

    supermicronvidiagpu-servershgxh100h200
  • Supermicro ARS-511GD-NB-LCC: суперчип NVIDIA GB300 в настольном корпусе

    Apr 6, 2026

    supermicronvidiagpu-serversworkstationgrace-blackwell
© 2026 Your name here. All rights reserved.
Follow Astro on Mastodon Follow Astro on Twitter Go to Astro's GitHub repo
ESC