NVIDIA Vera Rubin + Vera CPU: új „szuperchip”

nvidia logo

Az NVIDIA a washingtoni GTC 2025-ön megmutatta következő generációs adatközponti AI-platformját: a Vera Rubin GPU-architektúra és a Vera CPU párosát, rackszinten pedig az NVL144 rendszer hozza majd el a gyakorlatban. A vállalat kommunikációja és a helyszíni beszámolók alapján az NVL144 platform akár 3,6 exaFLOP FP4 inferencia-teljesítményt és ~1,2 exaFLOP FP8 tréningkapacitást céloz, a bevezetés pedig a tervek szerint 2026 második felében indul.

Mi a lényeg?

  • Dual „Rubin” GPU + „Vera” CPU felépítés, rackszinten NVL144 konfigurációval.
  • HBM4 memória a Rubin GPU-kon, továbbfejlesztett NVLink és CX9 hálózati stack.
  • 3,6 EF FP4 inferencia, 1,2 EF FP8 tréning – az előd GB300 NVL72-höz képest ~3,3× lépcső.
  • Folyadékhűtésre optimalizált rack-dizájn, magas energiasűrűséghez (D2C) igazítva.

Miért fontos?

A generatív MI (LLM, ügynökalapú rendszerek, multimodális modellek) ugrásszerűen növeli a számítási igényt. A Rubin/Vera platform célja, hogy a költség/watt/teljesítmény metrikákat javítsa, és skálázható „AI-gyárakat” tegyen elérhetővé a szolgáltatóknak. Az ARM-alapú Vera CPU első, teljesen saját magtervezésű NVIDIA-processzorként heterogén CPU+GPU kiszolgálást ígér, míg a HBM4 és az új NVLink generáció a sávszélesség-limitációk csökkentésére fókuszál.

Specifikációk és időzítés (amit eddig tudunk)

Legfontosabb paraméter(ek) 3,6 EF FP4 inferencia, ~1,2 EF FP8 tréning, HBM4 memória, NVL144 rack, cél: 2026 H2
GPU/CPU Dual „Rubin” GPU (reticle-méretű lapkák), „Vera” CPU (egyedi ARM-magok)
Memória HBM4 a Rubin GPU-kon; NVL144 rackben „fast memory” több tíz-száz TB sávban (implementációtól függően)
Interconnect Új NVLink generáció; CX9 NIC ökoszisztéma, rackszintű MGX/„AI factory” optimalizálás
Hűtés és energia 45 °C-os folyadékhűtésre optimalizált dizájn, nagy energiasűrűségű AI-rackekhez
Időzítés (roadmap) Rubin/Vera: 2026 H2 környéke; Rubin Ultra és nagyobb Kyber/NVL576 topológiák: 2027+ (iparági előretekintés)

Hazai nézőpont

Magyarországi cloud/AI szolgáltatóknak és nagyvállalati IT-nak érdemes már most felmérni az infrastruktúra-igényeket (folyadékhűtés, tápellátás, rack-sűrűség), a beruházási ütemezést (2026 H2+) és a szoftveres adaptációt (NVLink/NIC ökoszisztéma, ütemezők, KV-cache-kezelés) a következő két évre.

Fontos megjegyzés

A fenti értékek és időzítések a gyártó és a GTC-beszámolók alapján roadmap-jellegűek, a végleges konfigurációk kereskedelmi rajtig változhatnak.