Nvidia har netop løftet sløret for selskabets helt nye chiparkitektur, der bliver lanceret i andet halvår af 2026.
Chiparkitekturen får navnet Vera Rubin og er opkaldt efter den verdensberømte amerikanske astronom Vera Florence Cooper Rubin.
Den kommer til at afløse den hidtidige topmodel, Blackwell-chippen.
“Vera Rubin er designet til at løse den helt grundlæggende udfordring, vi står over for: Nemlig at den mængde regnekraft, der er nødvendig for kunstig intelligens, vokser eksplosivt.”
Sådan sagde Nvidias administrerende direktør Jensen Huang, da han mandag aften præsenterede chippen ved den årlige forbrugerelektronikmesse CES i Las Vegas.
Helt centralt i lanceringen står GPU’en, men arkitekturen udgøres af et system, som ud over GPU’en også indbefatter en ny Vera CPU, forbedret lagringsteknologi og hurtigere forbindelser mellem de enkelte chips.
Er i fuld produktion
Vera Rubin-chippen er allerede gået i fuld produktion ifølge Nvidia-topchefen, og det forventes, at den vil blive taget i brug af de fleste af verdens store AI- og cloudvirksomheder ligesom den også kommer til at indgå i fremtidige supercomputere.
I en pressemeddelelse oplyser Nvidia, at det forventes, at virksomheder som AWS, Anthropic, Cisco, Dell, Google, HPE, Meta, Microsoft, Mistral AI, OpenAI, Oracle og xAI vil tage den nye chip i brug.
Eksempelvis forventes det, at Microsoft vil skalere hundredtusindvis af Vera Rubin-chips i en række af selskabets kommende datacentre.
Flere forskellige systemer
Nvidia vil gøre arkitekturen tilgængelig i en række forskellige systemer, der er tilpasset forskellige behov.
Der vil være DGX SuperPod, som anvendes i supercomputerlignende systemer. Derudover vil den også blive gjort tilgængelig i racksystemet NVL72, der består af 72 GPU’er og 36 CPU’er, samt HGX Rubin NVL8, som er en serverplatform målrettet x86-miljøer med otte GPU’er.
Nvidia hævder, at Vera Rubin-arkitekturen vil være 3,5 gange hurtigere end Blackwell-arkitekturen til træning af AI-modeller og fem gange hurtigere til såkaldte inference-opgaver.
Øget konkurrence
Lanceringen af den nye Rubin-arkitektur kommer på tidspunkt, hvor konkurrence-sitaution på chipmarkedet er blevet skærpet.
Eksempelvis har Google trænet sin Gemini AI-model på egneudviklede TPU-chip.
TPU står for tensor processing units, og indtil nu Google haft en strategi om udelukkende at bruge chip-typen i selskabets egne Google Cloud-datacentre.
Men i slutningen af sidste år kom det frem, at Meta angiveligt kan være på til at indgå en aftale, hvor selskabet vil investere milliarder af dollar i Googles chip. Dermed kan Google langsomt være på vej til at udfordre Nvidia på chipmarkedet.