Exclusive - OpenAI ontevreden over sommige Nvidia-chips en zoekt alternatieven
In dit artikel:
OpenAI zoekt sinds vorig jaar actief naar alternatieven voor sommige van Nvidia’s nieuwste AI-chips omdat die volgens het bedrijf te traag zijn bij bepaalde inferentie-taken, zeggen bronnen. De geschilpunten spelen in San Francisco en Silicon Valley en komen aan het licht in de aanloop naar langdurige onderhandelingen over een mogelijke grote investering van Nvidia in OpenAI die afgelopen september werd aangekondigd (Nvidia stelde toen tot $100 miljard in het vooruitzicht). Die gesprekken sleepten sindsdien voort en zijn mede vertraagd doordat OpenAI zijn hardwarebehoeften heeft bijgesteld.
Waarom: OpenAI legt meer nadruk op inferentie — het realtime genereren van antwoorden door getrainde modellen zoals ChatGPT — waar andere eisen gelden dan bij het trainen van modellen. Inferentie vraagt vaak om zeer snel geheugen dat direct op dezelfde chip zit (SRAM), omdat het ophalen van data uit extern geheugen de reactietijd verhoogt. Volgens ingewijden veroorzaakt Nvidia’s huidige GPU-architectuur, die afhankelijk is van extern geheugen, vertragingen bij taken zoals het automatisch schrijven van code of het samen laten werken van AI met andere software. OpenAI heeft berekend dat nieuwe hardware ongeveer 10% van zijn inferentiecapaciteit moet kunnen leveren om die knelpunten te verlichten.
Wat OpenAI doet: het bedrijf heeft gesprekken gevoerd met alternatieve leveranciers en start-ups die chips ontwerpen met veel ingebed SRAM, waaronder Cerebras en Groq. Recent sloot OpenAI ook deals met AMD en met Cerebras voor GPU-achtige rekenkracht die sneller inferentie kunnen helpen uitvoeren. Tegelijkertijd bleef OpenAI naar eigen zeggen voor het grootste deel van zijn inferentievloot op Nvidia vertrouwen, omdat Nvidia volgens het bedrijf de beste prijs-prestatieverhouding biedt.
Reactie van Nvidia en marktbewegingen: Nvidia ontkent spanningen en zegt dat klanten voor zijn producten kiezen vanwege prestaties en lagere totale eigendomskosten. Tegelijk lijkt Nvidia zelf actief bezig om concurrerende technologieën binnen te halen: het voerde gesprekken met bedrijven als Cerebras en Groq en licentieerde in december technologie van Groq in een niet-exclusieve, volledig in cash afgeronde overeenkomst (ter waarde van ongeveer $20 miljard volgens bronnen). Ook nam Nvidia talent van Groq over, wat marktspelers interpreteren als strategische versterking van zijn productportfolio.
Breder plaatje en consequenties: Nvidia blijft dominant bij het trainen van grote AI-modellen, maar inferentie is uitgegroeid tot een nieuw strijdveld omdat realtime prestaties van steeds groter belang zijn voor eindgebruikers en commerciële toepassingen (bijv. codegeneratie). Concurrenten zoals Anthropic en Google benutten alternatieve hardware-architecturen (TPU’s bij Google) die voor inferentie voordelen kunnen bieden. De zoektocht van OpenAI naar andere leveranciers vormt een belangrijke test voor Nvidia’s heerschappij; tegelijkertijd beïnvloedt deze dynamiek de lopende investeringsonderhandelingen tussen de twee bedrijven.
Kort gezegd: OpenAI wil snellere, geheugenrijke chips voor enkele latency-gevoelige toepassingen en test hiervoor alternatieven naast Nvidia, wat zowel commerciële relaties als de strategische positie van chipmakers in de AI-markt beïnvloedt.