Nvidia zet in op AI-inferentie nu chipomzetkans $1 biljoen bereikt
In dit artikel:
Nvidia-ceo Jensen Huang treedt maandag in een ijshockeystadion in San Jose (capaciteit ruim 18.000) op voor de jaarlijkse ontwikkelaarsconferentie om de hardware- en softwarerichting van het bedrijf uiteen te zetten. Verwacht wordt dat hij een nieuwe generatie AI-chip introduceert met de naam Feynman (vernoemd naar natuurkundige Richard Feynman) en spreekt over datacenters, Nvidia’s programmeerlaag CUDA, AI-agents en toepassingen in de fysieke wereld zoals robots.
Een belangrijk aandachtspunt is inference — het realtime beantwoorden en voorspellen door getrainde modellen — nu grote bedrijven zoals OpenAI, Anthropic en Meta verschuiven van coûteuze trainingsinfrastructuur naar het bedienen van honderden miljoenen gebruikers. Nvidia zet ook in op technologie die het in december in licentie nam van chip-startup Groq (transactie: circa 17 miljard dollar), om concurrentie op dit segment het hoofd te bieden.
Ondanks toenemende concurrentie, ook van klanten die eigen chips ontwerpen, blijft Nvidia een spil in het wereldwijde AI-ecosysteem. Het bedrijf heeft een enorme beurswaarde (ruim 4,3 biljoen dollar) en levert zowel infrastructuur als open-source software, wat meeweegt in geopolitieke technologische spanningen, onder meer tussen de VS en China. Huang’s keynote begint om 11:00 uur Pacific Time.