Nvidia kiest telefoongeheugen; servergeheugen kan verdubbelen tegen eind 2026
In dit artikel:
Counterpoint Research waarschuwt dat Nvidia’s keuze om in AI-servers over te schakelen van standaard servergeheugen (DDR5) naar energiezuinige LPDDR‑chips—zoals die in smartphones worden gebruikt—de prijzen voor servergeheugen tegen eind 2026 kan verdubbelen. Het marktonderzoeksbureau signaleert dat in de afgelopen maanden al tekorten ontstonden aan oudere DRAM‑producten omdat fabrikanten hun capaciteit verplaatsten naar high‑bandwidth memory (HBM) voor gevorderde AI‑accelerators.
Omdat een AI‑server veel meer geheugenmodules nodig heeft dan een mobiele telefoon, kan Nvidias overstap een plotselinge en grote vraaggolf veroorzaken die de huidige toeleveringsketens niet snel kunnen opvangen. Grote leveranciers als Samsung, SK Hynix en Micron hebben al productie verlaagd voor oudere geheugenlijnen; nu overwegen ze mogelijk capaciteit naar LPDDR te verschuiven, wat de krapte op meerdere marktniveaus kan aantrekken.
Een stijging van servergeheugenprijzen drukt direct op cloudproviders en AI‑ontwikkelaars: datacenters zien hun kosten oplopen naast reeds hoge uitgaven voor grafische processors en stroomvoorziening. Nvidia publiceert later die dag kwartaalcijfers; de ontwikkeling benadrukt hoe veranderingen in geheugenkeuze door grote spelers snel verstrekkende gevolgen kunnen hebben voor hardwarekosten en de AI‑infrastructuur wereldwijd.