Samsung levert nieuwste HBM4-chips om achterstand in AI-race in te lopen
In dit artikel:
Samsung Electronics heeft op 12 februari vanuit Seoel aangekondigd dat het is begonnen met het uitleveren van zijn nieuwe high-bandwidth-geheugenchips HBM4 aan niet-bij naam genoemde klanten. De stap komt terwijl de wereldwijde bouw van AI-datacenters de vraag naar HBM‑DRAM — essentieel voor het verwerken van enorme AI-datasets — scherp opdreef en Samsung probeert terrein goed te maken bij leveranciers aan onder meer Nvidia. De HBM4-chips van Samsung bieden volgens het bedrijf een constante doorvoersnelheid van 11,7 Gbps, ongeveer 22% sneller dan de voorganger HBM3E, met een piek tot 13 Gbps om databottlenecks te verminderen. Samsung verwacht in de tweede helft van het jaar monsters van de volgende generatie HBM4E te leveren. De aankondiging liet het aandeel Samsung met 6,4% stijgen. Concurrenten SK Hynix en Micron melden ook massaproductie en klantleveringen van HBM4 en benadrukken inspanningen om hoge opbrengsten en marktaandeel te behouden.