La crescente domanda di memorie ad alta larghezza di banda (HBM) sta spingendo Nvidia a cercare di accelerare le consegne di HBM4 da Samsung.

Questo sforzo evidenzia la pressione sul mercato delle memorie, essenziali per alimentare i piรน recenti acceleratori di intelligenza artificiale. La competizione per assicurarsi le forniture di HBM รจ destinata ad aumentare, con implicazioni per i costi e la disponibilitร  delle piattaforme di calcolo ad alte prestazioni.

Contesto del mercato HBM

Le memorie HBM sono fondamentali per le GPU e gli acceleratori AI di ultima generazione, poichรฉ offrono una larghezza di banda significativamente superiore rispetto alle tradizionali memorie GDDR. Questa caratteristica รจ cruciale per gestire i carichi di lavoro di training e inference dei modelli di linguaggio di grandi dimensioni (LLM). La capacitร  di Nvidia di ottenere consegne rapide di HBM4 sarร  un fattore chiave per la sua capacitร  di soddisfare la domanda del mercato e mantenere la sua posizione di leadership nel settore dell'intelligenza artificiale.