Diversi giorni dopo che SK Hynix presenterà la sua versione migliorata della memoria ad alta larghezza di banda di terza generazione, ci sono già informazioni cheE NVIDIA utilizzerà HBM3E per una futura GPU per il mercato HPC o High Performance Computing. Pertanto, a causa dei tempi, tutto indica che potrebbero andare a Blackwell, il loro chip di nuova generazione che avrebbe un lancio previsto nel 2024.
Sebbene SK Hynix non sarebbe pronta per la produzione di massa del suo HBM3E, che può raggiungere fino a 8 Gbps di larghezza di banda per pin, ciò che l’azienda sudcoreana cercherebbe sarebbe di ripetere nuovamente con NVIDIA. Ed è che le vendite dell’H100 sono salite alle stelle negli ultimi mesi e la concorrenza non viene lasciata indietro, quindi se vogliono continuare ad essere il fornitore di NVIDIA devono fornire chip di memoria sempre più veloci e la loro variante esclusiva e di terza generazione Il potenziamento HBM sembra essere il candidato giusto.
NVIDIA è interessata all’HBM3E per la sua prossima GPU, ma non è quello che pensi
L’attuale memoria HBM3, che possiamo trovare nella NVIDIA H100, funziona a 6,4 Gbps, quindi il salto alla sua versione migliorata con 8 Gbps non sembra molto elevato. Ma, d’altra parte, le prestazioni di questi sistemi dipendono fortemente dalla larghezza di banda. Pertanto, cercheranno di cercare il ricordo più veloce del momento ed è sorprendente che la gente di Jensen Huang abbia deciso di chiedergli, secondo le informazioni di diversi giornali sudcoreani, campioni da SK Hynix a sposare l’HBM3E con NVIDIA Blackwello più specificamente, con il chip B100.
Vale a dire, non parleremmo del successore dell’RTX 4090, ma del successore dell’H100, e, quindi, della GPU che andrà ai server. Un mercato in cui NVIDIA può optare per un’infrastruttura più costosa e in cui vengono utilizzati progetti più complessi. Anche se non confermato, tutto indica che B100 potrebbe essere una GPU multi-chip e avere più di 6 stack di memoria HBM3E.
Anche se al momento non sappiamo quale sarebbe la configurazione, non dimentichiamo che TSMC può già realizzare sistemi con 8 stack di questo tipo di memoria e case come Instinct MI250X e MI300A/MI300X di AMD a cui facciamo riferimento, ma, allo allo stesso tempo, entrambi sono sistemi multichip. Non dimentichiamoci che NVIDIA deve ancora lanciare una GPU composta da più parti diverse, nonostante abbiano già parlato di questa possibilità, non una, ma più volte.
Cosa possiamo aspettarci da NVIDIA per il mercato HPC nel 2024?
Ebbene, al momento si sa poco, al recente Computex si è parlato di Blackwell come Hopper Next e di come si aspettino un nuovo incremento prestazionale per il prossimo anno, niente di nuovo sotto il sole. Anche se, allo stesso tempo, non possiamo dimenticare che buona parte delle tecnologie che sono state utilizzate per sviluppare i nuovi processori AMD HPC sono di TSMC e NVIDIA può trarne vantaggio.
Per ora, il design più probabile è quello soprannominato dagli ingegneri dell’azienda COPA o Composable On-Package Architecture che non è altro che un altro modo di chiamare le GPU suddivise in diversi chip come hanno già fatto AMD e Intel. Tra i principali miglioramenti dell’architettura è previsto il utilizzo della cache di terzo livello, così come aumentando il numero di stack di memoria HBM da 6 a 10quest’ultimo se i diagrammi di alcuni brevetti NVIDIA come quello che accompagna questa sezione corrispondono al progetto finale.
In tale configurazione, il futuro chip di NVIDIA con HBM3E nel brevetto potrebbe raggiungere 10 TB/s di velocità di larghezza di banda, una cifra, almeno nulla di trascurabile. Ovviamente al momento non conosciamo la configurazione di questa potente GPU per quanto riguarda il numero di SM. In ogni caso, dobbiamo ancora arrivare al 2024 per saperlo definitivamente.