Che Intel stia avendo problemi, problemi seri potremmo dire, con Sapphire Rapids è un fatto che l’azienda ha indirettamente riconosciuto con un nuovo ritardo. La domanda più pertinente è la più ovvia, vale il ritardo rispetto ad AMD EPYC? Ebbene, non è affatto chiaro, visto che fin dall’inizio competono in condizioni inferiori, ma avranno qualcosa che potrà essere distintivo e fare la differenza nel loro settore di nicchia. Insieme a Sapphire Rapids Il regno delle GPU finisce? AI per server di fascia bassa?
Senza dubbio, Sapphire Rapids è uno dei cambiamenti più complessi che Intel ha apportato nella storia dei suoi processori per server, e di gran lunga. Ma quello che ha affermato il suo vicepresidente e direttore generale di Intelligenza Artificiale e Analisi non è sprecato e può essere considerato in diversi modi. In ogni caso, sembra che Intel stia puntando sulle GPU attraverso le sue CPU.
Intel Sapphire Rapids, una CPU può battere una GPU nell’IA?
Le schede grafiche, in particolare le loro GPU, sono l’attuale enclave per AI e DL ad alte prestazioni. Per questo Intel ha voluto entrare nel mondo di questi componenti lanciando la sua architettura Xe con le relative microarchitetture. Ma allo stesso tempo, sembra che le loro nuove CPU sorprenderanno e, come hanno detto dall’azienda, vogliono cambiare il gioco.
Dopo oltre 20 anni a capo della sua divisione, Wei Li ha rilasciato alcune dichiarazioni incendiarie affermando in un’intervista che le CPU Sapphire Rapids sono l’equivalente di una CPU tradizionale con GPU integrata dove il processore ottiene quasi tutto il capacità di accelerazione all’avanguardia per l’IA.
Ovviamente, viene suggerito che aziende e governi potrebbero fare a meno, almeno in parte, delle GPU di fascia bassa per AI e DL, perché Sapphire Rapids potrebbe assumere compiti più o meno complessi. Cosa c’è di vero qui dentro?
Tutto ruota attorno a diversi miglioramenti chiave. Il primo e più ovvio è l’uso dell’architettura MCM dove i quattro muoiono (EMI) che sono implementati nel più grande dei risultati Xeon 60 core con microarchitettura Baia d’Oro esattamente lo stesso utilizzato dal Core 12 per i PC attuali.
Le quattro tessere sono simmetriche e collegate da 4 collegamenti UPI x24 a 16 GT/È anche supportato da CLX 1.1 per velocizzare la memoria. Questo, la memoria e il suo BMI, hanno il supporto per DDR5 e integra nel dado HBM2e come chiplet allegati (non in tutti i modelli), che insieme alla nuova cache, che nel caso dell’L3 raggiungerà i 112.5 MB, ci offre un perfetto terreno di coltura per la base di tutte le argomentazioni di Wei Li.
Nuove funzionalità e istruzioni della GPU, ora nella CPU
Ed è che Intel ha incluso nelle sue istruzioni AMX, AiA, FP16 e CLDEMOTE, senza contare su AVX512_FP16 di media precisione. Ciò consente di avviare carichi di lavoro AI insieme a DLBoost e AMX per eseguire l’accelerazione delle attività per il Deep Learning e l’Intelligenza Artificiale. Questo in aggiunta ai seguenti cambiamenti strutturali nell’architettura:
- Lunghezza di decodifica da 16B a 32B
- Decodifica da 4 larghe a 6 largo
- Da 5K si passa a 12K sul ramo
- La cache salta da 2.25K a 4Kμop
- Un salto da 5 a 6 incarichi
- Dalle 10 si passa a 12 porte di esecuzione
- Passando da 352 buffer di riorganizzazione delle voci di registro a 512
Per gestire l’aumento del flusso di dati, Intel ha anche aumentato la cache su Sapphire Rapids vs. Alder Lake pur avendo la stessa microarchitettura, passando così da 1,25 MB L2 a 2 MB dove anche questo è privato, non come il L3 che è accessibile a qualsiasi thread o all’intero core.