Apple è l’ultimo gigante a raggiungere l’intelligenza artificiale. Tim Cook lo aveva già detto molto tempo fa, che non avrebbe introdotto vagamente la sua azienda nell'era dell'intelligenza artificiale e che quando avessero avuto qualcosa di veramente interessante, lo avrebbero lanciato. Il momento arriverà alla fine di quest’anno e, come previsto, l'iPhone 16 e la sua nuova NPU per AI saranno i protagonisti. Un leak rivela qualche dato in più su ciò che la mela morsicata ha già preparato, e sembra davvero buono.
Da Taiwan le informazioni non si sono fatte attendere e sembra che l'isola abbia tutto quello che serve per avanzare varie rivendicazioni. In questo caso, Non si riferiscono solo al SoC per smartphonema anche al SoC che arriverà per i portatili, il che è davvero interessante.
iPhone 16 con SoC A18 Pro, una NPU che aumenterà significativamente i suoi core per l'IA
Le informazioni che arrivano dall'isola costituiscono un'affermazione e una voce allo stesso tempo. Sappiamo che le attuali NPU che Apple ha sul mercato non forniscono il TOP per avere ciò che Tim Cook desidera: l'intelligenza artificiale nel dispositivo.
Ciò significa che tutto rimane locale e i servizi non devono essere esternalizzati nel cloud, come fa ad esempio Google. La scusa è la privacy (come se esistesse in qualsiasi telefono attuale), la soluzione arriva, logicamente, dalla NPU.
Attualmente, negli smartphone della mela morsicata abbiamo 16 core nel loro Neural Engine (NPU) e, sebbene la sua potenza sia aumentata, abbiamo trasferito il suo numero di core dall'iPhone 12. Pertanto, le informazioni assicurano che Apple ha introdotto un molto Neural Engine migliorato, dove il numero di core aumenterà “in modo significativo”.
E, naturalmente, le virgolette qui sono ciò che è veramente determinante, perché non viene offerto un numero specifico, ma ecco che arriva la voce successiva.
Fino a 32 core negli smartphone e forse 64 nei laptop?
Questa è la voce. L'iPhone 16 avrà nella sua configurazione più alta per l'A18 Pro fino a 32 core nella sua NPU per AI, il che implicherà, come minimo, raddoppiare le prestazioni TOPS dell'attuale iPhone 15 Pro Max (35 TOPS).
Pertanto, dovremmo aspettarci prestazioni impressionanti da più di 70 TOP. Per darci un'idea, AMD con il Ryzen 8040 Hawk Point annuncia 16 TOP per il tuo Ryzen AI (NPU), dove se aggiungiamo CPU e GPU il numero totale ammonta a 39 TOP. Intel adesso con le offerte Meteor Lake 10 TOPS nella sua NPU e 34 in totale aggiungendo processore e grafica, ma con Lago Lunareil suo successore nel campo dei laptop, lo ha già dichiarato pubblicamente Moltiplicheranno la performance per tre.
Oppure, che è lo stesso, 30 TOPS puri per la NPU e sicuramente quasi 100 TOPS se aggiungiamo CPU + GPU. Il problema è che non sappiamo se Apple conta solo le prestazioni della sua NPU o aggiunge il resto per dare i valori.
La polemica con TOPS
In effetti, ci sono contraddizioni nella scheda tecnica di Apple riguardo al suo Neural Engine:
Durante l'addestramento dei modelli di machine learning, gli sviluppatori traggono vantaggio dalla formazione accelerata dalla GPU con PyTorch E TensorFlow sfruttando il backend Metal Performance Shaders (MPS). Per distribuire modelli addestrati sui dispositivi Apple, utilizzano coremltools lo strumento di conversione unificato open source di Apple, per convertire i tuoi modelli PyTorch e TensorFlow preferiti nel formato del pacchetto di modelli Core ML.
Quindi Core ML combina perfettamente CPU, GPU e ANE (Apple Neural Engine) (se disponibile) per creare il piano di esecuzione ibrido più efficiente che exsfrutta tutti i motori disponibili su un dato dispositivo. Consente a un'ampia gamma di implementazioni della stessa architettura di modello di trarre vantaggio da ANE anche se tutte le esecuzioni non possono avvenire lì a causa delle idiosincrasie delle diverse implementazioni.
Questo flusso di lavoro è progettato per semplificare agli sviluppatori la distribuzione di modelli sui dispositivi Apple senza doversi preoccupare delle funzionalità di un particolare dispositivo o implementazione.
Sebbene la flessibilità di implementazione offerta dall'esecuzione ibrida sia semplice e potente, possiamo scambiare questa flessibilità a favore di un'implementazione particolare e basata su principi che sfrutta deliberatamente ANE, con conseguente aumento significativo delle prestazioni e riduzione del consumo di memoria.
Altri vantaggi includono mitigare il sovraccarico del trasferimento di contesto tra i motori e aprire la CPU e la GPU per eseguire carichi di lavoro non ML mentre ANE esegue i carichi di lavoro ML più impegnativi.
Apple aggiungerebbe tutte le prestazioni dell'iPhone 16 per giocare il suo gioco di marketing con la NPU per l'intelligenza artificiale
Ciò che implica è che con Core ML si utilizza CPU+GPU+NPU, ma che in casi particolari per mitigare il sovraccarico dei trasferimenti tra motori, la CPU e la GPU possono essere fatte eseguire attività comuni e ANE le attività ML.
Dobbiamo quindi capire da quanto scritto che Apple aggiunge CPU+GPU+NPU quando dà la potenza in TOPS. Infine, se Apple raddoppiasse i Core nella sua NPU, farebbe un salto di qualità da gigante e suggerisce la difficoltà che iOS 18 avrà in termini di AI che includerà e quanto sia ambizioso il progetto.
Il problema è che il nodo TSMC disponibile non avrà una riduzione di area sufficiente per evitare che la dimensione finale del SoC sia maggiore, e questo significherà anche che l'A18 Pro dovrà essere più costoso. La soluzione potrebbe essere quella di segmentare la NPU in diversi numeri di core, lasciando ad esempio i presunti 32 core per l'iPhone 16 Pro Max.