Concezione

Raja Koduri, Intel: “Ponte Vecchio supera le GPU Nvidia su molti carichi di lavoro”

Due settimane fa, Intel ha annunciato diversi miliardi di euro di investimenti in Europa, in particolare in Francia nel campo dell’HPC e dell’IA. Raja Koduri, vicepresidente senior e direttore generale del gruppo Accelerated Computing Systems and Graphics di Intel, ha discusso le ultime tecnologie presentate.

Puoi tornare sugli investimenti HPC e AI annunciati da Intel in Europa il 15 marzo? Quali sono i punti chiave?

Raja Koduri: La conclusione è che questo è il nostro più grande investimento in ricerca e sviluppo nel calcolo ad alte prestazioni e nell’intelligenza artificiale al di fuori dei nostri siti di progettazione principali. Questo è molto importante perché questi due campi, HPC e AI, si stanno sviluppando a un ritmo molto veloce. La dimensione di questo mercato raggiungerà i 155 miliardi di dollari entro il 2026. È un mercato che sta crescendo molto rapidamente e sarà in grado di attrarre competenze molto avanzate in matematica, fisica e informatica, e quindi i migliori cervelli in Francia e in L’Europa è qualcosa di particolarmente eccitante per noi. Quindi non vediamo l’ora di entrare e sviluppare prodotti e tecnologie che aiuteranno Intel ad essere molto forte, l’Europa ad essere molto forte, perché HPC e AI hanno un impatto su tutti i settori: automobilistico, agricoltura, clima, scoperta di farmaci, energia, genomica, scienze della vita e applicazioni del metaverso.

Su HPC, quali sono i punti di forza di Intel contro gli acceleratori Nvidia?

Più dell’85% dei sistemi di elaborazione ad alte prestazioni nel mondo oggi sono basati su processori Xeon sulla parte CPU. Per quanto riguarda l’accelerazione, le GPU di Nvidia sono emerse come leader. È vero, Intel non è stata in questo mercato negli ultimi dieci anni. Ma quest’anno lanceremo Ponte Vecchio, la nostra prima GPU per data center. Di recente abbiamo dimostrato di battere la GPU di Nvidia su molti, molti carichi di lavoro HPC. Intel sta quindi entrando in questo mercato. E con questo investimento in Europa, abbiamo una tabella di marcia di 5 anni, aumentando le nostre capacità in quest’area ogni anno e superando Nvidia in questo campo. Questo è quindi l’obiettivo del centro.

Di fronte ad AMD, che negli ultimi anni ha notevolmente rafforzato la propria posizione sul mercato, quali sono i vostri punti di forza?

AMD ha posto molta enfasi sulla parte del datacenter. Quest’anno stiamo lanciando la nostra CPU Xeon per HPC con capacità di memoria a larghezza di banda elevata. Siamo gli unici con memoria a larghezza di banda elevata [ndlr : HBM, high bandwidth memory] E anche lì, al recente Investor Meeting, ho dimostrato che il nostro Xeon con HBM [ndlr : Xeon Sapphire Rapids + HBM] è significativamente più veloce del migliore di AMD [ndlr : Epyc Milan-X]. Quindi, con il Ponte Vecchio lato GPU e lo Xeon HBM lato CPU, siamo molto ben posizionati quest’anno per riconquistare la nostra leadership sia sul lato CPU che GPU del mercato HPC.

In che modo Intel accoppia i chip Xeon e le GPU per ottimizzare le prestazioni?

Le nostre CPU, come le nostre prossime Sapphire Rapids, le Xeon HBM, hanno già un’immensa potenza di calcolo. E ora, quando ricorriamo alla GPU, il software può sfruttare entrambi. Il nostro software utilizzerà capacità operative in virgola mobile, capacità operative intere e altri motori di spostamento dei dati sulla CPU e sulla GPU, il che porterà vantaggi al software in generale. Oltre a ciò, Intel ha anche pilotato lo standard CXL [ndlr : Compute Express Link]. E negli anni a venire, la CPU e la GPU comunicheranno molto più strettamente con accessi persistenti alla memoria e simili. Di recente abbiamo anche annunciato una nuova architettura chiamata Falcon Shores che combina CPU e GPU sullo stesso socket. Tutto questo va nella direzione di un’ottimizzazione congiunta di CPU e GPU da parte di Intel.

Per quanto riguarda il software, cosa offre Intel per aiutare gli sviluppatori a parallelizzare le loro applicazioni per la sua GPU?

Nel corso degli anni, Intel ha fornito molte librerie e strumenti per parallelizzare applicazioni per CPU, multithreading, ecc. Da 20 anni Intel è leader in questo campo. Per le GPU, abbiamo creato questa tecnologia chiamata oneAPI che è aperta, disponibile per tutti e funziona anche su Nvidia e AMD. Quello che fa oneAPI è prendere i 20 anni di lavoro di Intel sugli strumenti per la parallelizzazione, la programmazione parallela, la profilazione, il debug e portarli alle GPU per beneficiare di tutto il lavoro già svolto per le CPU. Quindi oneAPI è qui e sta guadagnando enorme popolarità. E uno dei nostri obiettivi con i nostri investimenti in Europa è far progredire una API, aumentare l’adozione, costruire più librerie per renderla più facile da usare e così via.

Sulle tecnologie di accelerazione dell’elaborazione dell’IA, cosa è già stato implementato e cosa deve ancora accadere?

Per quanto riguarda l’IA, sono impegnati almeno un corso di 20 anni e siamo ai primi 5 anni. Tutte le nozioni di base, come il deep learning di piccole reti a livello di singolo nodo, sono avvenute negli ultimi 5 anni. E il passo successivo, che tra l’altro è anche un’area prioritaria del nostro centro R&D europeo, è che i problemi dell’IA non si limitano a un nodo, né a 10 nodi ma si estendono a migliaia di nodi. Per questo abbiamo bisogno di trattamenti zettascale. Come costruiamo questi potenti computer per queste grandi reti di intelligenza artificiale in modo tale da poterli programmare in modo produttivo e molto efficiente? Ed è quello che non vediamo l’ora con queste nuove architetture come Falcon Shores e altre iniziative zettascale che abbiamo annunciato. In questo contesto, abbiamo anche menzionato la collaborazione con il Barcelona Supercomputing Center.

Per quanto riguarda la riduzione dei consumi energetici dei chip e dei sistemi di raffreddamento dei server, quali sono i progressi fatti da Intel?

Sugli aspetti dei consumi energetici, nell’ottica di zettascale, ci siamo posti l’obiettivo molto difficile di moltiplicare per mille le prestazioni nei prossimi 5 anni a parità di potenza elettrica. Stiamo esaminando 5 aree. Il primo è l’architettura del computer e le prestazioni per watt. Il secondo aspetto riguarda la memoria e il modo in cui spostiamo i dati tra diversi elementi computazionali. E oggigiorno la maggior parte dell’energia viene consumata per spostare i dati e non per i trattamenti stessi. Quindi, come possiamo ridurre la quantità di dati che spostiamo? È una grande opportunità. Il terzo aspetto, da lei citato, riguarda il raffrescamento termico e l’approvvigionamento energetico. Stiamo valutando diverse iniziative. E, in effetti, queste sono aree di interesse dei nostri Design Center europei. Il quarto aspetto è la prossima generazione di tecnologia a transistor che ci porterà molti vantaggi. E prevediamo anche il funzionamento a bassissima tensione di questi transistor per ottenere un’efficienza energetica o prestazioni per watt molto elevate. Tutte queste tecniche saranno oggetto di un progetto architettonico nei prossimi anni.

Quale ruolo per gli acceleratori di rete?

Sugli acceleratori IPU [ndlr : Infrastructure processing unit] e SmartNIC, abbiamo annunciato la nostra prima generazione di cui abbiamo dettagliato l’architettura. E abbiamo un track record pluriennale completo sulla nostra IPU che consideriamo una categoria molto importante. Non solo per HPC, ma anche per data center e edge computing.

About the author

michaelkorsoutlet

Leave a Comment