intel-&-ia:-leadership-nell'hardware-ai-per-il-2025-|-sicurezza.net

Intel & IA: leadership nell'hardware AI per il 2025 | sicurezza.net

Intel & IA: la vasta gamma di CPU, GPU e acceleratori AI del gigante dei chip completa il suo impegno per un ecosistema AI aperto. Intel ha definito una tabella di marcia per stabilire la leadership di prodotto nel mercato dei processori entro il 2025, insieme all’obiettivo di democratizzare l’IA con una gamma consolidata di hardware e software ottimizzati per l’IA.

Piano di Intel per raggiungere la leadership

Il fulcro della sua proposta è una gamma diversificata di prodotti che comprende unità di elaborazione centrale (CPU), unità di elaborazione grafica (GPU) e architettura AI dedicata, oltre a miglioramenti del software open-source.

Le aziende possono aspettarsi di beneficiare immediatamente delle CPU Xeon di quarta generazioneSapphire Rapids“, mentre la quinta generazione di Xeon con il nome in codice “Emerald Rapids” è prevista per il quarto trimestre del 2023. Seguiranno, nel 2024, due processori denominati Granite Rapids e Sierra Forest

I Sapphire Rapids possono fornire prestazioni fino a dieci volte superiori rispetto alle generazioni precedenti. I risultati dei test interni hanno inoltre dimostrato che uno Xeon di quarta generazione a 48 core ha fornito prestazioni quattro volte superiori rispetto a un AMD EPYC a 48 core per una serie di benchmark di imaging e linguaggio AI. 

Con Granite Rapids e Sierra Forest, Intel affronterà le limitazioni attuali per l’IA e i carichi di lavoro di calcolo ad alte prestazioni, come la larghezza di banda della memoria, con una capacità di larghezza di banda della memoria di 1,5 TB e un aumento della larghezza di banda di picco dell’83% rispetto alle generazioni attuali.

Inoltre, Intel sta concentrando lo sviluppo di GPU e FPGA (field programmable gate array) per soddisfare le richieste di formazione di modelli linguistici di grandi dimensioni, soprattutto attraverso i chip Intel Max e Gaudi.

La società ha dichiarato che Gaudi 2 ha dimostrato prestazioni di inferenza e addestramento del deep learning due volte superiori a quelle delle GPU più diffuse.

Nel corso del tempo, Intel intende riunire i suoi portafogli di acceleratori GPU e Gaudi AI per consentire agli sviluppatori di eseguire software su tutte le architetture.

Piano per un ecosistema AI aperto

Oltre ai risultati e ai piani per l’hardware, l’azienda ha dichiarato di voler conquistare e democratizzare il mercato dell’IA attraverso lo sviluppo e la collaborazione del software.

Sviluppo del software IA: Intel con Hugging Face

Con 6,2 milioni di sviluppatori attivi nella sua comunità e il 64% degli sviluppatori di IA che utilizzano gli strumenti Intel, il suo ecosistema dispone già di solide basi per un ulteriore sviluppo dell’IA.

Intel ha citato il suo recente lavoro con Hugging Face, che ha reso possibile il LLM BLOOMZ da 176 miliardi di parametri attraverso la sua architettura Gaudi2. Si tratta di una versione raffinata di BLOOM, un modello di testo in grado di elaborare 46 lingue e 13 linguaggi di programmazione, disponibile anche in un modello leggero da 7 miliardi di parametri.

Régis Pierrard, ingegnere dell’apprendimento automatico presso Hugging Face, ha scritto:

Per il checkpoint da 176 miliardi di parametri, Gaudi2 è 1,2 volte più veloce di A100 80GB.
Anche i checkpoint più piccoli presentano risultati interessanti. Gaudi2 è 3 volte più veloce di A100 per BLOOMZ-7B! È anche interessante notare che riesce a beneficiare del parallelismo dei modelli, mentre A100 è più veloce su un singolo dispositivo.

Hugging Face ha notato che l’acceleratore Gaudi di prima generazione offre anche una proposta di prezzo migliore rispetto ad A100, con un’istanza Gaudi AWS che costa 13 dollari all’ora rispetto ai 30 dollari all’ora di Nvidia. Intel non ha fornito parametri di riferimento per le prestazioni di Gaudi rispetto a quelle di un H100, il successore dell’A100 che è uno dei motivi per cui le grandi aziende tecnologiche scelgono Nvidia per l’IA. Ma mettere a confronto le GPU di Nvidia – da tempo considerate le migliori sul mercato – con le proprie dimostra che Intel è sicura di poter realizzare e superare le aspettative degli azionisti quando si tratta di dominare il mercato entro il 2025.

Collaborazione del software con Hugging Face

Nell’ambito della collaborazione con Hugging Face, lo Xeon di quarta generazione è stato utilizzato per migliorare di oltre tre volte la velocità del modello open source di generazione di immagini Stable Diffusion. L’azienda ha affermato il suo impegno a continuare a contribuire alle ottimizzazioni software upstream di framework come TensorFlow e PyTorch, essendo uno dei primi tre contributori di quest’ultimo.

Per aprire ulteriormente l’ecosistema dell’IA, Intel sta aggiungendo altre funzionalità a oneAPI, il suo modello di programmazione multi-architettura che offre un’alternativa al livello software CUDA di Nvidia. Una di queste migliora l’accesso a SYCL, un modello di programmazione open source e royalty-free basato su C++, molto utilizzato per accedere agli acceleratori hardware. SYCLomatic di Intel può essere utilizzato per migrare automaticamente il codice sorgente CUDA, liberando i programmatori da vincoli di tempo che altrimenti potrebbero bloccarli nell’architettura di Nvidia.

Greg Lavender, CTO e GM del gruppo software e tecnologie avanzate di Intel, ha dichiarato:

Siamo convinti che il settore trarrà beneficio da un linguaggio di programmazione aperto e standardizzato a cui tutti possano contribuire e collaborare e che non sia vincolato a un particolare fornitore, in modo da potersi evolvere organicamente in base alla comunità e alle esigenze del pubblico. Il desiderio di un’alternativa aperta, multi-vendor e multi-architettura a CUDA non sta diminuendo. Fondamentalmente, crediamo che l’innovazione possa fiorire al meglio in un campo aperto, piuttosto che all’ombra di un giardino recintato.

Related Posts

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *