banner
Centro notizie
L'azienda è alla ricerca di candidati di prim'ordine.

Il nuovo chip AI di Microsoft non rappresenta una minaccia per Nvidia, ma il crescente LLM ha bisogno di un silicio personalizzato

Sep 30, 2023

Unisciti ai massimi dirigenti a San Francisco l'11 e il 12 luglio per scoprire come i leader stanno integrando e ottimizzando gli investimenti nell'intelligenza artificiale per il successo. Saperne di più

Microsoft sta sviluppando un nuovo chip di intelligenza artificiale (AI), nome in codice interno Athena, già nel 2019, secondo quanto riportato oggi da The Information. L’azienda potrebbe rendere Athena ampiamente disponibile per l’uso all’interno dell’azienda stessa e di OpenAI già dal prossimo anno.

Gli esperti dicono che Nvidia non sarà minacciata da queste mosse, ma segnalano la necessità per gli hyperscaler di sviluppare il proprio silicio personalizzato.

Il chip, come quelli sviluppati internamente da Google (TPU) e Amazon (architetture di processori Trainium e Inferentia), è progettato per gestire l'addestramento LLM (Large Language Model). Ciò è essenziale perché la portata dei modelli avanzati di intelligenza artificiale generativa sta crescendo più rapidamente delle capacità di calcolo necessarie per addestrarli, ha dichiarato via e-mail a VentureBeat l’analista di Gartner Chirag Dekate.

Secondo John Peddie Research, Nvidia è di gran lunga leader di mercato quando si tratta di fornire chip AI, con una quota di mercato di circa l’88%. Le aziende stanno gareggiando solo per riservarsi l’accesso alle GPU A100 e H100 di fascia alta che costano decine di migliaia di dollari ciascuna, causando quella che potrebbe essere descritta come una crisi delle GPU.

Trasforma il 2023

Unisciti a noi a San Francisco l'11 e il 12 luglio, dove i massimi dirigenti condivideranno come hanno integrato e ottimizzato gli investimenti nell'intelligenza artificiale per raggiungere il successo ed evitare le insidie ​​​​comuni.

"I modelli di intelligenza artificiale generativa all'avanguardia utilizzano ora centinaia di miliardi di parametri che richiedono capacità computazionali su scala exa", ha spiegato. "Con modelli di prossima generazione che spaziano in trilioni di parametri, non sorprende che i principali innovatori tecnologici stiano esplorando diversi acceleratori computazionali per accelerare la formazione riducendo al tempo stesso i tempi e i costi della formazione stessa."

Mentre Microsoft cerca di accelerare la sua strategia di intelligenza artificiale generativa tagliando i costi, è logico che l’azienda sviluppi una strategia differenziata e personalizzata di accelerazione dell’intelligenza artificiale, ha aggiunto, che “potrebbe aiutarli a realizzare economie di scala dirompenti oltre ciò che è possibile utilizzando i tradizionali approcci tecnologici mercificati. "

La necessità di accelerazione si applica, soprattutto, ai chip AI che supportano l’inferenza dell’apprendimento automatico, ovvero quando un modello viene ridotto a un insieme di pesi che quindi utilizzano dati in tempo reale per produrre risultati fruibili. L'infrastruttura di calcolo viene utilizzata per l'inferenza ogni volta che ChatGPT genera risposte a input in linguaggio naturale, ad esempio.

Nvidia produce chip AI molto potenti e generici e offre la sua piattaforma di elaborazione parallela CUDA (e i suoi derivati) come un modo per fare formazione ML specifica, ha affermato l'analista Jack Gold, di J Gold Associates, in un'e-mail a VentureBeat. Ma l’inferenza generalmente richiede meno prestazioni, ha spiegato, e gli hyperscaler vedono un modo per influenzare anche le esigenze di inferenza dei loro clienti con silicio personalizzato.

"L'inferenza alla fine sarà un mercato molto più ampio di quello del machine learning, quindi è importante che tutti i fornitori offrano prodotti qui", ha affermato.

Gold ha affermato di non vedere Athena di Microsoft come una minaccia per il ruolo di Nvidia nell'intelligenza artificiale/ML, dove ha dominato da quando l'azienda ha contribuito ad alimentare la "rivoluzione" del deep learning di dieci anni fa; costruito una potente strategia di piattaforma e un approccio incentrato sul software; e ha visto le sue azioni aumentare in un’era di intelligenza artificiale generativa basata su GPU.

"Poiché le esigenze si espandono e anche la diversità di utilizzo si espande, è importante per Microsoft e gli altri hyperscaler perseguire le proprie versioni ottimizzate di chip AI per le proprie architetture e algoritmi ottimizzati (non specifici per CUDA)", ha affermato.

Si tratta di costi operativi del cloud, ha spiegato, ma anche di fornire opzioni a basso costo per diversi clienti che potrebbero non aver bisogno o non volere l'opzione Nvidia ad alto costo. "Mi aspetto che tutti gli hyperscaler continuino a sviluppare il proprio silicio, non solo per competere con Nvidia, ma anche con Intel nel cloud computing generico."