Microsoft presenta chip AI, rack e raffreddamento a liquido per data center personalizzati
Oggi alle Microsoft Ignitel'azienda ha presentato due chip progettati su misura e sistemi integrati risultanti da un processo in più fasi per testare meticolosamente il suo silicio prodotto in casa, il frutto di un metodo che gli ingegneri dell'azienda stanno perfezionando in segreto da anni, come rivelato sul suo blog Source.
L'obiettivo finale è un sistema hardware Azure che offra la massima flessibilità e possa anche essere ottimizzato in termini di potenza, prestazioni, sostenibilità o costi, ha affermato Rani Borkar, vicepresidente aziendale per Azure Hardware Systems and Infrastructure (AHSI).
“Il software è il nostro punto di forza, ma francamente siamo un’azienda di sistemi. In Microsoft stiamo coprogettando e ottimizzando insieme hardware e software in modo che uno più uno sia maggiore di due”, ha affermato Borkar. “Abbiamo visibilità sull’intero stack e il silicio è solo uno degli ingredienti”.
Le patatine
Il chip Microsoft Azure Maia AI Accelerator di recente introduzione è ottimizzato per le attività di intelligenza artificiale (AI) e IA generativa. Da parte sua, la CPU Microsoft Azure Cobalt è un chip processore basato su Arm progettato per eseguire carichi di lavoro di elaborazione generici su Microsoft Cloud.
Microsoft ha affermato che i nuovi chip inizieranno ad apparire all’inizio del prossimo anno nei suoi data center, inizialmente alimentando servizi come Microsoft Copilot, un assistente AI, e il suo servizio Azure OpenAI. Si uniranno a ampliamento della gamma di prodotti da parte dei partner industriali dell'azienda rivolto ai clienti desiderosi di sfruttare le ultime novità innovazioni tecnologiche nel cloud e nell'intelligenza artificiale.
“Microsoft sta costruendo l'infrastruttura per supportare l'innovazione dell'intelligenza artificiale e stiamo reimmaginando ogni aspetto dei nostri data center per soddisfare le esigenze dei nostri clienti”, ha osservato Scott Guthrie, vicepresidente esecutivo del gruppo Cloud + AI di Microsoft.
Guthrie ha sottolineato: “Nella scala in cui operiamo, è importante per noi ottimizzare e integrare ogni livello dello stack infrastrutturale per massimizzare le prestazioni, diversificare la nostra catena di fornitura e offrire ai clienti la scelta dell'infrastruttura”.
Microsoft Azure Maia 100 AI Accelerator è il primo chip progettato da Microsoft per l'addestramento e l'inferenza di modelli linguistici di grandi dimensioni nel cloud Microsoft. Il chip alimenterà alcuni dei più grandi carichi di lavoro IA interni in esecuzione su Microsoft Azure.
Inoltre, la società ha affermato che il suo partner OpenAI sta fornendo feedback sulla piattaforma Azure Maia su come i suoi carichi di lavoro vengono eseguiti su un’infrastruttura su misura per i suoi modelli linguistici di grandi dimensioni, che aiuterà a informare i futuri progetti Microsoft.
“Fin dalla prima collaborazione con Microsoft, abbiamo collaborato per co-progettare l'infrastruttura AI di Azure a ogni livello per i nostri modelli e le esigenze di formazione senza precedenti”, ha spiegato Sam Altman, CEO di OpenAI.
Altman ha aggiunto: “Siamo rimasti entusiasti quando Microsoft ha condiviso per la prima volta i progetti per il chip Maia e abbiamo lavorato insieme per perfezionarlo e testarlo con i nostri modelli. L’architettura AI end-to-end di Azure, ora ottimizzata fino al silicio con Maia, apre la strada alla formazione di modelli più capaci e a renderli più economici per i nostri clienti”.
L'acceleratore AI Maia 100 è stato progettato specificamente per l'uso con lo stack hardware di Azure, ha sottolineato Brian Harry, un tecnico Microsoft alla guida del team Azure Maia.
Questa integrazione verticale – l’allineamento della progettazione dei chip con l’infrastruttura AI più ampia progettata pensando ai carichi di lavoro di Microsoft – può produrre enormi vantaggi in termini di prestazioni ed efficienza, ha affermato Harry. “Azure Maia è stato progettato specificamente per l'intelligenza artificiale e per ottenere il massimo utilizzo assoluto dell'hardware”, ha aggiunto.
È importante sottolineare che, secondo Wes McCullough, vicepresidente aziendale per lo sviluppo dei prodotti hardware di Microsoft, la nuova CPU Cobalt 100 di Microsoft è costruita su un'architettura Arm che incorpora un nuovo tipo di design di chip ad alta efficienza energetica, ottimizzato per offrire maggiore efficienza e prestazioni in modalità cloud nativa. offerte.
La scelta della tecnologia Arm è stata un elemento chiave nell'obiettivo di sostenibilità di Microsoft, ha affermato McCullogh, aggiungendo che l'azienda mira a ottimizzare le “prestazioni per watt” in tutti i suoi data center, il che significa essenzialmente ottenere più potenza di calcolo per ogni unità di energia consumata.
“L'architettura e l'implementazione sono progettate pensando all'efficienza energetica”, ha affermato. “Stiamo sfruttando nel modo più efficiente i transistor sul silicio. Moltiplicando questi miglioramenti in termini di efficienza nei server in tutti i nostri data center, si ottiene un numero piuttosto elevato.”
Invia le GPU NVIDIA
Per integrare i suoi sforzi nel settore del silicio personalizzato, Microsoft ha affermato che sta anche espandendo le sue partnership industriali per fornire più opzioni infrastrutturali ai clienti.
Ad esempio, l'azienda ha lanciato un'anteprima del suo nuovo Serie di macchine virtuali NC H100 v5costruito per GPU NVIDIA H100 Tensor Coreoffrendo maggiori prestazioni, affidabilità ed efficienza per l'addestramento con intelligenza artificiale di fascia media e l'inferenza con intelligenza artificiale generativa.
Microsoft ha anche detto che aggiungerà l'ultima versione GPU NVIDIA H200 Tensor Core alla sua flotta il prossimo anno per supportare l'inferenza di modelli più ampi senza aumento della latenza.
Nuovi rack con un lato di raffreddamento a liquido
Nel frattempo, non esistevano rack per ospitare i requisiti specifici delle schede server Maia 100, quindi Microsoft li ha costruiti da zero.
Questi nuovi rack sono più larghi di quelli che solitamente si trovano nei data center dell'azienda. Quel design espanso fornisce ampio spazio sia per i cavi di alimentazione che per quelli di rete, ha affermato, essenziale per le esigenze uniche dei carichi di lavoro AI.
Come debitamente notato dal blog di Microsoft, tali attività di intelligenza artificiale comportano intense richieste di calcolo che consumano più energia, e i tradizionali metodi di raffreddamento ad aria spesso non sono all'altezza di questi chip ad alte prestazioni. Come tale, raffreddamento a liquido l’utilizzo di fluidi circolanti per dissipare il calore è emersa come la soluzione industriale preferita per alleviare tali sfide termiche, garantendo che i chip funzionino in modo efficiente senza surriscaldarsi.
Ma gli attuali data center di Microsoft non sono stati progettati per grandi refrigeratori di liquidi. Come soluzione alternativa, l'azienda ha sviluppato un elemento “sidekick” che si trova accanto al rack Maia 100.
Il funzionamento dell'assistente è analogo al funzionamento del radiatore di un'auto. Il liquido freddo scorre dal supporto alle piastre fredde fissate alla superficie delle patatine Maia 100. Ciascuna piastra è dotata di canali attraverso i quali circola il liquido per assorbire e trasportare il calore.
Questo fluisce verso il sidekick, che rimuove il calore dal liquido e lo rimanda al rack per assorbirne altro, in un processo circolare. McCullough di Microsoft ha affermato che il design in tandem di rack e sidekick sottolinea il valore di un approccio sistemico all'infrastruttura.
“Controllando ogni aspetto – dall'etica a basso consumo del chip Cobalt 100 alle complessità del raffreddamento del data center – Microsoft può orchestrare un'interazione armoniosa tra ciascun componente, assicurando che il tutto sia effettivamente maggiore della somma delle sue parti nel ridurre impatto ambientale”, ha aggiunto.
Il miglior set di opzioni
Prima del 2016, la maggior parte dei livelli del cloud Microsoft venivano acquistati già pronti, ha osservato Pat Stemen, partner program manager del team AHSI dell'azienda. Poi, l'azienda ha iniziato a costruire su misura i propri server e rack, per ridurre al meglio i costi e offrire al contempo un'esperienza cliente più coerente, prima che, nel tempo, il silicio diventasse il principale pezzo mancante del sistema.
Gli annunci di oggi contribuiscono notevolmente a colmare questo divario. L'architettura in silicio presentata oggi consente a Microsoft non solo di migliorare l'efficienza di raffreddamento, ma anche di ottimizzare l'uso delle attuali risorse del data center, massimizzando la capacità del server all'interno del suo ingombro esistente, ha affermato la società.
Nel frattempo, Stemen ha osservato che Microsoft ha condiviso con i suoi partner del settore le scoperte di progettazione raccolte dal suo rack personalizzato, che può essere utilizzato indipendentemente dal pezzo di silicio che si trova all'interno.
“Tutte le cose che costruiamo, siano esse infrastrutture, software o firmware, possiamo sfruttarle sia che utilizziamo i nostri chip o quelli dei nostri partner industriali”, ha affermato. “Questa è una scelta che il cliente deve fare e noi stiamo cercando di fornire loro la migliore serie di opzioni, sia che si tratti di prestazioni, costi o qualsiasi altra dimensione a cui tengono.”
Tieni il passo con il mondo in rapida evoluzione dei data center e del cloud computing connettendoti con Data Center Frontier su LinkedInseguendoci su X/Twitter E Facebooke iscrivendoti alla nostra newsletter settimanale utilizzando il modulo sottostante.