Come la scommessa di Microsoft su Azure ha innescato una rivoluzione nell'intelligenza artificiale
Circa cinque anni fa, l’organizzazione di ricerca sull’intelligenza artificiale OpenAI ha lanciato a Microsoft l’idea audace di poter costruire sistemi di intelligenza artificiale che avrebbero cambiato per sempre il modo in cui le persone interagiscono con i computer.
All’epoca, nessuno sapeva che ciò avrebbe significato sistemi di intelligenza artificiale che creano immagini di qualunque cosa le persone descrivano in un linguaggio semplice o un chatbot per scrivere testi rap, abbozzare e-mail e pianificare interi menu basati su una manciata di parole. Ma una tecnologia come questa era possibile. Per costruirlo, OpenAI aveva bisogno di potenza di calcolo, su scala davvero enorme. Microsoft potrebbe fornirlo?
Microsoft ha dedicato decenni ai propri sforzi per sviluppare modelli di intelligenza artificiale che aiutino le persone a lavorare con la lingua in modo più efficiente, dal controllo ortografico automatico in Word agli strumenti di intelligenza artificiale che scrivono didascalie foto in PowerPoint e traducono in più di 100 lingue in Microsoft Translator. Con il miglioramento di queste funzionalità di intelligenza artificiale, l'azienda ha applicato la propria esperienza nell'elaborazione ad alte prestazioni per ampliare l'infrastruttura nel cloud di Azure che ha consentito ai clienti di utilizzare i propri strumenti di intelligenza artificiale per creare, addestrare e servire applicazioni di intelligenza artificiale personalizzate.
Quando i ricercatori di intelligenza artificiale hanno iniziato a utilizzare unità di elaborazione grafica più potenti, note come GPU, per gestire carichi di lavoro di intelligenza artificiale più complessi, hanno iniziato a intravedere il potenziale di modelli di intelligenza artificiale molto più grandi in grado di comprendere le sfumature così bene da essere in grado di affrontare molte attività linguistiche diverse contemporaneamente. . Ma questi modelli più grandi si sono scontrati rapidamente con i limiti delle risorse informatiche esistenti. Microsoft ha capito che tipo di infrastruttura di supercalcolo OpenAI stava chiedendo e la scala che sarebbe stata richiesta.
"Una delle cose che abbiamo imparato dalla ricerca è che quanto più grande è il modello, quanti più dati si hanno e quanto più tempo è possibile addestrare, tanto migliore è la precisione del modello", ha affermato Nidhi Chappell, responsabile del prodotto Microsoft per Azure High. -calcolo delle prestazioni e intelligenza artificiale. "Quindi, c'è stata sicuramente una forte spinta per addestrare modelli più grandi per un periodo di tempo più lungo, il che significa non solo che è necessario disporre dell'infrastruttura più grande, ma anche essere in grado di gestirla in modo affidabile per un lungo periodo di tempo. "
Nel 2019, Microsoft e OpenAI hanno stretto una partnership, che è stata estesa quest'anno, per collaborare sulle nuove tecnologie di supercalcolo AI di Azure che accelerano le scoperte nel campo dell'intelligenza artificiale, mantengono la promessa di modelli linguistici di grandi dimensioni e aiutano a garantire che i vantaggi dell'intelligenza artificiale siano ampiamente condivisi.
Le due società hanno iniziato a lavorare in stretta collaborazione per creare risorse di supercalcolo in Azure progettate e dedicate per consentire a OpenAI di addestrare una suite in espansione di modelli di intelligenza artificiale sempre più potenti. Questa infrastruttura comprendeva migliaia di GPU NVIDIA ottimizzate per l'intelligenza artificiale collegate tra loro in una rete ad alto throughput e bassa latenza basata sulle comunicazioni NVIDIA Quantum InfiniBand per l'elaborazione ad alte prestazioni.
La scala dell’infrastruttura di cloud computing di cui OpenAI aveva bisogno per addestrare i suoi modelli non aveva precedenti: cluster di GPU in rete esponenzialmente più grandi di quanto chiunque nel settore avesse tentato di costruire, ha osservato Phil Waymouth, un direttore senior di Microsoft responsabile delle partnership strategiche che ha contribuito a negoziare il occuparsi di OpenAI.
La decisione di Microsoft di collaborare con OpenAI era radicata nella convinzione che questa scala infrastrutturale senza precedenti avrebbe prodotto risultati – nuove funzionalità di intelligenza artificiale, un nuovo tipo di piattaforma di programmazione – che Microsoft avrebbe potuto trasformare in prodotti e servizi che offrissero vantaggi reali ai clienti, ha affermato Waymouth. Questa convinzione ha alimentato l'ambizione delle aziende di superare qualsiasi sfida tecnica per realizzarlo e di continuare a spingere i confini del supercalcolo AI.
"Il passaggio dalla ricerca su larga scala svolta nei laboratori all'industrializzazione dell'intelligenza artificiale ci ha permesso di ottenere i risultati che stiamo iniziando a vedere oggi", ha affermato.
Ciò include i risultati di ricerca in Bing che mettono insieme una vacanza da sogno, il chatbot in Viva Sales che redige e-mail di marketing, GitHub Copilot che trae contesto dal codice esistente degli sviluppatori di software per suggerire ulteriori righe di codice e funzioni, rimuovendo la fatica dalla programmazione del computer e Servizio Azure OpenAI, che fornisce l'accesso ai modelli linguistici di grandi dimensioni di OpenAI con le funzionalità di livello aziendale di Azure.
Indietro: Distretto meridionale dell'Indiana
Prossimo: Ecco perché l'Ucraina vuole il tedesco