Buongiorno cari lettori, oggi vi andremo a parlare del supercomputer che è stato costruito da Meta.
Il conglomerato di social media, Meta è l’ultima azienda tecnologica a costruire un “supercomputer AI”, un computer ad alta velocità progettato specificamente per addestrare i sistemi di apprendimento automatico. La società afferma che il suo nuovo AI Research SuperCluster, o RSC, è già tra le macchine più veloci del suo tipo e, una volta completato a metà del 2022, sarà il più veloce al mondo.
“Meta ha sviluppato quello che riteniamo sia il supercomputer AI più veloce del mondo”, ha dichiarato Mark Zuckerberg, CEO di Meta. “Lo chiamiamo RSC per AI Research SuperCluster e sarà completato entro la fine dell’anno”.
La notizia dimostra l’assoluta centralità della ricerca sull’IA per aziende come Meta. Rivali come Microsoft e Nvidia hanno già annunciato i propri “supercomputer AI”, che sono leggermente diversi da quelli che consideriamo normali supercomputer. RSC verrà utilizzato per addestrare una gamma di sistemi nelle attività di Meta: dagli algoritmi di moderazione dei contenuti utilizzati per rilevare l’incitamento all’odio su Facebook e Instagram alle funzionalità di realtà aumentata che un giorno saranno disponibili nel futuro hardware AR dell’azienda. E sì, Meta afferma che RSC sarà utilizzato per progettare esperienze per il metaverso, il marchio insistente dell’azienda per una serie interconnessa di spazi virtuali, dagli uffici alle arene online.
“RSC aiuterà i ricercatori di intelligenza artificiale di Meta a costruire nuovi e migliori modelli di intelligenza artificiale che possono imparare da trilioni di esempi; lavorare in centinaia di lingue diverse; analizzare insieme senza soluzione di continuità testo, immagini e video; sviluppare nuovi strumenti di realtà aumentata; e molto altro”, scrivono gli ingegneri di Meta Kevin Lee e Shubho Sengupta in un.
“Ci auguriamo che RSC ci aiuti a costruire sistemi di intelligenza artificiale completamente nuovi che possano, ad esempio, fornire traduzioni vocali in tempo reale a grandi gruppi di persone, ognuna delle quali parla una lingua diversa, in modo che possano collaborare senza problemi a un progetto di ricerca o giocare a un gioco AR insieme.”
l lavoro su RSC è iniziato un anno e mezzo fa, con gli ingegneri di Meta che progettavano i vari sistemi della macchina (raffreddamento, alimentazione, rete e cablaggio) interamente da zero. La prima fase di RSC è già operativa e consiste in 760 sistemi Nvidia GGX A100 contenenti 6.080 GPU collegate (un tipo di processore particolarmente efficace per affrontare i problemi di machine learning). Meta afferma che sta già fornendo prestazioni fino a 20 volte migliori per le sue attività di ricerca sulla visione artificiale standard.
Entro la fine del 2022, però, la fase due di RSC sarà completata. A quel punto, conterrà circa 16.000 GPU totali e sarà in grado di addestrare sistemi di intelligenza artificiale “con più di un trilione di parametri su set di dati grandi quanto un exabyte”. (Questo numero grezzo di GPU fornisce solo una metrica ristretta per le prestazioni complessive di un sistema, ma, a titolo di confronto, il supercomputer AI di Microsoft creato con il laboratorio di ricerca OpenAI è composto da 10.000 GPU.)
Questi numeri sono tutti molto impressionanti, ma invitano alla domanda: cos’è un supercomputer AI? E come si confronta con quelli che di solito consideriamo supercomputer: enormi macchine impiegate da università e governi?
I due tipi di sistemi, noti come computer ad alte prestazioni o HPC, sono sicuramente più simili che diversi. Entrambi sono più vicini ai data center rispetto ai singoli computer per dimensioni e aspetto e si basano su un gran numero di processori interconnessi per scambiare dati a velocità incredibilmente elevate. Ma ci sono differenze fondamentali tra i due, come spiega l’ analista HPC Bob Sorensen di Hyperion Research “Gli HPC basati sull’intelligenza artificiale vivono in un mondo leggermente diverso rispetto alle loro controparti HPC tradizionali”, afferma Sorensen, e la grande distinzione riguarda l’accuratezza.
Sorensen offre anche una parola in più di cautela. Come spesso accade con l’approccio “velocità e feed” alla valutazione dell’hardware, le velocità massime decantate non sono sempre rappresentative. “I fornitori di HPC in genere citano numeri di prestazioni che indicano la velocità assoluta in grado di eseguire la loro macchina. Lo chiamiamo il massimo delle prestazioni teoriche”, afferma Sorensen. “Tuttavia, la vera misura di una buona progettazione di sistema è quella che può essere eseguita velocemente sui lavori per cui è stata progettata. In effetti, non è raro che alcuni HPC raggiungano meno del 25% delle loro cosiddette prestazioni di picco durante l’esecuzione di applicazioni reali”.
In altre parole: la vera utilità dei supercomputer sta nel lavoro che svolgono, non nelle loro massime prestazioni teoriche.