Buongiorno cari lettori, oggi vi andremo a parlare dei computer quantistici in Europa.

Il settore europeo dell’informatica quantistica potrebbe essere il campo più entusiasmante della tecnologia. I finanziamenti sono ai massimi storici e il numero di startup quantistiche aumenta di anno in anno. Eppure i media globali tendono a ritrarre l’UE e il Regno Unito come potenziali secondi classificati nella presunta corsa al calcolo quantistico.

Per comprendere la posizione dell’Europa nel mercato globale dell’informatica quantistica, dobbiamo riportare indietro l’orologio di un paio di anni. Gli investitori e gli imprenditori hanno iniziato ad affluire al quantum durante il boom tecnologico del COVID-19 e, nonostante l’atteso calo post-pandemia, gli analisti prevedono un massiccio aumento delle dimensioni del mercato nei prossimi 5-15 anni. Tuttavia, quell’ottimismo è in qualche modo mitigato dal fatto che l’informatica quantistica è una tecnologia che è ancora agli inizi.

Alcuni scienziati ritengono che i computer quantistici non saranno mai così utili come sperano le aziende che li costruiscono. Altri ancora temono che i ritardi nello sviluppo possano portare a degli “anni quantici” in cui gli investimenti e i finanziamenti per la ricerca si congelano e causano lo stallo del settore.

L’analisi del settore e la ricerca peer-reviewed dimostrano in gran parte che il calcolo quantistico è sul punto di avere un breakout in Europa simile all’esplosione del deep learning iniziata nel 2014. E attualmente non mostra alcun segno di rallentamento.

Questa non dovrebbe essere una notizia scioccante per nessuno. L’Europa è dove è nato il quantum. Questa non è una nuova tecnologia che viene importata. È la continuazione di oltre un secolo di lavoro che, essenzialmente, è iniziato in Germania.

La prima rivoluzione quantistica ebbe inizio quando lo scienziato tedesco Max Planck pubblicò il suo fondamentale studio sulla ” radiazione del corpo nero ” nel dicembre del 1900. Pochi anni dopo, Planck aiutò un giovane Albert Einstein a perfezionare la teoria della relatività che alla fine sarebbe diventata parte del fondamento della nostra comprensione della fisica oggi. In poche parole: senza gli scienziati europei, non ci sarebbe un’industria informatica quantistica di cui parlare.

Oggi quell’industria vale circa 500 milioni di euro. La visione globale, per l’UE e il Regno Unito, prevede finanziamenti statali da quasi tutti i paesi europei, la partecipazione di centinaia di istituzioni accademiche e la fondazione di oltre 69 startup incentrate sull’informatica quantistica . Ma prima di addentrarci in quelle aziende e istituzioni, è importante capire perché investono nell’informatica quantistica.

Cosa c’è di così speciale nell’informatica quantistica?

La base dell’ottimismo che circonda il campo implica un concetto chiamato “vantaggio quantico”. Si prevede che la tecnologia raggiungerà un punto di sviluppo in cui i computer quantistici saranno in grado di eseguire calcoli ed eseguire algoritmi che i computer classici non possono eseguire entro un periodo di tempo fattibile. Attualmente, il “vantaggio quantico” è un termine alquanto dubbio. L’informatica quantistica è agli inizi e non esiste un punto di riferimento concordato in base al quale un tipo di computer quantistico possa essere paragonato a un supercomputer classico.

A causa del modo in cui funzionano i computer quantistici, non puoi semplicemente misurare la velocità di clock o le prestazioni della CPU per determinare quale sistema è migliore. I ricercatori in genere eseguono algoritmi incredibilmente complessi su sistemi informatici per confrontare le loro capacità superiori. Tuttavia, questi algoritmi in genere non sono utili per nient’altro che fornire problemi difficili da risolvere per i computer.

Alla fine, si prevede che i computer quantistici dimostreranno un chiaro vantaggio rispetto ai computer classici nell’esecuzione di più di semplici algoritmi complessi simili a puzzle. È a questo punto che gli investitori e le startup ad ingresso anticipato potrebbero iniziare a vedere un ritorno sul loro investimento.

1. MQI

IQM è una spin-out della Aalto University e del VTT Finland che costruisce computer quantistici e ciò che chiamano sistemi quantistici “co-progettati” costruiti per specifiche applicazioni industriali. Con i suoi processori quantistici superconduttori su misura, chipset proprietari e nuove soluzioni software e algoritmiche, è una delle principali startup di calcolo quantistico in Europa.

I sistemi IQM build sono computer quantistici full stack progettati per essere implementati in loco per le applicazioni dei clienti. Laddove IBM, Intel, Google e altri istituti di ricerca stanno costruendo sistemi quantistici da utilizzare nella ricerca basata su cloud e nelle applicazioni B2B, i sistemi di IQM sono costruiti dove vivono i clienti. Per questo IQM serve un mercato decisamente orientato alla ricerca.

2. Pasqal

La prossima tappa del nostro tour sulla scena dell’informatica quantistica in Europa è la Francia, dove Pasqal , spinout dell’Institut d’Optique, costruisce unità di elaborazione quantistica (QPU) a partire da array atomici. Uno degli obiettivi dell’azienda è costruire sistemi quantistici ibridi che sfruttino le loro QPU per simulazioni quantistiche avanzate.

I sistemi di Pasqal sono diversi dai sistemi superconduttori e basati su gate creati in laboratori come Google e IQM. Usano array atomici in quella che viene chiamata “architettura dell’atomo neutro”. Essenzialmente l’azienda utilizza laser e uno strumento chiamato “pinzette atomiche” per intrappolare i singoli atomi allo scopo di modularli. Ciò consente ai suoi scienziati di utilizzare gli atomi intrappolati come qubit ai fini del calcolo quantistico.

3. Circuiti quantistici di Oxford

Potresti essere in grado di indovinare da quale università è uscito OQC. Costruisce circuiti quantistici superconduttori che vantano l’esclusivo “Coaxmon” dell’azienda. Questa invenzione brevettata è al centro dei prodotti dell’azienda, tra cui “Lucy”, il primo sistema di calcolo quantistico europeo su AWS di Amazon.

Il futuro quantistico dell’Europa

Gli analisti del settore prevedono che il mercato dell’informatica quantistica raggiungerà quasi sei volte le sue dimensioni attuali, ovvero un limite di oltre 3 miliardi di euro. E, se le startup sopra menzionate sono indicative, possiamo essere certi che almeno alcune aziende europee otterranno la loro fetta di torta. Se le attuali prospettive sono valide, non c’è momento migliore per i finanziatori e i beneficiari di fondi per entrare nel settore quantistico.

Tuttavia, ci sono un paio di sfide da affrontare sia per gli imprenditori che per gli investitori che semplicemente non possono essere trascurate. Innanzitutto, gli esperti hanno identificato sia un deficit educativo che una fuga di cervelli come problemi chiave per il settore quantistico globale.


Buongiorno cari lettori, oggi vi andremo a parlare che l’Europa riceverà il primo computer exascale.

Rontier, è il primo supercomputer exascale al mondo, o almeno il primo reso pubblico, è in arrivo per uso scientifico generale presso l’Oak Ridge National Laboratory nel Tennessee. Un’altra macchina del genere, Aurora , è sulla buona strada per essere completata da un giorno all’altro presso l’Argonne National Laboratory in Illinois. Ora l’Europa si sta mettendo al passo. Attraverso 500 milioni di euro, un supercomputer exascale chiamato JUPITER (Joint Undertaking Pioneer for Innovative and Transformative Exascale Research) sarà installato nel 2023 presso il Forschungszentrum Jülich , in Germania.

Thomas Lippert , direttore del Jülich Supercomputing Center, paragona l’aggiunta di JUPITER, e l’espansione dell’infrastruttura di supercalcolo in Europa più in generale, alla costruzione di un nuovo stupefacente telescopio.

I supercomputer exascale possono, per definizione, superare un exaflop, più di un quintilione di operazioni al secondo. Farlo richiede macchine enormi. JUPITER risiederà in un nuovo edificio che ospita diverse custodie raffreddate ad acqua delle dimensioni di un container. Ciascuno di questi contenitori conterrà una raccolta di rack delle dimensioni di un armadio e ogni rack supporterà molti singoli nodi di elaborazione.

Quanti nodi ci saranno? I numeri di JUPITER non sono ancora stati fissati, ma puoi farti un’idea da JUWELS (abbreviazione di Jülich Wizard for European Leadership Science), un sistema recentemente aggiornato che attualmente si trova al 12° posto nella Top500 dei supercomputer più potenti del mondo. JUPITER siederà vicino ma in un edificio separato da JUWELS, che vanta più di 3.500 nodi di calcolo in tutto.

JUPITER farà affidamento su dispositivi hardware basati sulla GPU insieme a un modulo cluster universale, che conterrà la CPU. L’architettura pianificata include anche storage su disco e flash ad alta capacità, insieme a un unità di backup dedicate e sistemi a nastro per l’archiviazione dei dati.

Il supercomputer JUWELS utilizza hardware Atos BullSequana X , con processori AMD EPYC e interconnessioni con Mellanox HDR InfiniBand. Il più recente supercomputer supportato da EuroHPC disponibile online, LUMI (abbreviazione di Large Unified Modern Infrastructure) con sede in Finlandia, utilizza hardware HPE Cray, processori AMD EPYC e interconnessioni HPE Slingshot. LUMI è attualmente al terzo posto nel mondo.

Sfruttare la nuova potenza di supercalcolo dell’Europa

Plessl ha collaborato con il chimico Thomas Kühne per eseguire simulazioni a livello atomico sia dell’HIV che della proteina spike di SARS-CoV2, il virus che causa COVID-19. Lo scorso maggio, il duo ha eseguito calcoli su scala exaflop per la loro simulazione SARS, coinvolgendo milioni di atomi su una scala temporale di femtosecondi, con un software di chimica quantistica in esecuzione sul supercomputer Perlmutter. Hanno superato un exaflop perché questi calcoli sono stati eseguiti a risoluzioni inferiori, di 16 e 32 bit, rispetto alla risoluzione di 64 bit che è lo standard attuale per il conteggio dei flop.

Kühne è entusiasta di JUPITER e del suo potenziale per eseguire calcoli ad alto rendimento ancora più impegnativi, i tipi di calcoli che potrebbero mostrare come utilizzare la luce solare per dividere l’acqua in idrogeno e ossigeno per applicazioni di energia pulita. Jose M. Cela del Barcelona Supercomputing Center afferma che le capacità exascale sono essenziali per alcune simulazioni, per la dinamica dei fluidi su larga scala e per le simulazioni planetarie che comprendono interi climi.

Lippert attende con impazienza una sorta di supercalcolo, in cui i diversi centri di supercalcolo europei utilizzano le loro macchine, distribuendo i calcoli ai supercalcolatori appropriati tramite un hub di servizi. Cela afferma che le velocità di comunicazione tra i centri non sono ancora abbastanza elevate per gestire alcuni problemi..

Anche se i supercomputer diventano più veloci e più grandi, devono lavorare assieme per essere più efficienti dal punto di vista energetico. JUPITER assorbirà 15 megawatt di potenza durante il funzionamento. I piani prevedono che funzioni con energia pulita. Con le turbine eoliche sempre più grandi e migliori, il fabbisogno energetico di JUPITER potrebbe forse essere soddisfatto solo con un paio di gigantesche turbine. E con l’acqua di raffreddamento che circola tra le potenti scatole dei computer, l’acqua calda che ne risulta potrebbe essere utilizzata per riscaldare le case e le attività commerciali nelle vicinanze, come si sta facendo con LUMI in Finlandia.


Buongiorno cari lettori, oggi vi andremo a parlare del file system mondiale.

Quando la pandemia di covid è esplosa all’inizio del 2020, il mondo ha fatto un passaggio senza precedenti al lavoro a distanza. Per precauzione, alcuni provider Internet hanno ridotto temporaneamente i livelli di servizio, anche se probabilmente non era necessario per i paesi dell’Asia, dell’Europa e del Nord America, che generalmente sono stati in grado di far fronte all’aumento della domanda causato dal telelavoro. Questo perché la maggior parte delle loro reti è stata fornita in eccesso, con una capacità maggiore di quella di cui hanno normalmente bisogno. Ma nei paesi senza lo stesso livello di investimento nell’infrastruttura di rete, il quadro era meno roseo: i fornitori di servizi Internet (ISP) in Sud Africa e Venezuela , ad esempio, hanno riportato diversi problemi.

Ma l’overprovisioning è l’unico modo? No, per comprendere l’approccio alternativo che stiamo sostenendo, tuttavia, è necessario prima ricordare come funziona Internet.

Il protocollo principale di Internet, giustamente chiamato Internet Protocol (IP), definisce uno schema di indirizzamento che i computer utilizzano per comunicare tra loro. Questo schema assegna indirizzi a dispositivi specifici, computer e server delle persone, e utilizza tali indirizzi per inviare dati tra di loro secondo necessità.

È un modello che funziona bene per inviare informazioni uniche da un punto all’altro, ad esempio il tuo estratto conto bancario o una lettera di una persona cara. Questo approccio aveva senso quando Internet veniva utilizzato principalmente per fornire contenuti diversi a persone diverse. Ma questo design non è adatto per il consumo di massa di contenuti statici, come film o programmi TV.

La realtà oggi è che Internet è più spesso utilizzato per inviare esattamente la stessa cosa a molte persone, , gran parte dei quali è sotto forma di video. Le richieste crescono ancora di più man mano che i nostri schermi ottengono risoluzioni sempre maggiori, con video 4K già ampiamente utilizzati e 8K all’orizzonte.

Le reti di distribuzione dei contenuti (CDN) utilizzate dai servizi di streaming come Netflix aiutano a risolvere il problema archiviando temporaneamente i contenuti vicino o addirittura all’interno di molti ISP. Ma questa strategia si basa sulla capacità di ISP e CDN di concludere accordi e implementare l’infrastruttura richiesta.

Il vero problema non è tanto il volume di contenuto che viene distribuito, ma il modo in cui viene distribuito, da una fonte centrale a molti diversi utenti lontani, anche quando questi utenti si trovano uno accanto all’altro.

Uno schema di distribuzione più efficiente in tal caso sarebbe che i dati vengano serviti al tuo dispositivo dal dispositivo del tuo vicino in modo peer-to-peer diretto. Ma come farebbe il tuo dispositivo a sapere a chi chiedere? Benvenuti nel file system interplanetario (IPFS).

L’InterPlanetary File System prende il nome perché, in teoria, potrebbe essere esteso per condividere dati anche tra computer su diversi pianeti del sistema solare. Per ora, però, siamo concentrati sul lanciarlo solo per la Terra!

La chiave per IPFS è ciò che viene chiamato indirizzamento del contenuto. Invece di chiedere a un particolare provider: “Per favore, inviami questo file”, la tua macchina chiede alla rete: “Chi può inviarmi questo file?” Inizia interrogando i peer: altri computer nelle vicinanze dell’utente, altri nella stessa casa o ufficio, altri nello stesso quartiere, altri nella stessa città, espandendosi progressivamente verso località globalmente distanti, se necessario, finché il sistema non trova un copia di quello che stai cercando.

Queste query vengono effettuate utilizzando IPFS, un’alternativa all’Hypertext Transfer Protocol (HTTP), che alimenta il World Wide Web. Basandosi sui principi della rete peer-to-peer e dell’indirizzamento basato sui contenuti, IPFS consente una rete decentralizzata e distribuita per l’archiviazione e la consegna dei dati.

I vantaggi di IPFS includono una distribuzione dei contenuti più rapida ed efficiente. Ma non si fermano qui. IPFS può anche migliorare la sicurezza con il controllo dell’integrità dei contenuti in modo che i dati non possano essere manomessi da intermediari. E con IPFS, la rete può continuare a funzionare anche se la connessione al server di origine viene interrotta o se il servizio che inizialmente forniva il contenuto sta subendo un’interruzione, particolarmente importante in luoghi con reti che funzionano solo in modo intermittente. IPFS offre anche resistenza alla censura.

Per comprendere più a fondo come IPFS differisce dalla maggior parte di ciò che avviene oggi online, diamo una rapida occhiata all’architettura di Internet e ad alcuni precedenti approcci peer-to-peer.

Come accennato in precedenza, con l’architettura Internet odierna, richiedi contenuto in base all’indirizzo di un server. Questo deriva dal protocollo che sta alla base di Internet e governa il modo in cui i dati fluiscono da un punto all’altro, uno schema descritto per la prima volta da Vint Cerf e Bob Kahn in un documento del 1974 e ora noto come Internet Protocol. Il World Wide Web si basa sul protocollo Internet. Navigare nel Web consiste nel chiedere a una macchina specifica, identificata da un indirizzo IP, uno specifico dato.

Il processo inizia quando un utente digita un URL nella barra degli indirizzi del browser, che prende la parte del nome host e la invia a un server DNS ( Domain Name System ). Quel server DNS restituisce un indirizzo IP numerico corrispondente. Il browser dell’utente si collegherà quindi all’indirizzo IP e chiederà la pagina Web che si trova in quell’URL.

In altre parole, anche se un computer nello stesso edificio ha una copia dei dati desiderati, non vedrà la richiesta, né potrebbe abbinarla alla copia che detiene perché il contenuto non ha un identificatore intrinseco: non è indirizzato al contenuto.

La sfida principale in tal senso è che richiederebbe modifiche all’infrastruttura Internet principale, che è di proprietà e gestita da migliaia di ISP in tutto il mondo, senza un’autorità centrale in grado di controllare ciò che fanno tutti. Sebbene questa architettura distribuita sia uno dei maggiori punti di forza di Internet, rende quasi impossibile apportare modifiche fondamentali al sistema, il che rovinerebbe le cose per molte delle persone che lo utilizzano. Spesso è molto difficile anche implementare miglioramenti incrementali. Un buon esempio della difficoltà incontrata quando si introduce la modifica è IPv6 , che espande il numero di possibili indirizzi IP.

Altri sistemi peer-to-peer oltre a IPFS, come BitTorrent e Freenet , hanno cercato di farlo introducendo sistemi in grado di operare in parallelo con il World Wide Web, anche se spesso con interfacce Web. Ad esempio, puoi fare clic su un collegamento Web per il tracker BitTorrent associato a un file, ma questo processo in genere richiede che i dati del tracker vengano trasferiti a un’applicazione separata dal tuo browser Web per gestire i trasferimenti. E se non riesci a trovare un link tracker, non puoi trovare i dati.

Freenet utilizza anche un sistema distribuito peer-to-peer per archiviare i contenuti, che possono essere richiesti tramite un identificatore e accessibili anche tramite il protocollo HTTP del Web. Ma Freenet e IPFS hanno obiettivi diversi: Freenet ha una forte attenzione sull’anonimato e gestisce la replica dei dati in modi che servono a tale obiettivo ma riducono le prestazioni e il controllo dell’utente. IPFS fornisce meccanismi di condivisione e recupero flessibili e ad alte prestazioni, ma mantiene il controllo sui dati nelle mani degli utenti.

IPFS è iniziato nel 2013 come progetto open source supportato da Protocol Labs, il principio fondamentale di tutti i sistemi P2P è che gli utenti partecipano contemporaneamente come client (che richiedono e ricevono file da altri) e come server (che archiviano e inviano file ad altri). La combinazione di indirizzamento dei contenuti e P2P fornisce gli ingredienti giusti per recuperare i dati dal peer più vicino che detiene una copia di ciò che si desidera o, più correttamente, il più vicino in termini di topologia di rete, sebbene non necessariamente in termini di distanza fisica.

Per fare in modo che ciò accada, IPFS produce un’impronta digitale del contenuto che detiene (chiamato hash ) che nessun altro elemento può avere. Quell’hash può essere pensato come un indirizzo univoco per quel contenuto. La modifica di un singolo bit in quel contenuto produrrà un indirizzo completamente diverso. I computer che desiderano recuperare questo contenuto trasmettono una richiesta per un file con questo particolare hash.

La persistenza e l’immutabilità del nome forniscono intrinsecamente un’altra proprietà significativa: la verificabilità. Disponendo del contenuto e del suo identificativo, l’utente può verificare che quanto ricevuto corrisponda a quanto richiesto e non sia stato manomesso, né in transito né dal provider. Ciò non solo migliora la sicurezza, ma aiuta anche a salvaguardare la documentazione pubblica e impedire che la cronologia venga riscritta.

In definitiva, IPFS è una rete aperta, governata dalle regole della comunità e aperta a tutti. E puoi diventarne parte subito! Il browser Brave viene fornito con il supporto IPFS integrato , così come Opera per Android . Sono disponibili estensioni del browser per Chrome e Firefox e IPFS Desktop semplifica l’esecuzione di un nodo locale. Diverse organizzazioni forniscono servizi di hosting basati su IPFS, mentre altre gestiscono gateway pubblici che consentono di recuperare i dati da IPFS tramite il browser senza alcun software speciale.

Finora, IPFS è stato utilizzato per creare svariate applicazioni, inclusi sistemi per l’e-commerce , distribuzione sicura di set di dati scientifici, creazione di nuovi social network , condivisione di dati, creazione di blockchain, archiviazione e condivisione sicure e crittografate di file personali, strumenti per sviluppatori e analisi dei dati .


Buongiorno cari lettori, oggi vi andremo a parlare della di Google che ha intenzione di inserire in tutti i suoi prodotti di l’AI.

L’intelligenza artificiale doveva essere la cosa su cui punta Google ma come abbiamo visto non è andato tutto secondo i piano. L’azienda ha coltivato la reputazione di scommettere a lungo termine su tutti i tipi di tecnologie e gran parte della ricerca alla base dell’attuale ondata di chatbot basati sull’intelligenza artificiale si è svolta nei suoi laboratori. OpenAI da novembre è emersa come il leader dell’IA generativa, un software in grado di produrre testo, lanciando ChatGPT. Il suo improvviso successo ha spinto Google, Alphabet Inc. , a recuperare il ritardo in un sottocampo chiave della tecnologia.

ChatGPT, che alcuni vedono come un eventuale sfidante del tradizionale motore di ricerca di Google , sembra doppiamente minaccioso visti gli stretti legami di OpenAI con Microsoft.Lo sforzo di recuperare tutto questo gap ha permesso a Pichai di rivivere i suoi giorni come product manager, poiché ha iniziato a soppesare direttamente i dettagli delle caratteristiche del prodotto. Ad alcuni ex studenti di Google è stata ricordata l’ultima volta che l’azienda ha implementato un mandato interno per infondere ogni prodotto chiave con una nuova idea: lo sforzo iniziato nel 2011 per promuovere lo sfortunato social network Google+. Non è un paragone perfetto: Google non è mai stato considerato un leader nei social network, mentre la sua esperienza nell’intelligenza artificiale è indiscussa. Tuttavia, c’è una sensazione simile. I dipendenti attuali ed ex affermano che almeno le valutazioni e le recensioni di alcuni Googler saranno probabilmente influenzate dalla loro capacità di integrare l’IA generativa nel loro lavoro.

La Silicon Valley è entrata in un ciclo di hype completo, con venture capitalist e imprenditori che si sono improvvisamente proclamati visionari dell’IA, allontanandosi dalle recenti fissazioni come la blockchain e le aziende che hanno visto salire i prezzi delle loro azioni dopo aver annunciato le integrazioni dell’IA. Nelle ultime settimane, Mark Zuckerberg, CEO di Meta Platforms Inc., si è concentrato sull’intelligenza artificiale piuttosto che sul metaverso.

A lungo andare, potrebbe non importare molto che OpenAI abbia risucchiato tutta l’aria dalla conversazione pubblica per alcuni mesi, visto quanto lavoro ha già fatto Google. Pichai ha iniziato a riferirsi a Google come a un’azienda “AI-first”. nel 2016 . Ha utilizzato l’apprendimento automatico per guidare la sua attività pubblicitaria per anni, integrando anche l’intelligenza artificiale in prodotti di consumo chiave come Gmail e Google Foto, dove utilizza la tecnologia per aiutare gli utenti a comporre e-mail e organizzare le immagini. In una recente analisi, la società di ricerca Zeta Alpha ha esaminato i primi 100 documenti di ricerca sull’IA più citati dal 2020 al 2022 e ha scoperto che Google ha dominato il campo. “Il modo in cui è finito per apparire è che Google era una specie di gigante addormentato che è dietro e sta cercando di recuperare il ritardo. Penso che la realtà non sia proprio questa”, afferma Amin Ahmad, un ex ricercatore di intelligenza artificiale presso Google che ha co-fondato Vectara , una startup che offre strumenti di ricerca conversazionale alle aziende. “Google è stato davvero molto bravo, credo, nell’applicare questa tecnologia in alcuni dei loro prodotti principali anni e anni prima del resto del settore.”

Google ha anche lottato con la tensione tra le sue priorità commerciali e la necessità di gestire la tecnologia emergente in modo responsabile. C’è una tendenza ben documentata degli strumenti automatizzati a riflettere i pregiudizi che esistono nei set di dati su cui sono stati addestrati, così come le preoccupazioni sulle implicazioni degli strumenti di test sul pubblico prima che siano pronti. L’intelligenza artificiale generativa, in particolare, comporta rischi che hanno impedito a Google di precipitarsi sul mercato.

Altri gruppi hanno già dimostrato di essere disposti ad andare avanti, indipendentemente dal fatto che Google lo faccia o meno. Uno dei contributi più importanti che i ricercatori di Google hanno apportato al campo è stato un documento fondamentale intitolato “ L’attenzione è tutto ciò di cui hai bisogno “, in cui gli autori hanno introdotto i trasformatori: sistemi che aiutano i modelli di intelligenza artificiale a concentrarsi sulle informazioni più importanti nei dati stanno analizzando. I trasformatori sono ora elementi chiave per modelli linguistici di grandi dimensioni, la tecnologia che alimenta l’attuale raccolto di chatbot: la “T” in ChatGPT sta per “trasformatore”.

Sono tra dozzine i ricercatori di intelligenza artificiale che sono passati a OpenAI e una serie di startup più piccole, tra cui Character.AI, Anthropic e Adept . Una manciata di startup fondate da ex studenti di Google, tra cui Neeva, Perplexity AI , Tonita e Vectara, stanno cercando di rivoluzionare la ricerca utilizzando modelli di linguaggio di grandi dimensioni. Il fatto che solo pochi posti chiave abbiano la conoscenza e la capacità di costruirli rende la competizione per quel talento “molto più intensa che in altri campi in cui le modalità di formazione dei modelli non sono così specializzate”, afferma Sara Hooker.