Buongiorno cari lettori, oggi vi andremo a parlare del fatto che le reti neurali non apprendono le informazioni allo stesso modo del cervello.
I modelli di intelligenza artificiale (IA) sviluppati di recente sono capaci di molte imprese sorprendenti, incluso il riconoscimento delle immagini e la produzione di un linguaggio simile a quello umano. Ma solo perché l’IA può eseguire comportamenti simili a quelli umani non significa che possa pensare o capire come gli umani.
Il modo in cui i sistemi di intelligenza artificiale “pensano” e imparano è fondamentalmente diverso da come fanno gli umani, e abbiamo ancora molta strada da fare prima che l’IA possa davvero pensare come noi.
Un malinteso diffuso
Gli sviluppi nell’IA hanno prodotto sistemi in grado di eseguire comportamenti molto simili a quelli umani. Il modello linguistico GPT-3 può produrre testo spesso indistinguibile dal linguaggio umano. Un altro modello, PaLM, può produrre spiegazioni per battute mai viste prima.
Più di recente, è stata sviluppata un’IA nota come Gato che può eseguire centinaia di attività, tra cui sottotitoli di immagini, rispondere a domande, giocare ai videogiochi Atari e persino controllare un braccio robotico per impilare blocchi. E DALL-E è un sistema che è stato addestrato per produrre immagini modificate e grafica da una descrizione di testo. Queste scoperte hanno portato ad alcune affermazioni audaci sulla capacità di tale intelligenza artificiale e su ciò che può dirci sull’intelligenza umana.
Ad esempio Nando de Freitas, ricercatore presso Google DeepMind, sostiene che l’aumento dei modelli esistenti sarà sufficiente per produrre un intelligenza artificiale a livello umano.
Reti neurali vs cervello umano
L’IA più di recente è costruita da reti neurali artificiali o semplicemente “reti neurali”. Il termine “neurale” è usato perché queste reti sono ispirate al cervello umano, in cui miliardi di cellule chiamate neuroni formano complesse reti di connessioni tra loro, elaborando informazioni mentre inviano segnali. Un vero neurone viene sostituito con un semplice nodo.
Con un numero sufficiente di nodi impilati in livelli sufficienti, le reti neurali possono essere addestrate a riconoscere schemi e persino a ” generalizzare ” stimoli simili a quelli che hanno visto prima. Semplicemente, la generalizzazione si riferisce alla capacità di un sistema di intelligenza artificiale di prendere ciò che ha appreso da determinati dati e applicarlo a nuovi dati.
Essere in grado di identificare caratteristiche, riconoscere modelli e generalizzare dai risultati è il fulcro del successo delle reti neurali e imita le tecniche che gli esseri umani usano per tali compiti. Eppure ci sono differenze importanti. Le reti neurali sono tipicamente addestrate mediante ” apprendimento supervisionato “. Quindi vengono presentati molti esempi di un input e dell’output desiderato, quindi gli vengono dati input finché gradualmente impara a produrre l’output accettabile.
Una differenza è la vastità dei dati utilizzati per addestrare l’IA. Il modello GPT-3 è stato addestrato su 400 miliardi di parole, per lo più tratte da Internet. A una velocità di 150 parole al minuto, un essere umano impiegherebbe quasi 4.000 anni per leggere così tanto testo. Tali calcoli mostrano che gli esseri umani non possono imparare allo stesso modo dell’IA.
Le reti neurali apprendono in modo diverso
Una differenza ancora più fondamentale riguarda il modo in cui le reti neurali apprendono. Per abbinare uno stimolo con una risposta desiderata, le reti neurali utilizzano un algoritmo chiamato “backpropagation” per far tornare gli errori all’indietro attraverso la rete, consentendo di regolare i settaggi nel modo corretto.
Tuttavia, è ampiamente riconosciuto dai neuroscienziati che la backpropagation non può essere implementata nel cervello, poiché richiederebbe segnali esterni che semplicemente non esistono. Per quanto ne sappiamo, i sistemi di intelligenza artificiale non formano una conoscenza concettuale come noi. Si basano interamente sull’estrazione di complesse associazioni statistiche dai loro dati di addestramento e quindi sull’applicazione di queste a contesti simili.
Pertanto, molti ricercatori ritengono che avremo bisogno di nuovi approcci e di informazioni più fondamentali su come funziona il cervello umano, prima di poter costruire macchine che pensino e imparino veramente come gli esseri umani.
Questo è tutto riguardo le IA, ad un prossimo articolo.