Illustration: Johan Jarnestad ©The Royal Swedish Academy of Sciences
Di Massimo Sideri, inviato ed editorialista del “Corriere” sui temi di scienza, innovazione e tecnologia (vedi riferimenti a fondo pagina)
Ne ha fatta di strada l’intelligenza artificiale da quel famoso articolo sulla rivista Mind in cui Alan Turing, nel 1950, si domandava: le macchine possono pensare?
Le macchine non possono pensare (lo spiegava Turing stesso nel paper inventando il gioco dell’imitazione, oggi chiamato test di Turing) ma l’intelligenza artificiale ha ricevuto la sua definitiva consacrazione grazie al premio Nobel per la Fisica consegnato a John Hopfield (91 anni, americano), della Princeton University, e Geoffrey Hinton (77 anni, nato a Wimbledon, quella del torneo di tennis, anche se naturalizzato canadese), dell’Università di Toronto ed ex Google Brain, società da cui era uscito un anno fa dicendosi «spaventato» dai modelli di intelligenza artificiale generativa come ChatGPT o Bard, oggi Gemini.
Hopfield e Hinton sono i due scienziati che hanno risolto i primi puzzle sulle «macchine che imparano», le reti neurali dietro il machine learning, il modello matematico di cui fa parte anche il deep learning, l’apprendimento profondo. L’elemento di base di molti modelli di intelligenza artificiale.
Il premio Nobel consegnato dall’Accademia di Scienza di Stoccolma «per le fondamentali scoperte e invenzioni che rendono possibile il machine learning con le reti neurali artificiali» permette anche di riportare il dibattito sull’Ai ai suoi argomenti primari, deformati un po’ dagli aspetti commerciali dell’industria che su queste scoperte si sta strutturando: macchine che «imparano» è più corretto di macchine «intelligenti». Perché è proprio questo l’aspetto che si è andato dissolvendo in questi 74 anni di storia dell’Ai: grazie alle reti neurali queste macchine sono difatti in grado di migliorare il risultato da sole, in maniera autonoma. Questo è vero.
Ma non «pensando».
Semmai cercando altre strade rispetto a quelle del pensiero umano, il «Cogito ergo sum» di Cartesio per intendersi, per raggiungere velocemente l’obiettivo che gli viene dato (per capire questo aspetto leggere il filosofo Luciano Floridi).
Premesso che abbiamo un dilemma lessicale (continuiamo a usare metafore dei sistemi biologici, come imparare o neuroni, per descrivere un mondo costruito e inventato da noi sapiens) la storia delle reti neurali dal punto di vista scientifico è affascinante: nasce con i percettroni, i primi semplici modelli di reti che cercavano di copiare la biologia umana introdotti da Warren McCulloch e Walter Pitts nel 1943. Poco più di una intuizione, con peraltro errori concettuali. Un ulteriore passo in avanti avvenne con una delle menti più brillanti del progetto di Los Alamos: John von Neumann, che pubblicò sui punti deboli dell’analisi di McCulloch e Pitts. Ancora oggi l’architettura base dei computer è quella di von Neumann (una CPU, una memoria, un’unità di input e una di output per l’elaborazione dei risultati). Tanto per capire di chi stiamo parlando.
Di fatto, a parte lo schema generico e concettuale delle reti neurali biologiche, la rete neurale artificiale ha come obiettivo quello di cercare uno schema (pattern). Ma il dilemma ancora oggi è che tra dati (input) e risultato (output) c’è una «black box», una parte nascosta che non sappiamo come sputi fuori la risposta. Né a priori. Né talvolta a posteriori (questo è il vero limite per il loro utilizzo, per esempio, nel fargli prendere decisioni dal valore legale).
Il contributo fondamentale di Hopfield, che ha pubblicato anche nel campo della biologia umana, è stato un articolo del 1982 in cui metteva in luce una proprietà collettiva di tante piccole operazioni che funziona come una «memoria associativa» per recuperare informazioni mancanti o corrotte. Lo potremmo chiamare appunto apprendimento artificiale se non fosse che con l’utilizzo dei lemmi memoria e apprendimento ricadiamo sempre nello stesso problema di percezione. Dobbiamo sempre ricordare che sono metafore. Comunque la memoria associativa (la rete di Hopfield in cui, secondo la definizione dello stesso scienziato, una volta che l’addestramento è avvenuto gli schemi sono memorizzati come accade ai sentieri in un paesaggio montano: una volta percorsi possono essere ritrovati. ) è stata la base su cui ha lavorato Hinton per costruire la macchina di Boltzmann in cui alcuni nodi nascosti simulano come funziona il sistema nella sua interezza .
La grossa differenza è che la macchina di Boltzmann può dunque essere usata per classificare le informazioni sulle immagini (cos’è una tazza da caffè piuttosto che cosa è un uomo possono essere cose incredibilmente difficili da classificare senza errori per una Ai: per anni è stato complesso far classificare come “scheletro che cammina” e non come “essere umano” uno scheletro che si muove su uno schermo).
Per capire cosa è una “macchina che impara” è sufficiente srotolare la storia degli scacchi. Negli anni Novanta si tennero le famose partite tra il computer IBM Deep Blue e il campione Garry Kasparov: fu la prima vittoria dell’Ai. Come venne ottenuta? L’algoritmo venne esercitato sulle partite dei grandi campioni del Novecento. Si trattò più di una dimostrazione muscolare della potenza di calcolo, quella che viene chiamata non a caso brute force, forza bruta. Si tratta di un classico algoritmo ad albero dove si parte da una mossa (apertura con pedone bianco in c3) per iniziare a dare le possibili opzioni di risposta ognuna delle quali apre enormi possibilità di gioco ma su cui bisogna sottrarre quelle che hanno meno probabilità di vittoria. Si tratta dell’applicazione del minimax che nella teoria dei giochi (non a caso torniamo a von Neumann) significa che con un algoritmo ad albero bisogna minimizzare la possibilità di massimizzare la perdita.
Il salto è avvenuto con il nuovo millennio. Il software AlphaGo di Deep Mind (Google) nel 2016 ha stracciato il campione mondiale di Go, Lee Sedol, imparando da solo a giocare (un po’ come la macchina del film degli anni Ottanta «War Games» dove il computer imparava la strategia migliore della Guerra fredda dal gioco del Tris: tutti perdono con il nucleare, anche se l’analogia è non del tutto coerente dal punto di vista tecnico visto che nel tris si applica proprio il minimax).
Siamo così passati dalle macchine che imparano a quelle che imparano «da sole» e in poche ore: nel 2017 AlphaZero, evoluzione di AlphaGo per gli scacchi, sempre di DeepMind, ha battuto il più forte software del settore, Stockfish, dopo appena quattro ore di addestramento partendo dal livello neofita. Per inciso l’uso degli scacchi come campo di gioco per la valutazione delle capacità delle macchine non è peregrino: venne intuito sempre da Turing, amante delle scacchiere, che ne abbozzò anche il primo software (Turochamp).
Ora l’Ai sta procedendo alla produzione in proprio anche delle informazioni (i dati sintetici). Un ulteriore salto in avanti.
I grandi investimenti (insieme alla grande mole di dati che Internet ha raccolto in questi trenta anni) hanno fatto la differenza permettendo di passare dagli algoritmi deterministici (il classico schema ad albero che abbiamo descritto) a quelli di massimizzazione delle probabilità di correlazione tra i termini: quelli dietro alle intelligenze artificiali generative che tanto affascinano ma che se fossero stati applicati, per esempio, nel 1633 a Galileo Galilei, sulla base dei dati di training (tutta la letteratura scientifica precedente a parte pochissime eccezioni come Copernico e Giordano Bruno) avrebbero dato come verdetto non la richiesta all’abiura. Ma il rogo anche per Galilei. Peggio dell’inquisizione.
Così il Nobel 2024 permette anche di riportare tutto alla scienza. Alla fantascienza delle macchine coscienti, d’altra parte, ci aveva già pensato Samuel Butler, con il libro «Darwin among the machines», Darwin tra le macchine. Era un contemporaneo del naturalista: 1863.
Post scriptum: ricordiamo che gli algoritmi in Occidente li abbiamo portati noi come già ricordato in questa newsletter: con il Liber Abbaci del Fibonacci nel 1202.
APPROFONDIMENTI
One More Thing: dal mondo della scienza e dell’innovazione tecnologica le notizie che ci cambiano la vita (più di quanto crediamo)
Per gentile concessione dell’editore e dell’autore, riportiamo sul nostro blog gli articoli della Newsletter “One More Thing” (https://www.corriere.it/newsletter/?theme=59#).
Perché One More Thing, ancora un’altra cosa? Perché nell’era dell’infodemia e della bulimia informativa di cui siamo tutti vittime, esistono ogni tanto notizie che non si contano ma si pesano. Ecco allora perché “One more thing” come il famoso stratagemma di Steve Jobs per presentare, all’ultimo, l’innovazione migliore. Ma anche come quell’ancora un’altra cosa con cui il tenente Colombo tesseva la sua ragnatela intorno al colpevole, filo dopo filo, con il metodo scientifico di Galileo Galilei.