Intelligenza artificiale che pensa? Forse ci siamo…

I numeri primi sono stati intuiti in Africa 20 mila anni fa? – One More Thing
25/10/2023
Perché leggere i classici aiuta a capire come funziona l’innovazione – One More Thing
28/12/2023
Show all

Intelligenza artificiale che pensa? Forse ci siamo…

Forse ci siamo....by Bing Image Creator

a cura di  Piero Chiabra, diGenova OdV

Anni fa, lo scrittore Carlo Fruttero, nella prefazione ad una antologia di racconti di fantascienza, scriveva che “Il futuro arriva come un ladro nella notte”.E aveva pienamente ragione.

Ogni mattina, ci svegliamo, e contempliamo un mondo che ci sembra identico a quello che abbiamo lasciato la sera avanti. E invece, in realtà, quel mondo non è più lo stesso, si è mosso di un passo impercettibile ma reale. E, giorno dopo giorno, quei passi ci incamminano lungo una traiettoria di cui noi non ci rendiamo conto, se non dopo molti anni, quando, tutto a un tratto, ci rendiamo conto di vivere in un mondo alieno, distante da quello che era stata la nostra esperienza sino allora, e foriero di immense promesse e di altrettanto immensi pericoli.

E, spesso, neanche comprendiamo a fondo le forze che spingono il mondo su questi ignoti cammini, perché operano nel profondo, a nostra insaputa, e solo a volte qualcuno si accorge di ciò che sta accadendo per caso, su cose che ci appaiono scontate, e che invece sono suscettibili di cambiare il destino del mondo.

Qualcosa del genere, forse, sta accadendo adesso.

A poco a poco, il mondo si sta familiarizzando con il concetto di Intelligenza Artificiale, e questo, soprattutto, tramite la disponibilità di strumenti, quali ChatGPT, di pronto e facile utilizzo per tutti, e che, nonostante molto spesso sbaglino e commettano errori anche pesanti,  sono capaci di fornire prestazioni che noi abbiamo considerato sempre inusitate, come interpretare testi, esprimere risposte in linguaggio naturale, e altre cose che consideravamo appannaggio esclusivo della mente umana.

 

Questi prodotti sono il risultato di uno sviluppo tecnologico detto “Generative AI”, applicato attualmente essenzialmente all’analisi del linguaggio, che si basa sull’utilizzo di sistemi di elaborazione dei dati detti “transformers”.

Questi sistemi consentono di memorizzare e di interpretare i testi come insiemi vettoriali di sistemi di fonemi e/o di espressioni (detti “token”), sottoponendo questi insiemi ad un esame parallelo che consente, in un dato contesto strutturale, di determinare qual è il token di più probabile utilizzo in un dato contesto, e, quindi, di elaborare risposte e testi appropriati a qualunque domanda venga ad essi posta.

Tuttavia, il meccanismo dei transformers non consente inventiva, né possibilità di elaborare nuove espressioni creative. Ogni risposta è una rimasticatura di concetti già assorbiti.

Per dirla con Emily Bender, linguista alla Washington State University, la Generative AI è “un pappagallo stocastico”, che non può che elargire risposte sulla base di modelli che gli sono stati forniti.

E invece no. Senza che nessuno se ne sia accorto, senza che nessuno abbia fatto niente, sta emergendo che non è così.

I sospetti sono cominciati a sorgere quando gli LLM, (Large Language Models, gli algoritmi della classe di ChatGPT o Bard), hanno cominciato a svolgere compiti che andavano ben al di là di quanto era stato loro insegnato, come ad esempio superare l’esame per l’abilitazione alla professione di avvocato, o tentare di rovinare il matrimonio degli utenti (La versione ChatGPT di Open AI collegata a Bing ci ha provato alcune volte).

Allora si è andati a vedere. E i risultati sono sorprendenti…

Si sapeva che GPT (Il sistema LLM che sta “dietro” ChatGPT) è in grado di generare codice software. Però è emerso che GPT non solo sapeva generare codice, ma aveva anche imparato ad eseguirlo. Questo dovrebbe, in teoria, essere impossibile, in quanto GPT non dispone di memoria interna.

È risultato però che GPT aveva sviluppato DA SOLO una sorta di memoria interna e, quindi, era in grado di eseguirlo.

Non solo, ma in una versione di ChatGPT, che era stata istruita a giocare ad Othello, si è visto che la macchina non aveva assorbito semplicemente un insieme di regole e criteri con cui giocare, ma si era costruita un modello teorico della scacchiera di Othello, e lì provava strategie innovative.

Ora, costruirsi un modello del mondo, sulla base di un insieme di regole date ma operando una astrazione e una generalizzazione rispetto ad esse, può, a mio avviso, essere chiamato solo in un modo.

Pensare. 

Possiamo fare tutte le distinzioni filosofiche che volete, tutti i distinguo da azzeccagarbugli o da professori di filosofia hegeliana, ma la generazione di un modello teorico del mondo fisico, a partire da un insieme di regole “empiriche”, sperimentali, che sono date, è un procedimento intellettuale tipico di una mente pensante.

Non solo, ma altri sperimentatori hanno dimostrato che GPT è in grado di costruire un modello mentale anche di un concetto astratto.

Nella loro sperimentazione, GPT è riuscito a costruirsi un modello dell’ idea di “rosso”, come immagine emergente dalle relazioni acquisite rispetto agli altri colori fornite dal procedimento di istruzione della rete.

Ma non basta.

Si riteneva che un LLM model, come tutti i modelli di intelligenza artificiale sinora sviluppati, derivasse le sue conoscenze dai dati a lui somministrati durante la fase di istruzione (teaching), preliminare al suo funzionamento.Gli LLM, si è scoperto invece, sono dotati anche del cosiddetto “apprendimento contestuale”, vale a dire che imparano dalle risposte che gli danno gli utenti.E, lo si è constatato, il processo di apprendimento contestuale segue le stesse procedure algoritmiche di teaching con cui era stato effettuato l’apprendimento fatto all’inizio.
Piccolo particolare: le procedure di teaching dovrebbero essere sconosciute all’LLM.

L’ LLM, a quanto pare, se le è sviluppate da solo…

Ma la cosa più sconvolgente è che nessuno ha la più pallida idea di come abbiano fatto gli LLM ad acquisire queste capacità.E mentre non si sa, nessuno può escludere che possano svilupparsene altre. Alcuni cominciano ad esserne persuasi.
Blaise Aguera y Arcas, vicepresidente di Google Research, ha dichiarato che “Ogni volta che eseguiamo test per cercare una nuova capacità quantificabile, la troviamo”.

Siamo quindi vicino al Santo Graal dell’Intelligenza Artificiale, l’AGI, Artificial General Intelligence, vale a dire una intelligenza artificiale indistinguibile, nelle sue prestazioni esterne, da quella umana?

Rimangono, a dire di alcuni, ancora parecchi “punti ciechi”, cioè inabilità di fondo, la principale dei quali è, forse, la scarsa capacità di adattamento a contesti ed ambienti diversi (ChatGPT che guida un’auto non la vedo ancora…); tuttavia, probabilmente, la distanza che ci separa dall’AGI è, a questo punto, molto minore di quella che pensavamo.

Eppure, il mondo che ci saluta ogni mattina sembra uguale a quello del mattino precedente.
Come forse doveva apparire ai Neanderthal mentre le tribù dei Sapiens si stavano avvicinando.
Si sente uno scalpiccio di piedi, un rumore di fronde.

Forse ci siamo…

 

 

 

 

Nota: tutte le immagini relative al testo dell’articolo sono state create con sistemi di AI generativa.