Intelligenza Artificiale, finale di partita?

“Non è mai troppo greco”, un’avventura per adulti nella lingua e nella cultura greca
08/03/2024
Show all

Intelligenza Artificiale, finale di partita?

Astrazione intelligenza artificiale - Generata con IA

a cura di  Piero Chiabra, diGenova OdV

Vediamo intorno a noi cose incredibili, ma tutto ciò che vediamo è solo la punta dell’iceberg.

L’Intelligenza artificiale, che è ormai uscita dai laboratori, e sta cominciando a venire utilizzata dal grosso pubblico, tramite soprattutto l’utilizzo dei Large Language Model come ChatGPT4 o Gemini, che l’hanno resa disponibile a tutti, è sempre più il soggetto di un vasto dibattito in merito ai suoi limiti e alle sue potenzialità, che potrebbero richiedere, si è detto da parte di parecchi, una regolamentazione.
Personalmente, sono sempre stato contrario alle regolamentazioni dello sviluppo scientifico e tecnologico, non foss’altro per il fatto che, nel 90% dei casi, si dimostrano irrealizzabili (ricordo a tutti, a titolo di esempio, il fallimento totale delle leggi sulla privacy, servite solo a complicare gli adempimenti burocratici di aziende e professionisti, ma totalmente incapaci di impedire ai social media e ai motori di ricerca di sapere tutto su di noi…).

Tuttavia, se parliamo dell’Intelligenza Artificiale, è probabile che in questo caso, in un tempo non troppo lontano, la regolamentazione delle attività di AI si renderà vitale e il primo passo è stato già fatto in Europa con l’approvazione dello AI ACT, il regolamento Europeo sulla IA.

Ciò a cui stiamo assistendo, infatti, è solo l’inizio di un processo che si presenta sconvolgente. Infatti, negli ultimi tempi si stanno materializzando una serie di sviluppi che consentono di prefigurare, da un lato, una ulteriore crescita delle potenzialità dell’AI al di là delle attuali prestazioni, dall’altro, una possibile  manifestazione di comportamenti, che vanno aldilà anche delle attese più audaci.

Il concetto di “intelligenza artificiale” è stato introdotto per la prima volta da John von Neumann, uno dei padri del computer, nel 1954, ad un congresso di matematica ad Oxford. È definito come “quella serie di tecniche che mirano a riprodurre i comportamenti tipici dell’intelligenza umana”, definizione, in realtà, quanto mai imprecisa e vaga, visto che non sappiamo esattamente cosa sia l’intelligenza umana.
In mancanza di una seria definizione di quest’ultima, si definisce oggi come “AGI”, Artificial General Intelligence, un sistema di intelligenza artificiale il quale abbia comportamenti non distinguibili in alcun modo da quelli di un essere umano.

Il Santo Graal dell’AI, insomma.

Fino a pochi anni fa, l’AGI era considerata irraggiungibile, o, almeno, fuori dall’orizzonte del breve/medio temine. Oggi, invece, ci sono segni premonitori che sistemi di AGI siano conseguibili, a partire da oggi, in un numero di anni abbastanza ridotto.
È abbastanza noto che, ad oggi, il principale ostacolo alla crescita delle prestazioni dei sistemi di AI è costituito dall’architettura dei nostri computer.
Virtualmente tutti i computer esistenti, infatti, sono basati sulla cosiddetta “architettura di von Neumann”, che li vede strutturati su una serie di sottoinsiemi, l’unità di elaborazione, la memoria e l’input/output, concepiti per eseguire le istruzioni di programmi operativi in modo sequenziale (i nostri PC hanno tipicamente un programma da eseguire, che consiste in una serie di istruzioni che vengono eseguite una alla volta).

Un sistema AI, viceversa, è basato su entità note come “reti neurali”, costruite come un rozzo tentativo di imitare le reti di neuroni del cervello umano, nelle quali un numero elevatissimo (per ChatGPT4 si parla di 60-80 miliardi, il dato preciso non è stato rivelato) di “nodi di calcolo”, detti “neuroni”, operano con un parallelismo estremamente spinto, vale a dire che questi neuroni devono effettuare tutti i loro calcoli in modo più o meno contemporaneo, per poter giungere a un risultato utile.
La necessità di simulare questo comportamento su macchine che, invece, fanno una cosa alla volta implica un traffico talmente elevato di dati tra unità centrale e memoria del computer da rendere  l’implementazione di algoritmi di AI su computer tradizionali, al crescere della loro complessità, estremamente inefficienti, fino a non essere performanti in maniera efficace.

Sino ad ora, la risposta a questo problema è stata semplice e brutale: semplicemente, aumentare la potenza dei computer tradizionali.

Questo fa sì che, oggi, implementare algoritmi di AI come i Large Language Model che sono alla base di ChatGPT, Gemini, e delle altre realizzazioni industriali correnti, richieda i più potenti supercomputer attualmente esistenti nel mondo, e precluda quindi la loro applicazione su sistemi più portatili (questo, ad esempio, limita la profondità dei sistemi di AI utilizzabili per la guida autonoma delle auto e/o di robot autonomi; si potrebbero fare molti altri esempi d questo tipo).
Diventa quindi importante e necessario pensare a un modo più intelligente di implementare gli algoritmi di AI su un computer, e questo modo più intelligente deve, necessariamente, passare attraverso la realizzazione di computer basati su architetture radicalmente diverse dall’architettura di Von Neumann, e tali da permettere un elevatissimo parallelismo dei calcoli da effettuare.

Sulla base di queste considerazioni, è stato iniziato, anni fa, un filone di ricerche che riguarda lo sviluppo dei cosiddetti “computer neuromorfici”, vale a dire di sistemi di calcolo basati su architetture diverse da quelle di Von Neumann, e caratterizzate da un elevatissimo parallelismo delle elaborazioni.

Queste architetture spingono la ricerca di configurazioni alternative sino al punto da interessare i transistor che compongono i loro chip, sostituendoli con componenti di nuova concezione, detti “memristori”, i quali, mantenendo la memoria delle transizioni passate, consentono di avviare elaborazioni simili a quelle dei neuroni già a livello di singolo componente di silicio, raggiungendo livelli di parallelismo elevatissimi.

Sembra fantascienza, ma non lo è: una società americana, la Rain Inc., ha annunciato la messa sul mercato di una NPU, Neuromorphic Processing Unit, vale a dire un coprocessore matematico destinato a complementare le unità centrali tradizionali dei computer per l’esecuzione di algoritmi di AI.
Tale coprocessore, basato su tecnologie neuromorfiche, sarà, nelle dichiarazioni della società, in grado di velocizzare l’esecuzione di algoritmi di AI di almeno 100 volte.  La NPU sarà, viene dichiarato, disponibile sul mercato a Ottobre 2024. Neanche il tempo di rendersi conto di cosa sta accadendo, e subito il futuro ti prende la mano, e ti pone di fronte a fatti sempre inaspettati…

E ben altro si sta profilando all’orizzonte.  In Australia, alla Western Sidney University, un gruppo di ricercatori sta realizzando Deep South, un computer neuromorfico in grado di riprodurre la complessità del cervello umano. Inizialmente previsto per aprile 2024, cioè praticamente oggi,  è probabile che la sua messa a punto subisca un moderato slittamento, ma comunque i lavori sono in corso, e non c’è ragione perché questo risultato non venga conseguito.

Potrei parlare di molte altre cose, superando i limiti di lunghezza tollerabili per un articolo.

Potrei, ad esempio, parlare degli strani comportamenti di svariati Large Language Models, che sembrano andare, nelle loro elaborazioni, ben al di là di quanto fosse stato inizialmente previsto dai loro progettisti. Parrebbe, secondo alcuni esperti, che questo comportamento possa essere dovuto al fatto che gli LLM utilizzano particolari reti neurali, dette “transformers” le quali, tra le altre cose, utilizzano dati generati non solo a monte, ma anche a valle del singolo strato di neuroni, generando un meccanismo di “feedback autoreferenziale”.
Secondo una vecchia teoria, per la prima esposta parecchi anni fa da Douglas H. Hofstader, questo meccanismo di feedback autoreferenziale nelle cellule cerebrali potrebbe a sua volta essere alla base dell’intelligenza, e, addirittura della coscienza umana. Ovviamente, questa è nulla più di una ipotesi, e il dibattito è vivacemente in corso.
Potrei anche parlare delle ricerche in corso in merito ai computer quantistici, e alla possibilità, che anch’essi possiedono, di svolgere grandi quantità di “calcoli” (definire cosa facciano esattamente è un po’ più complesso…) in parallelo.
Potrei anche parlare degli studi, in realtà molto preliminari al momento, per sviluppare computer quantistici neuromorfici, che, invero, avrebbero prestazioni sconfinate, in grado di implementare algoritmi di AI sicuramente in grado di raggiungere e sorpassare le capacità del cervello umano.

Ma andremmo troppo distante.
Ciò che mi preme di evidenziare è, invece, come ormai si stiano profilando una serie di linee di tendenza che consentono di prefigurare, in un futuro non lontano, la nascita di algoritmi di AGI, dal comportamento indistinguibile dal cervello umano, e, forse, addirittura dotati di capacità a lui superiori.

Che fare?
Nessuno lo sa. Nessuno sa, effettivamente, quello che potrà accadere.
Ma è indubbio che ci troviamo di fronte ad una rivoluzione nella storia dell’intelligenza di questo pianeta che è paragonabile a quella dell’avvento dell’Homo Sapiens. E, a differenza della rivoluzione precedente, decidere quello che avverrà in questa è (ancora? realmente?) in nostro potere.

Forse è meglio che ci sediamo per bene e cominciamo a pensare a che cosa fare.

 

APPROFONDIMENTI

AI ACT, il regolamento Europeo sulla IA

https://digital-strategy.ec.europa.eu/it/policies/regulatory-framework-ai

A New Brain-Like Supercomputer Aims to Match the Scale of the Human Brain

A New Brain-Like Supercomputer Aims to Match the Scale of the Human Brain

World first supercomputer capable of brain-scale simulation being built at Western Sydney University

https://www.westernsydney.edu.au/newscentre/news_centre/more_news_stories/world_first_supercomputer_capable_of_brain-scale_simulation_being_built_at_western_sydney_university