Arresto di almeno sei mesi per i supercomputer di tutto il mondo: è la petizione lanciata dal FLI – Future of Life Institute, organizzazione volta alla prevenzione di catastrofi provocate dal mondo informatico, firmata anche da star del settore “big tech” come Elon Musk e il co-fondatore di Apple Steve Wozniak . La lettera aperta ravvede una minaccia per la nostra civiltà nell’impennata di sviluppo di intelligenza artificiale (AI) sempre più somigliante alla mente umana.
A dare fuoco alle polveri è stato l’ingresso della chat GPT-4, modello linguistico multimodale di ultima generazione, creato da OpenAI , azienda di cui maggiore investitore è Microsoft. Fra le sue capacità la chat ha quella di digerire una grande quantità di informazioni e generare testo molto simile a quello umano, per dialogare con l’utente rispondendo a domande di ogni tipo. Ma oltre ad aumentare la internet dipendenza, esiste un pericolo ancora più subdolo: cyber criminali che producono cloni di questa chat per rastrellare i dati personali e rubare la voce dei clienti allo scopo di siglare contratti e prosciugare conti bancari. Il Garante della privacy in Italia ha per ora imposto il veto a GPT-4.
Minaccia AI: quando, come
Secondo il team di FLI quello di GPT-4 è solo uno dei tanti segnali di quello che potrebbe verificarsi in un futuro non precisato: un’esplosione di cyber-intelligenza in grado di causare un olocausto nucleare ed asservire i sopravvissuti, come la Skynet in “Terminator” di James Cameron (1984). E l’ordigno lo stanno assemblando gli esperti di informatica che lavorano sull’AGI, un’evoluzione dell’AI: mentre quella attuale, detta anche “intelligenza artificiale ristretta”, supera l’uomo in compiti specifici come ad esempio risolvere calcoli matematici o giocare a dama, la sua fase avanzata, detta appunto “intelligenza artificiale generale”, è progettata per sostituire i processi cognitivi umani, capace quindi di concepire e comandare un cervello informatico ancora più innovativo.
Ma in che modo un’AGI potrebbe diventare pericolosa? Secondo gli allarmisti, a provocare guerre e stragi potrebbero essere le armi autonome, come i robot killer o le mine navali, che decidono dove colpire senza input umano e, soprattutto, senza possibilità di disattivazione. E in pace, il rischio sarebbe quello di un “eccesso di zelo” da parte della macchina, che potrebbe voler portare a termine il suo obiettivo a qualunque costo: se una città venisse “letta” dall’intelligenza artificiale come un ostacolo ad un ambizioso progetto di bio-ingegneria, la scelta più sensata per la macchina potrebbe essere quella di annientare case e abitanti.

Tuttavia, gli stessi esperti di FLI si dissociano dal sensazionalismo che divulga l’immagine del robot malvagio che detronizza l’umanità. FLI sostiene che l’arrivo di un’intelligenza sovrumana potrebbe anche non verificarsi mai, e comunque non prima della fine di questo secolo. Inoltre, al suo debutto, l’AGI non sarà capace di provare sentimenti e di conseguenza nemmeno di nuocere intenzionalmente agli esseri umani.
Un’intelligenza artificiale potrebbe causare un disastro non per un impulso di ostilità, ma perché i suoi obiettivi non sono stati correttamente allineati con i nostri: l’ago della bilancia è quindi la competenza di chi progetta il super-cervello informatico. Ecco perché FLI sollecita maggiore saggezza nella progettazione e gestione dell’AI, e soprattutto l’investimento nella ricerca sulla sicurezza di queste intelligenze affinché non deraglino dai binari della pace, in linea con le direttive stabilite nella Conferenza di Asilomar del 2017.

Io Robot, incubo per tutte le stagioni
“Trust me, trust me…” (Fidati di me…) Così Max Headroom, cyber-annunciatore di video musicali degli anni ’80, celebrato dalla hit degli Art of Noise “Paranomia” . In realtà Max era un attore in carne ed ossa, interprete dell’universo digitale che già da anni minacciava sardonicamente di sovrapporsi al mondo reale. È antica la preoccupazione che la creatura si ribelli al suo demiurgo (iniziò Prometeo rubando il fuoco agli dei…): e di arroganza informatica ce ne aveva raccontato Isaac Asimov nel suo Ciclo dei Robot anche se, sulla base della prima delle Tre Leggi della Robotica coniate dall’autore (Un robot non può recar danno a un essere umano…) la disubbidienza era qui considerata un “difetto di fabbrica” imputabile agli ingegneri. Più nebulosa l’origine della malvagità di HAL 9000, il computer a bordo della nave spaziale in “2001 Odissea nello spazio” di Stanley Kubrick (1968), che da impeccabile guida nella missione di esplorazione planetaria diventa inarrestabile serial killer. HAL è entrato nella rosa dei cinquanta cattivi del cinema di tutti i tempi, ma accanto a lui una menzione speciale va a molti altri “vilain” cibernetici protagonisti di film come la falsa Maria di “Metropolis” di Fritz Lang (1927), i cowboy umanoidi de “Il mondo dei robot” di Michael Crichton (1973), l’androide ribelle che insidia Farrah Fawcett in “Saturno 3” di Stanley Donen (1980), i “lavori in pelle” belli e dannati di “Blade Runner” di Ridley Scott (1982), fino al Marionettista del ciclo manga e anime “Ghost in the shell” di Masamune Shirow.
Alba dei robot, il business
Secondo una ricerca condotta da Goldman Sachs, entro il 2030 i robot potrebbero colmare un vuoto di manodopera in ogni settore: a livello globale, il 2% di quella mancante nell’assistenza agli anziani. La corsa degli umanoidi tuttofare è però rallentata da alcuni ostacoli: dopo due ore di lavoro si scaricano le batterie (letteralmente!), i loro movimenti non sono fluidi, ancora troppo alto il costo di produzione. E l’impatto sociale: si dovranno risolvere i conflitti sulla sostituzione della forza lavoro a livello industriale, mentre nel privato più complicata la questione etica. Affideremo con serenità ad un robot la gestione della casa, e la cura di un nostro familiare?
D’altro canto, a nessuno conviene spegnere HAL. I governi del pianeta sembrano più interessati a promuovere la progettazione, piuttosto che stabilire linee guida per i ricercatori, probabilmente per non bloccare un progresso che secondo il Dipartimento per la Scienza, Innovazione e Tecnologia britannico ha prodotto un introito di 3,7 miliardi di sterline e 50.000 posti di lavoro. Sotto il cielo cinese invece gli sforzi degli scienziati si concentrano nella competizione con gli USA, rilasciando prodotti nazionali del tutto simili a quelli a stelle e strisce ma che devono scendere a patti con la pesante censura governativa.

Quanto a Elon Musk, è stato co-fondatore di OpenAI, per poi dimettersi ed assumere una posizione apparentemente critica nei confronti dell’AI: la stessa intelligenza che all’alba di quest’anno avrebbe consentito il lancio sul mercato dell’automobile a guida autonoma della Tesla (di cui Musk è CEO), ora rimandato al 2025 per perfezionare l’abilità di sostituire al 100% l’essere umano al volante. Elon ha sollecitato un semplice semestre di embargo per la ricerca sulla mente sintetica, forse per mantenere al nastro di partenza anche le altre aziende che hanno in cantiere la macchina che si guida da sola. E l’imprenditore sudafricano continua a nutrire la fame di futuro con Optimus, il robot che diligentemente assembla un altro se stesso.

Se la macchina è il fine e non il mezzo
Secondo il filosofo Luciano Floridi, autore di “Etica dell’intelligenza artificiale” (R. Cortina Editore), è ozioso il dibattito sulla preoccupazione di una futura aggressione digitale. Inutile schierarsi dalla parte dei singolaristi (che credono in un progresso tecnologico accelerato dagli esiti imprevedibili) o dei miscredenti dell’AI. Terminator sta per arrivare? “…fortunatamente la vera risposta è non ora, né mai. Per quanto ne sappiamo. – scrive – Non abbiamo idea di come potremmo iniziare a progettare una vera AI, non ultimo perché abbiamo una limitatissima conoscenza di come funzionano il nostro cervello e la nostra stessa intelligenza.”
La diatriba in atto non è che un oppiaceo per le masse che alimenta il business dell’AI: nella sola California, sottolinea Floridi, prosperano quasi simbioticamente le aziende digitali più quotate, i film di fantascienza di Hollywood, e una delle capitali della ricerca informatica, l’Università di Berkeley. Il vero rischio? Adattare il nostro mondo alla tecnologia, e non vice versa. Il problema non è una super-intelligenza artificiale in arrivo, ma la stupidità umana che già dilaga e ci rende alieni, abituandoci ad essere schiavi delle macchine, conclude il filosofo di Oxford: credere nell’avvento della tirannide robotica distrae da emergenze ben più attuali, che rappresentano le vere sfide che la ricerca digitale deve raccogliere, come la crisi climatica e l’accesso all’acqua potabile. E se le macchine elimineranno posti di lavoro, che sia per regalare non disoccupazione ma tempo libero, possibilmente da dedicare all’esplorazione della natura fuori e dentro di noi.