Un algoritmo ci dirà cosa hanno in mente gli animali

“A penny for your thoughts” (un penny per i tuoi pensieri) è l’antico proverbio inglese che si riferisce al desiderio di leggere nella mente del nostro interlocutore.

Molto più di un centesimo sta investendo l’Università di Osaka per sostenere la ricerca sull’algoritmo Stable Diffusion, la tecnologia che traduce in immagini quello che guardiamo, partendo dall’attività cerebrale. E che dovrebbe arricchire la nostra conoscenza sulla modalità di percezione del mondo da parte degli esseri umani, ma anche degli animali. L’intelligenza artificiale generativa, segnalata anche dall’UE come potenziale minaccia alla democrazia se impropriamente utilizzata, potrebbe avere accesso anche al mondo dei pensieri degli animali. Con ricadute positive, ma anche sconcertanti.

A me gli occhi, bit

Lo studio è ancora pre-print (non è stato pubblicato ufficialmente), ma dal laboratorio di neuroscienza in Giappone sono già trapelate notizie importanti: Stable Diffusion, programma di intelligenza artificiale generativa, attraverso la lettura delle scansioni del cervello ottenute con risonanza magnetica ricrea versioni realistiche delle immagini viste da una persona. Sviluppato dal gruppo tedesco CompVis, Stable Diffusion è un programma aperto che può essere modificato: e gli scienziati di Osaka hanno affinato l’algoritmo, collegando descrizioni di testo alle foto precedentemente generate, con il risultato di immagini sempre più somiglianti a quello che hanno visto con i loro occhi le persone coinvolte nell’esperimento. L’AI utilizza informazioni raccolte da due diverse aree del cervello deputate alla percezione delle immagini: il lobo temporale, che registra i dati perlopiù inerenti i contenuti (persone, oggetti, paesaggio), e il lobo occipitale, che gestisce prospettiva, disposizione e scala dei vari elementi. Secondo i ricercatori nipponici la tecnologia una volta perfezionata potrebbe essere applicata in medicina, per riuscire a comunicare con persone paralizzate ma ancora coscienti, creare una sorta di “protesi visiva” per i non vedenti, ed infine esplorare l’attività cerebrale di pazienti in stato di coma.

Salvare dati ma anche diritti

E da Osaka ipotesi al confine della fantascienza: captare le immagini non solo di quello che si vede, ma anche di pensieri, sogni, ricordi. Insomma tutta la nostra cassaforte mentale, di cui conserviamo gelosamente la combinazione. Ma ora che l’AI generativa è sotto inchiesta per la sua attitudine a condizionare l’utente, c’è chi si domanda se quest’ultima versione di Stable Diffusion diventerà un ennesimo strumento di violazione della privacy in mano ad aziende, addirittura una macchina della verità per indagare nell’io. Ad mitigare il clima di inquietudine c’è l’AI Act, la normativa che regola l’utilizzo dell’intelligenza artificiale recentemente approvata dal Parlamento europeo, che vieta le applicazioni di AI considerate ad alto rischio, come gli algoritmi predittivi del comportamento (che ad esempio influenzano il voto, lo shopping on line), e i sistemi di riconoscimento emotivo in ogni ambito, a cominciare da quello giudiziario.

E la tutela degli animali coinvolti nella sperimentazione dei programmi di AI generativa? Secondo Davide Zoccolan, direttore del Laboratorio di neuroscienze visive della Sissa di Trieste, un algoritmo come Stable Diffusion permette di sfruttare al massimo tutte le informazioni registrate, riducendo così il numero di esemplari necessari in laboratorio. Che sembra forniscano comunque dati più accurati rispetto a quelli ottenuti dagli umani. “Storicamente, gli approcci di machine learning per decodificare le rappresentazioni di immagini dal sistema visivo sono stati sviluppati e applicati con maggior successo negli animali (macachi) e continuano ad esserlo.  – dichiara Zoccolan – Stable Diffusion è solo l’ultima variante, e può riportare esiti molto simili (se non migliori) a quelli ottenuti da dati umani”.

Non solo Snoopy

In principio era lo specchio: il test di Gordon Gallup nel 1970, in cui se un animale posto di fronte alla sua immagine riflessa toccava un segno rosso sul suo corpo dimostrava di avere percezione di sé. Un esame in cui pochi animali furono promossi (qualche primate, un solo elefante, razze…), fino a che nel 2012 un gruppo di scienziati ha firmato la “Dichiarazione di Cambridge sulla coscienza degli animali”, in cui si afferma che se vengono stimolate artificialmente le stesse regioni cerebrali negli umani e negli animali si generano gli stessi comportamenti e stati emotivi, e che gli animali possiedono strati neuronali che generano la coscienza. Con la carta di Cambridge ricevevano il diploma di creature coscienti i mammiferi, gli uccelli, e altri animali osservati, fra cui i polpi.

Allora gli animali pensano, quasi come il celebre bracchetto delle strisce Peanuts? “Ovviamente, sì. E non solo i mammiferi. – spiega Giorgio Vallortigara Professore del Gruppo di cognizione del cervello animale presso CIMEC – Università di Trento – Abbiamo tonnellate di prove che gli animali (anche gli invertebrati) sanno orientarsi nello spazio, riconoscere prede, predatori, conspecifici, prendere decisioni, usare i numeri. Il pensiero corrisponde a computazioni, calcoli che vengono condotti dai sistemi nervosi. Tutt’altra faccenda è capire se gli altri animali (anche noi siamo animali) “sentano” qualcosa, “provino” qualcosa (cioè se siano coscienti). Ma è una domanda difficile anche per quel che riguarda i nostri simili: semplicemente noi ci fidiamo di quel che le altre persone ci dicono, ma non abbiamo accesso alle loro esperienze in prima persona.”

Anche se considera ancora aperto lo studio sulla coscienza degli animali, Vallortigara ritiene che per farla emergere non è necessario possedere un sistema nervoso molto complesso: anche la creatura più elementare diventa consapevole nel momento in cui distingue “…fra la stimolazione autoprodotta dalla sua stessa attività e quella che gli viene invece procurata dal resto del mondo (qualunque esso sia) là fuori.” La coscienza come confronto fra ciò che accade dentro e fuori. “Accolgo perciò con favore la congettura (lo ammetto, non ancora provata) che le semplici computazioni condotte da poche, umili e umide cellule costituiscano un substrato plausibile della coscienza, nella sua manifestazione essenziale: la capacità di sentire, di avere esperienze.” (da “Pensieri della mosca dalla testa storta”, Editrice Adeplhi).

Una nuova alleanza?

Con Stable Diffusion, gli animali potrebbero non essere solo un mezzo per raccogliere informazioni di processi mentali umani. Si potrebbe definire un triangolo di flussi di pensiero, ai cui vertici ci sarebbero essere umano, animale e software. Al di là del valore scientifico in sé, ci si chiede quale vantaggio potrebbero ricevere gli animali dal questo patto fra computer e mondo vivente.

Riuscire a comprendere le reali motivazioni ed emozioni di un animale, selvaggio o domestico, potrebbe indicare l’effettivo stato di degrado di un ecosistema e suggerire soluzioni efficaci di recupero. Potrebbe anche rafforzare il senso di appartenenza al medesimo universo di sentimenti ed emozioni, contribuendo alla promozione dei diritti dei nostri amici non umani, per un pianeta con sempre meno zoo, arene, circhi e altri luoghi di svago che coinvolgono gli animali; e migliorando le condizioni di vita negli allevamenti, e negli ambienti naturali, dove stabilire le regole di una sana convivenza gioverebbe alla sicurezza di tutta la comunità composta da animali selvatici, turisti e naturalisti. Ma come mantenere la giusta distanza emotiva? Forse dovremo studiare anche come gestire il possibile sviluppo di una iper-empatia nei confronti del regno della biodiversità animale, soprattutto verso quelle specie che ci forniscono nutrimento.

L’accesso al pensiero degli animali potrebbe tuttavia nelle mani sbagliate sollecitarne la manipolazione e il dominio, considerando che molte specie potrebbero diventare un’arma letale se addestrate a scopo aggressivo. Un altro rischio, il più allarmante, potrebbe essere quello di procurare una disarmonia nel loro ciclo vitale. Lo sanno gli scienziati di Earth Species, un gruppo di ricerca che utilizza sistemi di AI generativa per aprire una comunicazione bidirezionale con gli animali, ossia ricreare il linguaggio di una specie elaborando una quantità di dati bio-acustici e comportamentali raccolti sul campo. L’obiettivo è il dialogo fra un animale e il suo omologo creato dall’AI, senza passare attraverso l’umano: secondo lo staff di Earth Species, questo traguardo dovrebbe fornire informazioni per il monitoraggio e la tutela di tutte le specie, e in certi casi anche la rigenerazione dei diversi habitat. Ma se il supercervello dovesse lanciare un segnale sbagliato, si potrebbero sconvolgere le dinamiche di base degli animali, come accoppiamento e nutrizione. Aza Raskin, Presidente di Earth Species, porta l’esempio delle balene, che comunicano fra loro con un canto antico che si è diffuso nel tempo in angoli anche molto distanti del pianeta: “Se non stiamo attenti, potremmo distruggere una cultura vecchia di 34 milioni di anni. Il che sarebbe una tragedia monumentale.” E la voce delle megattere non è soltanto suggestiva: è un deposito di saggezza che regola i battiti vitali della Terra, così come il linguaggio misterioso di tutte le altre specie del nostro pianeta.

   Facebook  Twitter  YouTube Linkedin

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *