Suoni e linguaggi della vita sul pianeta un giorno decifrabili con l’IA

Gli esseri viventi emettono suoni e li percepiscono. La velocità di propagazione rende il suono più efficace dei ferormoni e di altri composti chimici di origine biologica. Alcuni scienziati sospettano che questa velocità abbia portato allo sviluppo di veri e propri linguaggi, come per esempio quelli dei cetacei. La tecnologia digitale e le intelligenze artificiali possono aiutarci a decifrarli. Karen Bakker, scienziata canadese prematuramente scomparsa, in una serie di lavori ha raccolto i risultati di questa nuova frontiera in modo ragionato. Non senza metterci in guardia dai rischi nell’impiego dell’intelligenza artificiale in un campo delicato come l’ecologia.

Mar Rosso | © Vittoria Amati
Soundstainability

Per prima cosa dovrei fare un passo indietro. Dovrei tornare a Lugano, ad ottobre 2023, quando nella sede della Radio Svizzera, partecipai a Soundstainability, incontro multidisciplinare su suono e ambiente. Proprio in quei giorni un mio lavoro, Cuore di Reef, prodotto proprio da Rsi.ch, Radio Svizzera di lingua italiana, competeva per il primo posto al Prix Italia nella categoria sostenibilità. Incassò una menzione speciale della giuria. Non è di me che ho intenzione di parlarvi ma di come ero finito lì, parte in causa per vie quasi accidentali. Nei vari studi della radio, tra un’installazione e un’altra, i ricercatori ci raccontavano di mappature dell’ambiente condotte registrando semplicemente dei suoni. I suoni, per chi sa leggerli, sono una sorta di esame spettrografico. Possono dirci quanto è sano un reef, o una foresta, o un ambiente urbano, con un’ottima approssimazione. Un’onda sonora, interpretandone le modulazioni di ritorno, può dirci della salinità e della sospensione presente nell’acqua marina. Se poi sovrapponiamo l’esamina dei suoni ai campionamenti chimici, biologici, e addirittura alle statistiche sociali, otteniamo un’immagine ancora più accurata dell’ambiente che ci circonda. E del suo stato di salute. Partecipavano musicisti, coinvolti dai ricercatori come esperti del suono, biologi, sociologhi, fisici e matematici. L’intervento più interessante, e autorevole, sarebbe stato quello di Karen Bakker.

Karen Bakker

Presentarla equivarrebbe a riempire più della metà di questo articolo con il suo profilo, usate il link. Ci avrebbe raccontato di come i suoni potevano aiutarci a comprendere il mare. Purtroppo, non ha potuto farlo. Un male improvviso l’aveva appena portata via, all’età di 51 anni. Ma ovunque si parli di suono e natura, di comunicazione sonora nella natura e di etica, emergono ancora i suoi lavori, il suo pensiero, le sue analisi. Chiamava il suono la ‘Nuova ottica’. Sosteneva che il mondo scientifico fosse stato rivoluzionato prima dall’invenzione dei telescopi e successivamente dai sensori capaci di leggere e interpretare le onde elettromagnetiche. Oggi leggiamo e interpretiamo le onde sonore come non avevamo mai fatto prima. Ci riusciamo grazie a strumenti di presa del suono avanzati, come per esempio gli idrofoni, di sistemi in grado di analizzare l’onda (come fa Shazam) e, infine, l’Intelligenza Artificiale.

I suoni della vita

Le piante, il reef, i cetacei e le tartarughe, emettono suoni, molti nello spettro non udibile dall’orecchio umano. Da alcuni anni i ricercatori hanno piazzato dei microfoni, idrofoni e altri sensori acustici negli ambienti che intendevano studiare per raccogliere dati. Sembra che alcuni ultrasuoni emessi dalle piante servano a tenere lontani i parassiti, ma anche per suggerire ai membri della stessa specie di emettere ferormoni per attirare insetti impollinatori. Sembra che pipistrelli e cetacei abbiano sviluppato dei linguaggi che vengono trasmessi dagli adulti e che ci sia un percorso di apprendimento da parte dei piccoli, che imitano i suoni percepiti fino a padroneggiarli, molto simile a quello degli esseri umani. Non possiamo quindi meravigliarci del fatto che alcune comunità di cetacei abbiano sviluppato dei veri e propri dialetti. Se percepire gli ultrasuoni è un compito impossibile per l’essere umano senza l’ausilio della tecnologia, cercare di comprendere certi linguaggi è un compito adatto all’intelligenza artificiale. Il problema dell’intelligenza artificiale, fa notare Karen Bakker, è il controllo che possiamo esercitare su di essa.

Tartaruga | Foto di Randall Ruiz | Unsplash
Dai delfini lisergici al progetto CETI

L’idea che i cetacei avessero sviluppato un vero linguaggio non è recente. I delfini, per esempio, sono dei gran ‘chiacchieroni’ capaci di emettere una vasta gamma di suoni e modulazioni e di combinarli in modo diverso tra loro. I primi esperimenti furono condotti nientemeno che dalla NASA, che all’epoca esplorava la possibilità di comunicazione con una eventuale specie aliena. Se ne occuparono l’etologa Margaret Howe Lovatt e il neuroscienziato John Lilly. Il loro approccio divenne subito controverso quando iniziarono a somministrare LSD ai delfini. All’epoca la stessa CIA somministrava acido lisergico ad un gruppo di progettisti di sottomarini nucleari per valutare le differenze creative rispetto al gruppo di controllo. Indovinate chi trovò le soluzioni più creative. Farlo con i delfini aveva un senso pari a zero. Il progetto fallì miseramente e tra mille polemiche e per decenni nessuno avrebbe più versato un centesimo per questo tipo di ricerca.

“La ricerca di John Lilly ha ucciso il campo per decenni, è stato come sganciare una bomba sulla biologia marina”

David Gruber, Progetto CETI.

I ricercatori continuarono comunque a raccogliere i suoni dei cetacei, a registrare le circostanze in cui emettevano certe sequenze, a rimpinguare archivi. Paragonando i suoni catturati intuivano già che esistessero dei dialetti diversi fra tribù e tribù, anche se non erano in grado di comprenderne il significato. Le cose cambiarono con l’evoluzione della Intelligenza Artificiale. Il progetto CETI è il programma di ricerca sul linguaggio dei capodogli più avanzato al mondo. Fa riferimento all’isola di Dominica, dove è stato inaugurato, anche grazie al CETI, il più grande santuario dedicato ai capodogli. Secondo i ricercatori, mettendo insieme milioni di registrazioni e osservazioni effettuate con droni e sottomarini robot per verificare le circostanze in cui i capodogli emettono alcuni suoni, sarebbe possibile decifrare il linguaggio dei capodogli. Come è stato fatto quando una IA riuscì a decifrare il linguaggio degli antichi babilonesi, rimasto sconosciuto per millenni. La sfida è enorme, considerando che non esiste niente che possa lontanamente assomigliare a una Stele di Rosetta tra linguaggio umano e animale. Sembra però sia possibile. A quale costo?

Il rovescio della medaglia

Il problema dell’intelligenza artificiale può essere rinchiuso ad una domanda: chi ne ha il controllo? L’idea che possa svilupparsi al di fuori del nostro controllo è concreta. Inevitabilmente questa opzione è subordinata alla responsabilità degli sviluppatori. I governi mondiali, in prima linea c’è l’Unione Europea, hanno capito che serve un regolamento condiviso, ma come con il cambiamento climatico basta che uno stato solo non si adegui per aprire le porte al caos. Il caos non sarebbe quello dei treni che non arrivano in orario, tutt’altro: sarebbe la nostra perdita di controllo su un numero incredibile di campi, compreso il sociale, a favore di chi sviluppa AI con intenti monopolistici. E ci vuole poco. Google, Amazon e Facebook ci sono riusciti. Karen Bakker suggerì di utilizzare IA affidabili, cioè sviluppate da grossi gruppi, che sono più soggetti ad un controllo interno. I motivi della sua scelta sono intuibili: le major sono costantemente sotto la lente dei legislatori. E anche grazie a Consigli di amministrazione di varia composizione e provenienza possono, in teoria, dare maggiori garanzie etiche. Sull’uso dell’intelligenza artificiale nella decifrazione del linguaggio animale ci sono rischi enormi. Una volta decifrato il linguaggio sarebbe possibile intuire dove attendere membri di una comunità di una specie ‘target’ per catturarne un gran numero durante una riunione. Non solo. Sarebbe più facile riprodurre digitalmente dei richiami, da utilizzare allo stesso scopo. I capodogli, per esempio, emettono dei click che potrebbero rendere sordo a vita, come potrebbe fargli perdere conoscenza, qualsiasi essere umano in immersione nelle vicinanze. I click dei capodogli viaggiano migliaia di chilometri di distanza e un sistema in grado di comprendere e riprodurre certi suoni potrebbe compromettere le migrazioni e le fasi di accoppiamento. Il rischio riguarda tutte le specie.

Pipistrello
Vale la pena farlo?

Karen Bakker si è posta la domanda e si è data una spiegazione. La sua spiegazione è imporre limiti ed attendere la creazione di un quadro etico di utilizzo:

“La crescente proliferazione di aziende etiche che utilizzano la tecnologia digitale per il bene dell’ambiente è da un lato positiva perché per molto tempo il settore tecnologico mainstream ha ignorato le questioni ambientali. Tuttavia, si potrebbe cinicamente dire che questo è solo un esempio del capitalismo che trasforma una minaccia in un’opportunità. Lo sviluppo sostenibile diventa quindi un modo per internalizzare le esternalità e trarne profitto. Non è un’intuizione nuova. Ma credo segnali un dibattito importante sulla tecnologia che si pone il limite di monitorare allo scopo di fornire più informazioni. Sono molte le grandi aziende, ad esempio, che gestiscono sistemi di monitoraggio e informazione ambientale. Per loro è molto utile sapere di più sui danni che potrebbero arrecare alle specie. Gli indici acustici sono un ottimo modo per misurarli, rispetto a quelle che ritengo siano tecnologie più preoccupanti e che tentano di utilizzare la comunicazione interspecie, qualcosa per cui credo non siamo pronti e per cui non abbiamo ancora un protocollo etico. Innanzitutto, non nuocere: è questo il primo comandamento per un medico. Se non si è sicuri di non nuocere, meglio non intervenire. E noi qui noi non abbiamo un vero quadro etico. Quindi, se fossi un venture capitalist che investe in quest’area, rifletterei con attenzione su questo aspetto e penserei a piuttosto cose che potrebbero far crescere programmi di monitoraggio all’interno di quadri normativi già esistenti per migliorare, accelerare, la protezione dell’ambiente… ci sono più dati disponibili ed è fattibile in tempo reale. Probabilmente terrei in sospeso la questione della comunicazione interspecie. Dobbiamo guardare a come abbiamo normato il CRISPR (editing del genoma) ci sono casi d’uso che vanno bene e casi d’uso che per ora abbiamo dichiarato off-limits.”

L’utilizzo di questa tecnologia di machine learning sul linguaggio animale sembra davvero una rivoluzione ma quanto possa essere utile o dannoso è una domanda che resta aperta. Una domanda che tutti dovremmo estendere all’uso della Intelligenza Artificiale in generale.

 

   Facebook  Twitter  YouTube Linkedin

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *