Quante volte nelle nostre interazioni con gli animali eravamo convinti di aver capito il senso di una loro comunicazione salvo poi scoprire che era vero tutto il contrario? E quante altre volte avrete sentito il proprietario di un cane dire del suo amico a quattro zampe che “gli manca solo la parola”?
A qualsiasi casistica apparteniate, state pure tranquilli perché la tecnologia è capace di toglierci da qualsiasi imbarazzo. In breve tempo, infatti, grazie all’Intelligenza artificiale saremo in grado non solo di comprendere il linguaggio degli animali ma di capire i loro sentimenti.
Sono numerosi gli studi su questo tema. L’ultimo di cui abbiamo notizia riguarda Google che, grazie alla collaborazione con il Wild Dolphin Project (Wdp), una associazione di ricercatori no profit nata nel 1985, ha avviato una ricerca sulla comunicazione interspecie.
Il progetto si chiama DolphinGemma. Sfrutta un modello di Intelligenza artificiale sviluppato da Google che usa specifiche tecnologie audio e comprende circa 400 milioni di parametri: è adattato in modo che possa essere utilizzato sul campo dai ricercatori del Wdp con i telefoni Pixel. Il modello di IA è stato addestrato sul database acustico quarantennale del World Delphin Project che riguarda le stenelle maculate atlantiche selvatiche: elabora sequenze di suoni naturali di delfini per identificare modelli, strutture e anche prevedere i suoni che con maggiore probabilità seguiranno in una sequenza. DolphinGemma aiuta i ricercatori a identificare schemi sonori ricorrenti, cluster e sequenze affidabili per svelare strutture nascoste e possibili significati all’interno della comunicazione naturale dei delfini, un compito che finora richiedeva un incredibile sforzo umano.
Parallelamente all’analisi della comunicazione naturale, il Wdp sta anche esplorando la potenziale interazione bidirezionale sfruttando la tecnologia in ambiente oceanico grazie al sistema Chat (Cetacean Hearing Augmentation Telemetry), realizzato in collaborazione con il Georgia Institute of Technology. Punta a stabilire un vocabolario condiviso elementare.
“Prevediamo di rendere disponibile DolphinGemma come modello open source nel corso di quest’estate – afferma Google – Pur essendo stato addestrato sui suoni delle stenelle maculate atlantiche, riteniamo che possa rivelarsi utile anche per i ricercatori che studiano altre specie di cetacei”.
Dati animali
Sono numerosi i gruppi di ricerca che usano l’intelligenza artificiale per studiare e decifrare il linguaggio animale e consentirci così di comunicare con altre specie. Uno degli ostacoli principali allo sviluppo di modelli di intelligenza artificiale in grado di analizzare i vocalizzi animali è la mancanza di dati pubblici: se infatti ci sono moltissime registrazioni di conversazioni umane, raccogliere dati di questo tipo che riguardano gli animali è molto più difficile.
Per rilevare un modello che ci consenta di tradurre i discorsi degli animali, bisogna dare in pasto all’Ia enormi quantità di dati che contengano comunicazioni orali, visive e fisiche degli animali. L’obiettivo è determinare in quali condizioni un animale produce un segnale comunicativo, qual è la reazione dell’interlocutore e quali altri segnali influenzano le azioni successive.
Anche le emozioni
I ricercatori del Dipartimento di Biologia dell’Università di Copenaghen hanno addestrato con successo un modello di apprendimento automatico per distinguere tra emozioni positive e negative in sette diverse specie di ungulati, tra cui mucche, maiali e cinghiali. Analizzando i modelli acustici delle loro vocalizzazioni, il modello ha raggiunto l’impressionante accuratezza dell’89,49%, segnando il primo studio interspecie a rilevare la valenza emotiva utilizzando l’intelligenza artificiale.
Analizzando migliaia di vocalizzazioni di ungulati in diversi stati emotivi, i ricercatori hanno identificato indicatori acustici chiave della valenza emotiva. I predittori più importanti per stabilire se un’emozione fosse positiva o negativa includevano cambiamenti nella durata, distribuzione dell’energia, frequenza fondamentale e modulazione di ampiezza. Sorprendentemente, questi modelli erano in qualche modo coerenti tra le specie, il che suggerisce che le espressioni vocali fondamentali delle emozioni sono conservate evolutivamente.
I risultati dello studio hanno implicazioni di vasta portata. Il modello di classificazione basato sull’intelligenza artificiale potrebbe essere utilizzato per sviluppare strumenti automatizzati per il monitoraggio in tempo reale delle emozioni degli animali, trasformando il modo in cui affrontiamo la gestione del bestiame, l’assistenza veterinaria e gli sforzi di conservazione.