Futuro

Questo computer ha davvero orecchio

Un gruppo di ricercatori del Mit ha sviluppato un modello di intelligenza artificiale che riproduce le reazioni del nostro sistema nervoso ai suoni. E il modo in cui vengono “geolocalizzati„
Caterina Tarquini
Caterina Tarquini giornalista
Tempo di lettura 3 min lettura
2 febbraio 2022 Aggiornato alle 13:43

I neuroscienziati del Mit hanno sviluppato un’intelligenza artificiale (A.I.) in grado di percepire i suoni come un cervello umano. Gli uomini sono in grado di udire i rumori e di determinare da quale direzione provengono: la percezione dell’orecchio sinistro e di quello destro, insieme, ci consente per esempio di stimare la posizione di un cane che abbaia o di un veicolo in movimento. Le onde sonore raggiungono ciascun orecchio con tempi e intensità leggermente diversi: più l’ambiente in cui ci troviamo è rumoroso o disturbato da echi, più sarà difficile per il nostro udito stabilirlo.

Il modello progettato dai ricercatori dell’Università del Massachusetts è formato da un complesso di reti neurali in grado di localizzare i suoni del mondo esterno. “Abbiamo appurato che il computer ha lo stesso funzionamento del nostro cervello” afferma Josh McDermott, professore associato di Scienze cerebrali e cognitive, membro del McGovern Institute for Brain Research del Mit e autore, assieme ad altri studiosi, dell’articolo pubblicato in merito su Nature Human Behaviour.

Gli scienziati hanno tentato a lungo di costruire una A.I. in grado di eseguire il genere di valutazioni e calcoli che il cervello istantaneamente compie per localizzare i suoni, riuscendo a realizzare modelli capaci di funzionare in modo molto simile al nostro sistema nervoso. Questo, fino a poco tempo fa, poteva avvenire solo in un luogo tendenzialmente silenzioso, privo di rumori di sottofondo, mai in ambienti esterni. Per sviluppare una localizzazione più sofisticata, il team del Mit si è dedicato alla progettazione di reti neurali chiamate “convoluzionali”, già ampiamente impiegate nella simulazione del sistema visivo umano. Per individuare quella più idonea a riprodurre l’esperienza uditiva dell’uomo, il team del MIT ha utilizzato un computer di ultima generazione per testare circa 1.500 modelli diversi. Tra questi, ne ha selezionati 10.

I ricercatori hanno progettato, poi, un mondo virtuale in cui poter controllare le proprietà di riflessione delle pareti. Negli ambienti realizzati digitalmente, si sono serviti di circa 400 suoni, inclusi voci umane, versi di animali, rumore di motori e suoni legati ai fenomeni naturali, come il rombo del tuono. Dopo aver sperimentato l’effetto nelle stanze virtuali, gli scienziati li hanno testati in un ambiente reale posizionando un manichino con microfoni nelle orecchie in un luogo al chiuso, e hanno riprodotto suoni da diverse direzioni: le A.I. si sono comportate in modo molto simile agli umani quando è stato chiesto di localizzare questi suoni.

Si è, inoltre, dimostrato che alzando il livello di difficoltà, con l’aggiunta di sorgenti sonore riprodotte contemporaneamente, le prestazioni delle intelligenze artificiali peggiorano in modo non dissimile dai modelli di fallimento umano nelle stesse circostanze. “Gli uomini sembrano limitarsi a localizzare circa 3 sorgenti contemporaneamente, e quando abbiamo eseguito lo stesso test su computer, abbiamo visto un comportamento davvero simile” spiega Andrew Francl, studente laureato al Mit, membro del team di ricerca e principale autore dell’articolo.

Nella fase di sperimentazione sono state adottate anche condizioni del tutto innaturali. Per esempio, è stato creato uno spazio virtuale senza echi e un altro in cui non si sentiva mai più di un suono alla volta; infine, in un terzo, le intelligenze artificiali sono state sottoposte solo a suoni con gamme di frequenza ristretta, anziché a suoni esistenti in natura. In questi casi, le reti neurali si sono discostate dal comportamento umano e le modalità di fallimento variavano a seconda del tipo di ambiente in cui erano stati “addestrati” sino a quel momento. Ciò avvalora l’ipotesi che le capacità di localizzazione del cervello umano si sviluppino anche in base all’ambiente in cui si è cresciuti.

Il gruppo sta ora applicando questi modelli neurali ad altri aspetti dell’udito, come la percezione del tono e il riconoscimento vocale. La speranza è che si possano utilizzare anche per comprendere altri fenomeni cognitivi, come i limiti nella capacità di prestare attenzione durante l’ascolto e la memoria uditiva.