Futuro

Anche l’intelligenza artificiale punta alla diversità


Secondo il MIT, un addestramento orientato all’analisi delle differenti strategie di gioco dei propri compagni potrebbe aiutare le intelligenze artificiali a essere più cooperative. Tra loro e con le persone
Credit: Icarius Lim/Unsplash
Tempo di lettura 4 min lettura
3 giugno 2022 Aggiornato alle 13:00

L’intelligenza artificiale (AI) si sta pian piano facendo strada all’interno della nostra quotidianità. Secondo il MIT esiste la possibilità che la teaming intelligence (l’intelligenza di squadra) tra persone e macchine diventi la nuova frontiera del futuro.

Ma c’è un problema: le persone non si fidano sempre dei loro partner artificiali. Ed è proprio su questo che alcunə studiosə del MIT si stanno concentrando.

Il centro di ricerca e sviluppo MIT Lincoln Laboratory (MIT-LL) ha scoperto che allenare le intelligenze artificiali in gruppo, con modelli matematicamente diversi, migliora le loro capacità di collaborazione nel gioco Hanabi.

Questo è un gioco di carte cooperativo in cui ə giocatorə devono creare uno spettacolo pirotecnico assemblando le proprie carte, ma con un numero di informazioni limitate: loro conoscono infatti le carte deə altrə ma non le proprie.

Hanabi è stato spesso utilizzato quale banco di prova per verificare la capacità cooperativa dell’intelligenza artificiale. Nel 2021 il MIT-LL lo ha testato coinvolgendo uno dei modelli di AI più bravo nel gioco con persone umane. Dall’esperimento è emerso come queste non fossero inclini a fare squadra con il giocatore artificiale, considerandolo un soggetto «confuso e imprevedibile».

«La conclusione è stata che ci stava sfuggendo qualcosa sulle preferenze umane - ha spiegato Ross Allen, uno dei ricercatori del MIT-LL e coautore dell’esperimento - E non siamo ancora bravi a realizzare modelli che possano lavorare nel mondo reale». Da qui è nata la domanda che forse l’AI dovrebbe essere addestrata diversamente.

La chiave è cercare di sviluppare un modello a cui non solo importi di raggiungere l’obiettivo e massimizzare le ricompense, ma anche di capire e adattarsi alle preferenze deə compagnə. In altre parole, riporta il MIT, «di adattarsi alla diversità».

Per far ciò, ə ricercatorə hanno utilizzato Any-Play, un gioco che implementa il processo di addestramento già sperimentato con Hanabi aggiungendo un secondo obiettivo: oltre che a massimizzare il punteggio, l’intelligenza artificiale deve riuscire a identificare correttamente la strategia del proprio compagno, valutando le sue differenze comportamentali.

«L’AI deve osservare il comportamento dei partner per identificare l’input segreto che è stato loro comunicato e deve adattarsi a questi diversi modi di giocare per ottenere poi dei buoni risultati. L’idea è che questo porterà a un modello di intelligenza artificiale capace di giocare con differenti modi e strategie», ha spiegato Keane Lucas, uno dei ricercatori dell’esperimento.

Per tirare le somme, è stata poi fatta la comparazione con più di 100 modelli addestrati con Hanabi e con i quali le “nuove” intelligenze artificiali collaborative (quelle di Any-Play) non avevano mai avuto rapporti. I risultati sono stati buoni. Secondo il team di ricercatorə, questo modello (chiamato inter-algorithm cross-play) fornisce un ipotetico scenario di come l’intelligenza artificiale potrebbe comportarsi nel mondo reale.

L’esperimento, però, non è stato testato con persone umane. Tuttavia, una ricerca di DeepMind (azienda inglese di intelligenza artificiale), realizzata simultaneamente all’esperimento del MIT, ha condotto un lavoro simile utilizzando sempre un approccio orientato all’addestramento sulla diversità per sviluppare un modello di AI che fosse capace di collaborare con le persone al gioco di squadra Overcooked.

Dai risultati è emerso un buon livello di cooperazione tra intelligenza artificiale e umanə, a conferma che il lavoro del MIT possa essere una buona strategia per implementare la collaborazione tra questi soggetti diversi. Ma, come ha sottolineato l’istituto americano, «Anche se i punteggi dell’inter-algorithm cross-play sono buoni indicatori delle preferenze umane, rimane comunque un’ipotesi».

Per fare un passo in più, il team vuole provare a correlare i sentimenti (negativi) di una persona riguardo all’intelligenza artificiale (come la “confusione”) con gli obiettivi specifici utilizzati per addestrarla, nella speranza che questo possa aiutare e accelerare i progressi di studio nel settore.

Leggi anche
maternità
di Caterina Tarquini 3 min lettura