Futuro

L’AI di Google ha creato immagini di soldati neri con le uniformi tedesche della Seconda guerra mondiale

La multinazionale ha sospeso temporaneamente la capacità di Gemini di generare ritratti di persone: presto “pubblicheremo una versione migliorata”, fa sapere su X
Tempo di lettura 3 min lettura
29 febbraio 2024 Aggiornato alle 20:00

Immagini di soldati neri in uniformi militari tedesche della Seconda guerra mondiale: finzione o realtà? Naturalmente, intelligenza artificiale.

Si tratta infatti di immagini generate dal chatbot Gemini di Google, che hanno sollevato nuove preoccupazioni riguardo la diffusione della disinformazione online. Per questo, la multinazionale ha annunciato tramite X (ex Twitter) la temporanea sospensione della capacità della sua AI di generare immagini di persone e ha promesso di correggere “l’inesattezza nelle rappresentazioni storiche” che si sono verificate: “Stiamo già lavorando per risolvere i recenti problemi con la funzione di generazione di immagini di Gemini – si legge nel tweet – Mentre lo facciamo, metteremo in pausa la generazione delle immagini delle persone e presto pubblicheremo una versione migliorata”.

Tutto è iniziato quando un utente ha chiesto a Gemini di creare immagini di un soldato tedesco: inizialmente il chatbot si è rifiutato; dopo che è stato specificato nella richiesta “soldato tedesco del 1943”, ecco che il software ha restituito una serie di immagini di soldati neri in uniforme. Un fatto decisamente insolito per l’esercito dell’epoca.

L’episodio ha riacceso le polemiche riguardo l’approccio dell’azienda big tech della Silicon Valley nei confronti dell’etnia. Alcuni utenti, infatti, avevano segnalato il servizio per essersi rifiutato di rappresentare persone bianche: quando è stato chiesto a Gemini di generare immagini di coppie cinesi o nere, nessun problema; ma ecco che, quando invece è stato chiesto di creare foto di persone bianche, il software ha dichiarato di non essere in grado di generare immagini basate su etnie specifiche per evitare di perpetuare stereotipi dannosi.

Google ha risposto a queste critiche affermando che, sebbene sia positivo che Gemini abbia creato una vasta gamma di rappresentazioni umane, in questo caso ha “mancato il bersaglio”. La reazione negativa suscitata da questa vicenda richiama alla memoria vecchie controversie riguardanti i pregiudizi nelle tecnologie della multinazionale: nel 2015, per esempio, Google Foto aveva etichettato un’immagine di 2 persone nere come “gorilla”, portando l’azienda a bloccare la capacità dell’applicazione di riconoscere immagini di gorilla, scimmie o primati, compresi gli stessi animali.

Sulla scia di questi errori, negli anni successivi Google si è impegnata a ridurre qualsiasi risultato della sua tecnologia che potesse essere considerato offensivo. Ora però, secondo gli utenti, il problema sembra essersi polarizzato sull’estremo opposto, sfociando in un tentativo esagerato di rappresentazione della diversità razziale.

Ora Google, come molte altre aziende tech, è di fronte alla necessità di affrontare non solo gli aspetti tecnici della sua AI, ma anche le implicazioni sociali e culturali che l’intelligenza artificiale porta con sé. E dunque la strada verso un uso consapevole e responsabile della tecnologia sembra ancora essere in fase di definizione.

Leggi anche
Intelligenza artificiale
di Ilaria Marciano 3 min lettura
Tecnologia
di Ilaria Marciano 2 min lettura