Futuro

Meta etichetterà le immagini prodotte dall’AI

Il colosso statunitense segnalerà le fotografie generate dall’intelligenza artificiale e pubblicate sui social, con l’obiettivo di contrastare la disinformazione. Tuttavia, la nuova funzionalità non valuterà i contenuti audio e video
Credit: Nick Andréka 
Tempo di lettura 3 min lettura
9 febbraio 2024 Aggiornato alle 07:00

Dal Papa col piumino bianco alle foto di modelle che non esistono: la potenza delle immagini generate con intelligenza artificiale è ormai nota a tutti. Siamo consapevoli che, nella maggior parte dei casi, è facile essere tratti in inganno. Per questo motivo, Meta, il colosso dei social media “partorito” da Mark Zuckerberg, inizierà a etichettare le immagini create con software di intelligenza artificiale generativa, come OpenAi, Midjourney e altri.

Ad annunciarlo sono stati gli stessi dirigenti dell’azienda, che sperano che la decisione possa aumentare la tutela degli utenti: «Spero che questo sia un grande passo in avanti nel tentativo di garantire che le persone sappiano cosa stanno guardando e sappiano da dove proviene ciò che stanno osservando - ha spiegato Nick Clegg, global affairs della società - Mentre la differenza tra contenuto umano e artificiale diventa sempre più sfumata, le persone vogliono sapere dove si trova il confine».

Dunque casa Zuckerberg porta alla luce una sfida fondamentale nell’era digitale e dell’intelligenza artificiale, ma per ora la decisione di etichettare questi prodotti presenta un limite e sicuramente non offre una soluzione definitiva: Clagg, infatti, ha specificato che al momento Meta non è in grado di riconoscere audio e video prodotti con i sistemi di AI

Per aggirare questo ostacolo, sarà aggiunta una funzionalità che permetterà agli utenti stessi di etichettare volontariamente contenuti visivi e audio come prodotti dell’intelligenza artificiale, affidandosi completamente all’etica e all’onestà delle persone.

Ma non si tratta solamente di una questione di trasparenza: infatti le preoccupazioni riguardanti i pericoli dei contenuti generati dall’AI si sono concretizzate in episodi ben più gravi di Papa Francesco con il piumino bianco; per esempio con la creazione di immagini false e sessualmente esplicite attribuite alla pop star Taylor Swift, che sono poi, inevitabilmente, circolate sui social.

Una questione anche politica

Il tema dell’intelligenza artificiale turba il mondo della politica. E proprio in vista delle presidenziali negli Stati Uniti, Clegg ha sottolineato: «In un anno elettorale come questo, spetta a noi come industria assicurarci di fare tutto ciò che la tecnologia consente per fornire la massima visibilità alle persone in modo che possano distinguere ciò che è prodotto con l’intelligenza artificiale e ciò che non lo è».

Per tutelare i propri elettori, un gruppo di senatori americani ha avanzato una proposta di legge che vieterebbe l’uso di contenuti ingannevoli creati con gli strumenti di AI che raffigurano i candidati a cariche federali in spot di natura politica: «Penso che sia giusto disporre di guardrail per garantire la giusta trasparenza su come vengono costruiti questi grandi modelli di intelligenza artificiale e assicurarsi che siano adeguatamente sottoposti a test in modo che siano il più sicuri possibile», spiega Clegg.

Ma solo il tempo ci sarà dire se questi sforzi saranno utili a prevenire la disinformazione. Sicuramente, conclude Clegg, il lavoro che si sta svolgendo in questa fase sarà utile per migliorare un approccio futuro, garantendo sicurezza a tutti gli utenti delle piattaforme.

Leggi anche
sicurezza minori
di Antonio Pellegrino 3 min lettura
elezioni
di Ilaria Marciano 3 min lettura