Meta etichetterà le immagini prodotte dall’AI
Dal Papa col piumino bianco alle foto dimodelle che non esistono: la potenza delleimmagini generate con intelligenza artificialeè ormai nota a tutti. Siamo consapevoli che, nella maggior parte dei casi,è facile essere tratti in inganno. Per questo motivo,Meta, il colosso dei social media “partorito” daMark Zuckerberg, inizierà aetichettare le immaginicreate con software diintelligenza artificiale generativa,comeOpenAi,Midjourneye altri. Ad annunciarlo sono stati gli stessi dirigenti dell’azienda, che sperano che la decisione possa aumentare latutela degli utenti: «Spero che questo sia un grande passo in avanti nel tentativo di garantire che le persone sappiano cosa stanno guardando e sappiano da dove proviene ciò che stanno osservando – haspiegatoNick Clegg, global affairs della società – Mentre la differenza tra contenuto umano e artificiale diventa sempre più sfumata, le persone vogliono sapere dove si trova il confine». Dunque casa Zuckerberg porta alla luce una sfida fondamentale nell’era digitale e dell’intelligenza artificiale, ma per orala decisione di etichettare questi prodotti presenta un limitee sicuramente non offre una soluzione definitiva: Clagg, infatti, ha specificato che al momentoMeta non è in grado di riconoscere audio e videoprodotti con i sistemi di AI Per aggirare questo ostacolo, sarà aggiunta una funzionalità chepermetterà agli utenti stessi di etichettare volontariamentecontenuti visivi e audio come prodotti dell’intelligenza artificiale, affidandosi completamente all’etica e all’onestà delle persone. Ma non si tratta solamente di una questione di trasparenza: infatti le preoccupazioni riguardanti i pericoli dei contenuti generati dall’AI si sono concretizzate in episodi ben più gravi di Papa Francesco con il piumino bianco; per esempio con lacreazione di immagini false e sessualmente esplicite attribuite alla pop starTaylor Swift,che sono poi, inevitabilmente, circolate sui social. Una questione anche politica Iltema dell’intelligenza artificiale turba il mondo della politica.E proprio in vista delle presidenziali negli Stati Uniti, Clegg ha sottolineato: «In un anno elettorale come questo, spetta a noi come industria assicurarci di fare tutto ciò che la tecnologia consente per fornire lamassima visibilità alle persone in modo che possano distinguere ciò che è prodotto con l’intelligenza artificialee ciò che non lo è». Per tutelare i propri elettori, un gruppo di senatori americani ha avanzato unaproposta di legge che vieterebbe l’uso di contenuti ingannevoli creati con gli strumenti di AIche raffigurano icandidati a cariche federali in spot di natura politica: «Penso che sia giusto disporre diguardrailper garantire la giusta trasparenza su come vengono costruiti questi grandi modelli di intelligenza artificiale e assicurarsi che siano adeguatamente sottoposti a test in modo che siano il più sicuri possibile», spiega Clegg. Ma solo il tempo ci sarà dire se questi sforzi saranno utili a prevenire la disinformazione. Sicuramente, conclude Clegg, il lavoro che si sta svolgendo in questa fase sarà utile per migliorare un approccio futuro, garantendo sicurezza a tutti gli utenti delle piattaforme.