Futuro

OpenAI presenta Voice Engine per clonare la voce

Il nuovo strumento della società madre di ChatGPT è capace di imitare le persone utilizzando solo una clip audio di 15 secondi. Tuttavia, il rischio di manipolazione è alto e l’azienda non è ancora pronta per il lancio sul mercato
Credit: Ana Flávia
Tempo di lettura 3 min lettura
3 aprile 2024 Aggiornato alle 12:00

L’intelligenza artificiale generativa fa progressi: adesso c’è un nuovo strumento che è in grado di replicare la voce di una persona basandosi su un breve campione audio di soli 15 secondi. È Voice Engine, il nuovo prodotto targato OpenAI; tuttavia, la società deve analizzare importanti considerazioni etiche e pratiche prima del rilascio pubblico, soprattutto in vista delle elezioni. Infatti, l’azienda ha dichiarato di voler adottare un approccio “cauto e informato”, avviando un dialogo aperto sull’importanza di un impiego responsabile delle voci sintetiche.

Riconosciamo che produrre discorsi che assomigliano alla voce della gente comporti seri rischi, che sono particolarmente importanti in un anno elettorale – spiega OpenAI – Stiamo collaborando con partner statunitensi e internazionali provenienti da tutti i settori del Governo, dei media, dell’intrattenimento, dell’istruzione, della società civile per garantire che siano presi in considerazione i feedback di tutti gli attori”.

Quindi, quando sarà disponibile Voice Engine? La società ha affermato che prenderà una decisione solo dopo aver condotto ulteriori test e aver avviato un dibattito pubblico sulla questione. Nello specifico, OpenAI vuole assicurarsi di avere gli strumenti necessari per tutelare gli utenti, introducendo misure che garantiscano che “il proprietario della voce originale fornisca consapevolmente la propria voce al servizio” e che impediscano “la creazione di voci troppo simili a figure di spicco”.

L’abuso dell’intelligenza artificiale, infatti, è una delle principali preoccupazioni in vista delle presidenziali Usa del 2024. Ma questo, di certo, non è un tema nuovo: per esempio, l’ex primo ministro pakistano, Imaran Khan, durante le elezioni parlamentari di febbraio, ha utilizzato discorsi generati dall’intelligenza artificiale per interagire con i suoi sostenitori nonostante la sua detenzione.

Ancora, in un altro caso, un robocall che impersonava il presidente americano Joe Biden è stato utilizzato per influenzare gli elettori durante le primarie del Partito Democratico del New Hampshire. Insomma: OpenAI ha i suoi motivi per prendersi il tempo necessario.

Nel frattempo, l’azienda ha sottolineato di aver implementato diverse misure di sicurezza per i partner che testano Voice Engine, che includono, a esempio, l’utilizzo di filigrane per tracciare l’origine di qualsiasi audio generato dallo strumento e il monitoraggio attivo dell’utilizzo di questa nuova tecnologia.

Dunque, mentre l’intelligenza artificiale continua a fare passi da gigante e offrire possibilità sempre più straordinarie, è altrettanto chiaro che l’etica e la responsabilità nell’uso di questi strumenti sono questioni cruciali da affrontare. E OpenAI sembra determinata a farlo. Resta da vedere come Voice Engine sarà accolto e impiegato nel panorama della comunicazione.

Leggi anche