Il video è la prossima frontiera dell’IA?

Software come il vituperatoMidjourneyoDall-E, sviluppato dalla madre diChatGPT, OpenAI, ci hanno abituato in poco tempo a vedere breviinput di testotrasformarsi in immagini fisse più che realistiche, o perfino nelle illustrazioni di veri e proprilibriin vendita anche su Amazon. Il 20 marzo, la startup diintelligenza artificialeRunwayha peròannunciatoGen-2, un sistema di AI multimodale che consentirà di crearevideo a partire dal testo(text-to-video), in quella definita da diversi esperti la prossima frontiera dell’IA generativa. Lo stesso giorno Kelsey Rondenet, portavoce dell’azienda, avevadichiaratoal quotidianoThe Vergeche Runway avrebbe fornito “un ampio accesso” al nuovo tool “nelle prossime settimane”. Al momento tuttavia il servizio èancora in fase di test, nonostante dia la possibilità a chi voglia provarlo di mettersi inlista d’attesa. Diverse clip disponibili sul sito della piattaforma, per quanto acerbe, lasciano però intravedere i possibili sviluppi di una tecnologia che potrebberivoluzionarel’industria del digitale. Si pensi soltanto all’impatto in settori come il gaming o ilcinema, che già utilizza l’intelligenza artificiale peraccelerare i tempi e diminuire i costi di produzione. Il regista e specialista di effetti visiviEvan Halleckha utilizzato il software di Runway perrealizzareuna delle sequenze più esilarati del film vincitore di 7 premi OscarEverything Everywhere All at Once, che mostra due rocce mentre intrattengono una conversazione escatologica all’interno di un canyon della California. Ilceo diRunway,Cris Valenzuela, la chiama “Hollywood 2.0”, e profetizza l’avvento di una realtà nella quale «tutti saranno in grado di realizzare i film e i successi che solo una manciata di persone era in grado di fare prima». Allo stesso tempo, la possibilità di generare contenuti video amatoriali in poche mosse rappresenterebbe un ulteriorefattore di rischio per l’informazione, già compromessa dai sistemi text-to-image o dall’impiego dei cosiddetti videodeepfake. Runway non è l’unica società che si sta muovendo in questa direzione. Nell’autunno dell’anno scorso, due colossi comeGoogleeMetahanno dato notizia rispettivamente diImagen VideoeMake-A-Video, due sistemi text-to-video in fase di implementazione che non sono ancora stati rilasciati proprio a causa delle loropossibili implicazioni sociali. «Sebbene i nostri test interni suggeriscano che gran parte dei contenuti espliciti e violenti possono essere filtrati,esistono ancorapregiudizisociali e stereotipi che sono difficili da rilevare e filtrare», si legge in documento di ricercarilasciatodaGoogle. «Abbiamo deciso di non rilasciare il modello Imagen Video o il suo codice sorgente fino a quando queste preoccupazioni non saranno mitigate», conclude la società. Googleè al lavoro anche su un secondo modello generativo chiamatoPhenaki, un sistema più avanzato che consente di creare video della durata di diversi minuti. «Sebbene la qualità dei video generati da Phenaki non sia ancora indistinguibile dai video reali, arrivare a questo risultato per un set specifico di campioni è nel regno delle possibilità. Ciò può essere particolarmente dannoso se Phenaki deve essere utilizzato per generarevideo di qualcuno senza il suo consensoe la sua conoscenza», si legge nelladichiarazioneetica pubblicata dal team diGoogle Brain. Inoltri gli sviluppatori osservano come in particolareLaion-400M, uno dei set di open data utilizzato per l’addestramento di Phenaki, presenti «una varietà di problemi riguardanti la violenza, la pornografia, il sangue», ma precisano che la versione «attualmente in fase di addestramento» utilizzi una serie di set di dati che «minimizza tali problemi». Un altro problema riguarda l’utilizzo di immagini potenzialmente protette dacopyright. «I set di dati pubblici di immagini e video possono contenere esempi il cui stato di proprietà non è chiaro o impossibile da verificare», sottolineano gli sviluppatori. A febbraio di quest’anno, la nota agenzia fotograficaGetty Imagesha citato in giudizio la societàStability AIaccusandoladi aver elaborato illegalmente milioni di immagini protette da copyright per l’addestramento del suo software text-to-image Stable Diffusion. Ma la questione interssa non solo i contenuti preesistenti utilizzati senza licenza, ma anche il potenziale uso deicontenuti generati ex novodai sistemi di intelligenza artificiale. «Uno dei maggiori rischi qui è che questi motori possanogenerare la nostra proprietà intellettuale in modi nuovi, e questo è nelle mani del pubblico», hacommentatoalWall Street Journalilvicepresidente esecutivo dellaParamountPhil Wiser, che dichiara di aver riunito una squadra di esperti per personalizzare gli strumenti AI e assicurarsi così la proprietà intellettuale dei prodotti. Su questi temi si è aperto undibattito pubblicoancora in corso per disciplinare l’utilizzo dell’intelligenza artificiale. Il 29 marzo, ilFuture of Life Institutehapubblicatounalettera aperta, sottoscritta da oltre 13.000 esperti, ricercatori, imprenditori e cittadini, per chiedere di «sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di intelligenza artificialepiù potenti diGPT-4». Tra i firmatari ancheElon Muske il cofondatore diAppleSteve Wozniak, oltre a diversi dipendenti diGoogle,MicrosofteMeta– incluso il responsabile IA – e a decine di professori, borsisti ed ex allievi delMassachusetts Institute of Technlogy(Mit). «Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili», si legge nel documento, dove si chiede agli sviluppatori di collaborare con i responsabili politici per «accelerare drasticamente lo sviluppo di solidi sistemi di governance». Il teorico dell’IAEliezer Yudkowsky, cofondatore delMachine Intelligence Research Instituteper lo sviluppo sicuro e affidabile dell’intelligenza artificiale, ha definito la lettera un «miglioramento», ma ha dichiarato di essersi astenuto dal firmare in quanto ritiene che l’appello «sottostimila gravità della situazionee chieda troppo poco per risolverla». In un articolo apocalitticopubblicatosulTime, Yudkowsky afferma letteralmente che se non spegniamo tutte le macchine «moriremo tutti», e che prevenire lo scenario dell’estinzione del genere umano causata dall’IA è prioritario rispetto a quello di una guerra nucleare. Speriamo che, in quanto essere umano fallibile, Yudkowsky si sbagli.