Futuro

Intelligenza regolatoria

La discussione sull’AI Act, la normativa che deve guidare lo sviluppo dell’intelligenza artificiale in Ue, sembrava alle battute finali. E mentre molti giornali la davano per bloccata, la trattativa sembra essere ripartita
Credit: Steve Johnson 

Tempo di lettura 5 min lettura
23 novembre 2023 Aggiornato alle 06:30

Il grande progetto di regolamentazione dell’intelligenza artificiale che va sotto il nome di AI Act, dell’Unione europea, si trova nel punto culminante del suo iter deliberativo.

Dopo la prima proposta elaborata dalla Commissione, nella prima parte di quest’anno ci ha lavorato il Parlamento, che ha introdotto le sue modifiche, e adesso il testo è discusso nel trilogo tra la Commissione, il Parlamento e il Consiglio che rappresenta l’opinione degli Stati membri.

Purtroppo il trilogo avviene a porte chiuse. Di quello che vi si dice si hanno soltanto indiscrezioni, con documenti di parte che raggiungono i giornali, non si sa come, e aprono finestre non necessariamente obiettive sulle questioni più importanti che vengono affrontate nella discussione.

Le difficoltà non sono piccole. Alcune lobby dei produttori e dei grandi utenti di intelligenza artificiale non cessano di far sapere che vedono qualsiasi regolamentazione dell’intelligenza artificiale come un’interferenza nell’efficienza del mercato e una limitazione dell’innovazione. Ma questa impostazione ideologica è sempre meno credibile.

La consapevolezza che lo sviluppo di questa tecnologia potentissima vada diretto e non lasciato alla casualità delle intenzioni e delle capacità dei produttori appare sempre più diffusa.

D’altra parte è chiaro che molte norme già esistenti sono utilizzabili per gestire questo passaggio e per alimentare l’iniziativa dell’ecosistema dell’innovazione. E del resto molti Stati hanno le loro strategie e sono riluttanti a cedere all’Unione europea l’iniziativa sulla normativa dell’intelligenza artificiale.

Ma bisogna ammettere che una normativa unitaria che serva a favorire l’introduzione del tema dell’intelligenza artificiale nel quadro delle questioni relative al mercato unico europeo può creare un quadro interpretativo che favorisca la comprensione non solo giuridica ma anche imprenditoriale di una materia tanto importante per il futuro.

In generale, l’impostazione proposta dalla Commissione resiste.

Si tratta di regolamentare l’uso dell’intelligenza artificiale in modo da ridurre i rischi sociali, culturali ed economici che la sua applicazione può generale. L’AI Act fa una lista di rischiosità che prevede alcuni utilizzi non rischiosi e che dunque non richiedono norme particolari, altri utilizzi molto rischiosi e che possono essere contenuti facendo ricorso a regole settoriali già esistenti e a forme di monitoraggio specifiche, e infine altri utilizzi ancora che sono talmente tanto rischiosi da dover essere vietati.

Su questi divieti non tutti gli Stati sono d’accordo. In particolare, alcuni Paesi non vogliono che sia vietato l’uso dell’intelligenza artificiale nelle indagini della polizia che tecnicamente può avvalersi delle immagini raccolte in luoghi pubblici e usarle per riconoscere e perseguire immediatamente persone che commettono crimini, o per trovare ricercati, compresi i terroristi, e così via.

Ma la questione apparentemente più complessa riguarda il trattamento delle intelligenze artificiali generative - come ChatGPT - che sono arrivate sul mercato dopo che la Commissione aveva scritto il suo testo e che sono state comprese nell’AI Act per opera del Parlamento.

Non è semplice normare specificatamente i rischi connetti all’intelligenza artificiale generativa distinguendo le responsabilità delle “piattaforme” e delle “applicazioni”.

Molti rischi sono in effetti connessi all’uso che si può fare di certe applicazioni, ma derivano da come sono fatte le piattaforme.

Se un’azienda applica per esempio ai servizi sanitari l’intelligenza artificiale generativa si dovesse prendere la responsabilità dei rischi di questo specifico utilizzo, finirebbe con l’assumersi anche le responsabilità di chi ha fatto i modelli fondamentali usati nella piattaforma che a loro volta possono proporre informazioni sbagliate, distorte o addirittura “allucinazioni”.

Alcuni Paesi vogliono mano libera nella produzione di modelli fondamentali come quelli degli americani anche in Europa e pensano forse che le regole potrebbero frenare la loro rincorsa.

Negli ultimi giorni, alcuni giornali hanno suggerito che su questa questione l’intero pacchetto di misure contenuto dell’AI Act potesse naufragare. Ma le strategie industriali di certi Paesi non dovrebbero modificare eccessivamente la traiettoria della costruzione del mercato unico. E secondo molti osservatori alla fine probabilmente si troverà una quadra.

L’impostazione prescelta potrebbe essere quella di considerare le piattaforme con una grandissima dimensione in termini di utenti finali come maggiormente responsabili e dunque sottoposte a obblighi più grandi di quelli ai quali dovrebbero essere sottoposte le startup e le aziende più piccole. Il modello sarebbe il Digital Services Act. Le nuove aziende europee, in questo contesto normativo, avrebbero più libertà d’azione delle grandissime concorrenti americane.

Leggi anche
AI Act
di Fabrizio Papitto 3 min lettura
AI
di Fabrizio Papitto 2 min lettura