Futuro

Il Parlamento europeo ha approvato l’AI Act: cosa prevede?

La normativa punta a regolamentare lo sviluppo, l’uso e la commercializzazione di prodotti basati sull’intelligenza artificiale. Ecco i punti fondamentali, le tempistiche per l’attuazione e le possibili sanzioni
Credit: Maxim Berg 
Tempo di lettura 4 min lettura
14 marzo 2024 Aggiornato alle 16:00

Ieri, 13 marzo 2024, il Parlamento europeo ha approvato l’AI Act, un regolamento europeo destinato a guidare lo sviluppo e l’uso dell’intelligenza artificiale all’interno e al di fuori dei confini dell’Unione europea. Un evento che rappresenta un passo significativo verso la creazione di un quadro normativo unificato per l’AI, con l’obiettivo primario di garantire il rispetto dei diritti fondamentali e della dignità umana in un’era sempre più caratterizzata dalla tecnologia.

L’AI Act è il risultato di un lungo e complesso percorso legislativo che ha visto, da una parte, un complicato accordo tra le parti, nato dalle ceneri di una proposta del 2021 formulata dalla Commissione europea (che, tra le altre cose, prevedeva la comunicazione di un approccio europeo sulla nuova tecnologia, la revisione del piano coordinato sull’intelligenza artificiale e la proposta quadro); dall’altra, i rapidissimi tempi dell’innovazione che ha spinto i negoziati ad aggiornarsi costantemente.

AI Act: i punti fondamentali

Ma vediamo meglio quali sono gli obiettivi e i punti chiave del nuovo regolamento europeo.

Prima di tutto, al centro dell’AI Act c’è l’ambizioso obiettivo di comprendere, immaginare e regolare in modo etico e giudizioso le diverse situazioni giuridiche legate all’applicazione dei sistemi di AI. Il che comprende, tra le altre cose, il riconoscimento facciale da parte delle forze dell’ordine, gli impieghi pratici delle aziende private e il grande tema della disinformazione online.

Un aspetto fondamentale del regolamento è la classificazione dei sistemi di intelligenza artificiale in base al rischio associato, definendo 4 categorie: minimo, limitato, alto e inaccettabile. Ma cosa vuol dire, in parole semplici? Il concetto è piuttosto semplice e intuitivo: maggiore è il rischio, maggiori sono le responsabilità e maggiori sono le restrizioni per produttori e utilizzatori di questi sistemi.

Per esempio, nei rischi minimi e limitati rientrano i filtri antispam, che saranno quindi soggetti a una regolamentazione più leggera; tra i rischi alti e inaccettabili rientrano invece tutti quei sistemi utilizzati in settori critici come infrastrutture, istruzione, sanità e forze dell’ordine, che dovranno rispettare requisiti rigorosi e adeguarsi ai divieti su pratiche dannose, come la manipolazione dei comportamenti delle persone, la raccolta massiccia di foto di volti da internet, il riconoscimento delle emozioni sul posto di lavoro o a scuola o i sistemi di punteggio sociale.

La legge, inoltre, introduce specifiche disposizioni per affrontare i rischi derivanti dai sistemi alla base degli strumenti di intelligenza artificiale generativa e dei chatbot, come per esempio ChatGPT di OpenAI. Nello specifico, queste disposizioni implicano che i produttori dei software, impiegati per diversi scopi, dovranno essere trasparenti riguardo al materiale utilizzato per addestrare i propri modelli.

Inoltre, tutti i produttori, sia europei che non, saranno obbligati a rispettare rigorosamente la normativa sul copyright dell’Unione europea, stabilendo così un quadro normativo chiaro e responsabile per lo sviluppo di queste tecnologie.

Nonostante gli sforzi per bilanciare l’innovazione e la protezione dei diritti fondamentali, l’AI Act ha suscitato critiche significative. Uno dei punti che ha sollevato maggiori preoccupazioni è l’approvazione della sorveglianza biometrica di massa da parte delle forze dell’ordine in contesti pubblici, decisone che porta timori per la privacy, la discriminazione e i potenziali abusi di potere.

Tempi di adeguamento e sanzioni

Le disposizioni dell’AI Act saranno introdotte gradualmente, in modo che tutti gli Stati abbiano il tempo di adeguarsi alla nuova normativa. Nei prossimi 6 mesi verranno implementati i divieti e sia i soggetti pubblici che quelli privati dovranno valutare i rischi associati ai sistemi che utilizzano. Dopo un anno saranno stabilite invece le norme per i modelli fondamentali, ossia le intelligenze artificiali generative, che dovranno rispettare rigorosi standard di trasparenza, sicurezza informatica e condivisione della documentazione tecnica.

Queste regole si applicheranno prima che questi prodotti siano commercializzati, soprattutto per le intelligenze artificiali ad alto impatto come ChatGPT, mentre per modelli più semplici le regole entreranno in vigore al momento della commercializzazione. Infine, dopo 2 anni, l’AI Act sarà completamente in vigore, con l’applicazione di sanzioni che varieranno dall’1,5% al 7% del fatturato globale, con ammende che possono arrivare fino a 35 milioni di euro.

Leggi anche
intelligenza artificiale
di Federica Biffi 4 min lettura
elezioni
di Ilaria Marciano 3 min lettura