Futuro

AI Act: cosa cambia con la stretta dell’Unione europea?

Il Consiglio Ue e l’Europarlamento hanno raggiunto un’intesa provvisoria sull’Artificial Intelligence Act: è la prima legge al mondo per regolamentare l’intelligenza artificiale e tutelare i diritti fondamentali
Thisisengineering  
Thisisengineering  
Tempo di lettura 4 min lettura
12 dicembre 2023 Aggiornato alle 10:00

Intelligenza artificiale sì, intelligenza artificiale no? Al di là del personale pensiero dei singoli, è indubbio che questa è una realtà che ha preso sempre più piede, permeando sempre più in profondità le nostre vite, quotidiane e lavorative.

E, tra dubbi, perplessità ed entusiasmo, l’argomento ha acceso un enorme dibattito, dove ciascun partito – i favorevoli e i contrari – ha sbandierato le sue motivazioni di appartenenza. Ma, d’accordo o no, l’intelligenza artificiale esiste, è utile, è comoda e sì, fa anche tanta paura. Ecco perché una regolamentazione dall’alto è necessaria, e finalmente i primi accordi sono stati raggiunti.

Nel corso di una maratona di negoziati protrattasi per 3 giorni, la Presidenza del Consiglio europeo e i rappresentanti del Parlamento hanno infatti conseguito un’intesa provvisoria ma cruciale in merito alla proposta di norme unificate sull’intelligenza artificiale.

Questo accordo, l’AI Act, segna un momento storico per la regolamentazione tecnologica e mira a stabilire linee guida chiare per l’introduzione di sistemi di AI sicuri nel mercato europeo, con particolare attenzione alla salvaguardia dei diritti fondamentali e dei valori dell’Unione europea.

AI Act: elementi chiave

L’approccio cardine dell’accordo è orientato al rischio, e sottolinea che regole più severe saranno applicate in relazione al potenziale impatto negativo di un sistema di intelligenza artificiale sulla società.

Una prospettiva innovativa, questa, che se adottata su scala globale potrebbe conferire all’Europa un ruolo di primo piano nella definizione degli standard internazionali in materia di regolamentazione tecnologica, in modo analogo a quanto ottenuto con il Gdpr, il regolamento della privacy.

Uno degli aspetti chiave dell’accordo riguarda la definizione di sistema di intelligenza artificiale, allineata all’approccio proposto dall’Organizzazione per la cooperazione e lo sviluppo economico (Ocse). Nello specifico, questa chiarezza definitoria è volta a distinguere in modo inequivocabile l’AI da sistemi software meno complessi.

Ancora, un elemento significativo è l’introduzione di una classificazione ad alto rischio per i sistemi di AI che potrebbero comportare gravi violazioni dei diritti fondamentali o rischi significativi: questo implica obblighi specifici per coloro che intendono introdurre tali sistemi nel mercato dell’Unione europea, ponendo un’enfasi particolare sulla sicurezza e la tutela dei diritti.

L’accordo, inoltre, stabilisce che la legge sull’intelligenza artificiale non sarà applicata a scopi militari o di difesa, né a finalità di ricerca, innovazione o uso non professionale. In quest’ottica, sono previste eccezioni per le forze dell’ordine, riconoscendo la necessità di preservare le capacità delle autorità di contrasto di utilizzare questi sistemi nel loro lavoro.

Governance e sanzioni

Ma come sarà gestita questa regolamentazione? Secondo quando accordato, il quadro di governance viene rafforzato con la creazione di un ufficio apposito all’interno della Commissione europea, incaricato di supervisionare modelli avanzati e di promuovere standard e pratiche di test. E il coinvolgimento degli Stati membri tramite un comitato e un forum consultivo contribuirà alla progettazione di codici di condotta e all’implementazione del regolamento.

Infine, in termini di sanzioni, l’accordo prevede penalizzazioni proporzionate al fatturato annuo globale delle società coinvolte, con massimali più contenuti per le piccole e medie imprese e per le start-up. Anche in questo caso viene accentuato l’aspetto legato alla trasparenza e alla tutela dei diritti fondamentali, richiedendo una valutazione d’impatto prima del lancio di sistemi ad alto rischio.

Nel complesso, questo accordo segna una pietra miliare nel percorso verso una regolamentazione equa e progressiva dei sistemi di intelligenza artificiale in Europa, promuovendo allo stesso tempo l’innovazione e il rispetto dei principi fondamentali dell’Unione europea.

Leggi anche