Futuro

AI: cosa prevede la legge italiana contro gli abusi e i rischi?

Il consiglio dei Ministri ha approvato il Ddl per l’uso responsabile dell’intelligenza artificiale; l’obiettivo: affiancare al regolamento europeo AI Act norme specifiche che tutelino l’utente in ogni processo decisionale legato alla tecnologia
Credit: Freepik 
Tempo di lettura 4 min lettura
25 aprile 2024 Aggiornato alle 19:00

Con l’introduzione di una legislazione mirata a regolamentare e guidare lo sviluppo dell’intelligenza artificiale, l’Italia ha compiuto un decisivo passo in avanti: il nuovo disegno di legge si propone infatti di stabilire paletti importanti per garantire che l’evoluzione di questa tecnologia avvenga sotto una rigorosa supervisione, mitigando il rischio di potenziali abusi.

In linea generale, il provvedimento si pone l’obiettivo di integrare l’AI Act, il regolamento europeo, con norme specifiche che pongano l’essere umano al centro di ogni processo decisionale legato all’AI. E Palazzo Chigi sarà il fulcro strategico, mentre l’Agenzia per l’Italia Digitale e l’Agenzia per la Cybersicurezza Nazionale fungeranno da autorità nazionali, con compiti di monitoraggio e vigilanza.

Uno degli aspetti sicuramente innovativi è l’introduzione di un nuovo reato, punibile con pene da 1 a 5 anni di reclusione, per chi provoca danni tramite l’impiego dell’intelligenza artificiale; ma la legge mira anche a incentivare l’attrazione di talenti e investimenti nel settore, estendendo le agevolazioni fiscali per i rimpatriati anche agli esperti di AI che hanno lavorato all’estero.

Dunque, con i suoi 25 articoli, il nuovo provvedimento vuole garantire che l’introduzione dell’intelligenza artificiale nei vari ambiti operativi avvenga in modo da supportare e non sostituire il giudizio umano.

Uno degli articoli più interessanti è il 21, dedicato agli “investimenti nei settori di intelligenza artificiale, alla cybersicurezza e al quantum computing”, che autorizza al finanziamento di un miliardo di euro per l’acquisizione di partecipazioni dirette o indirette in startup e Pmi innovative. Questo finanziamento punta a sostenere l’innovazione quantistica e a promuovere l’adozione di tecnologie emergenti come il mobile edge computing e il web3.

Inoltre, la legge prevede anche misure per regolare l’uso dell’AI nel mercato del lavoro, garantendo che l’adozione di sistemi di intelligenza artificiale sia sicura, affidabile e trasparente, per evitare possibili violazioni della dignità umana e della privacy.

Un’altra importante disposizione riguarda l’uso della tecnologia per fini di ricerca sanitaria: la legge, infatti, stabilisce che i trattamenti di dati per la ricerca medica, condotti da strutture pubbliche o centri di ricerca non profit, siano considerati di rilevante interesse pubblico, consentendo l’uso secondario delle informazioni per nuove ricerche senza richiedere il consenso esplicito.

La legge, poi, introduce norme per proteggere il diritto d’autore e identificare i contenuti generati dall’AI su piattaforme di streaming e social media: in questo senso, è previsto l’uso di un bollino identificativo per distinguere i contenuti realizzati o modificati da software di intelligenza artificiale, garantendo trasparenza e riconoscibilità agli utenti.

Infine, l’Agenzia per l’Italia Digitale guiderà l’implementazione su larga scala dell’AI all’interno degli enti pubblici, lavorando in stretta collaborazione con Consip, l’agenzia di approvvigionamento della pubblica amministrazione, mentre il Polo strategico nazionale sarà responsabile dell’infrastruttura necessaria per la migrazione dei dati critici e strategici della pubblica amministrazione. Ma sempre con trasparenza: gli interessati, infatti, dovranno poter comprendere il suo funzionamento e la tracciabilità del suo utilizzo.

Dunque la nuova legge rappresenta un passo in avanti fondamentale per il nostro Paese nel campo della tecnologia, e fornisce un quadro normativo chiaro e bilanciato che promuove l’innovazione, protegge i diritti degli individui e massimizza i benefici sociali ed economici derivanti dall’uso responsabile dell’intelligenza artificiale.

Leggi anche