Futuro

L’innovazione nelle regole europee sull’AI

Anche il Parlamento ha dato il suo contributo all’avanzamento della normativa sull’intelligenza artificiale. Il compito che si sono assunte le istituzioni è necessario. Ma non è facile. E deve essere innovativo
Credit: Nigel Hoare
Tempo di lettura 4 min lettura
18 maggio 2023 Aggiornato alle 06:30

Le istituzioni europee avanzano nella definizione di una regolamentazione dell’intelligenza artificiale. L’elaborazione avviene attualmente al Parlamento, che sta analizzando ed emendando le proposte della Commissione. La logica generale è sempre la stessa: classificare le forme di utilizzo dell’intelligenza artificiale in base ai loro rischi per il benessere della società e inventare un sistema per consentire le innovazioni dopo averne valutato i rischi e i vantaggi, un po’ come si fa con le innovazioni nella farmaceutica.

La prima difficoltà sta nella classificazione degli usi rischiosi. In alto ci sono i rischi “inaccettabili” che conducono al divieto. Poi ci sono i rischi elevati, medi e bassi che conducono a diverse forme di intervento.

Tra i rischi inaccettabili - che conducono al divieto - per ora sono previsti i sistemi che utilizzano tecniche subliminali o manipolatorie per modificare le opinioni delle persone, addirittura sfruttando le loro vulnerabilità, e i sistemi di social scoring (classificazione delle persone in base al loro comportamento sociale, allo status socioeconomico, alle caratteristiche personali) che determinano decisioni sulla loro vita automatiche e senza intervento umano.

Sono vietati anche i sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico mentre sono consentiti i sistemi di identificazione biometrica a distanza “a posteriori” nei casi in cui la magistratura ne consenta l’utilizzo alle forze dell’ordine per il perseguimento di reati gravi.

Altri sistemi vietati sono quelli che categorizzano le persone in base a caratteristiche sensibili (ad esempio, sesso, razza, etnia, cittadinanza, religione, orientamento politico), quelli che consentirebbero alla polizia di prevedere i reati (in base ai profili delle persone, alla loro storia criminale e ai luoghi nei quali abitano), quelli che riconoscono le emozioni per il controllo delle persone che attraversano la frontiera, entrano nei luoghi di lavoro o nelle scuole.

Per quanto riguarda i sistemi ad alto rischio i deputati hanno deciso di includere anche quelli che possono provocare danni alla salute, alla sicurezza, ai diritti fondamentali o all’ambiente delle persone, aggiungendo i sistemi di intelligenza artificiale usati per influenzare gli elettori nelle campagne politiche e nei sistemi di raccomandazione delle più grandi piattaforme di social media (secondo la definizione del Digital Services Act).

In questi casi occorreranno importanti attività di monitoraggio, le aziende dovranno fornire dati e consentire analisi indipendenti. Quanto alle intelligenze artificiali generative, dovranno fare in modo che i cittadini possano riconoscere le opere che sono state prodotte con sistemi automatici e che si possa sapere quali opere protette da copyright hanno utilizzato per assorbire le conoscenze che usano al fine di realizzare i loro servizi.

Perché queste normative non generino conseguenze indesiderate, come porre freni all’innovazione o consentire tecnologie nonostante la loro pericolosità, sarà cruciale inventare nuovi sistemi per valutare questi rischi prima che i prodotti vengano immessi sul mercato e poi monitorare le tecnologie in modo da garantire che i loro sviluppi non siano dannosi.

Sulla necessità di trovare soluzioni per mettere al sicuro la società dalle conseguenze della tecnologia più dinamica del momento si sono espressi ormai molti osservatori, tecnici e imprenditori. Alcuni sono ancora convinti che basti una sapiente autoregolamentazione delle aziende produttrici. Altri pensano che occorrano le leggi. Ma nessuno è ben sicuro di come si possa fare.

Quello che sta tentando l’Europa non è facile. Ma è il prodotto del pensiero più sofisticato che si sta sviluppando nel mondo su questa materia. Dovrebbe essere chiaro che anche questa attività è una forma di innovazione, che può avere aspetti dannosi ma può essere aggiustata alle circostanze e ai cambiamenti di contesto: se la normativa contenesse le logiche del suo tempestivo miglioramento di fronte al feedback che riceverà dalla realtà, avrebbe un valore in più.

Leggi anche
AI
di Fabrizio Papitto 2 min lettura
Scuola
di Caterina Tarquini 4 min lettura