Futuro

AI Act. E ora?

Sorveglianza automatica. Regolamentazione delle intelligenze artificiali generative. Discriminazioni tra piccole e grandi aziende. Garanzie per i cittadini e libertà degli innovatori. Una valutazione critica è necessaria
Credit: Freepik  

Tempo di lettura 6 min lettura
14 dicembre 2023 Aggiornato alle 06:30

E dunque, faticosamente, il processo di approvazione dell’AI Act può proseguire. E forse portare a una decisione definitiva prima delle elezioni europee.

Il trilogo delle istituzioni che governano l’Europa - Commissione, Parlamento e Consiglio - è arrivato a un compromesso sulle questioni più controverse.

Ora restano alcuni passaggi importanti, compreso naturalmente il voto finale in Parlamento. E restano adempimenti attuativi di varia natura. Si prevede che il primo regolamento sistemico sull’intelligenza artificiale diventerà operativo non prima del 2025. E questo momento di calma dopo la tempestosa settimana del trilogo, forse, può essere l’occasione per una prima riflessione critica sull’argomento.

L’intelligenza artificiale ha bisogno di regole. Deve essere fatta in modo da rispettare i diritti umani, non deve generare discriminazioni, non deve alimentare la concentrazione del potere nelle mani di poche aziende gigantesche, deve aiutare gli umani a curarsi, a educarsi, a lavorare. Le regole sono importanti. Ma è chiaro che questa materia è davvero complessa. E dunque le regole non sono facili da scrivere.

In effetti, le dichiarazioni dei principali artefici dell’AI Act, piuttosto trionfalistiche, hanno innalzato le aspettative sulle conseguenze di questa nuova norma. Il che è un problema perché non è detto che tutto quello che si ritiene ne possa sortire, effettivamente succederà.

In generale, si può dire che l’AI Act potrebbe diventare una normativa decisiva su uno degli argomenti strategici del millennio e influenzare positivamente le regole a livello globale. Oppure, sostengono i critici come il presidente francese Emmanuel Macron, potrebbe risultare dannosa per lo sviluppo dell’innovazione in Europa e in tutti i Paesi che l’adotteranno. O infine, potrebbe rivelarsi del tutto inutile, superata presto dal progresso tecnologico.

L’impianto originale, scritto dalla Commissione prima dell’avvento di ChatGPT, era fondamentalmente un elenco di rischi relativi alle applicazioni più utilizzate, dalle inaccettabili alle innocue, e delle conseguenti decisioni: divieti, regolamentazioni stringenti, norme lasche e semplice laissez faire.

Con l’arrivo di ChatGPT, il Parlamento ha emendato il testo e introdotto regole non solo sulle applicazioni ma anche sulle tecnologie fondamentali che vengono usate per realizzare quelle applicazioni.

Nel trilogo, su questo si è discusso molto. Perché, da una parte, se non si regolano le piattaforme, chi fa le applicazioni diventa responsabile degli errori prodotti dai modelli fondamentali come GPT; ma, dall’altra parte, i produttori delle tecnologie fondamentali non sembrano in grado di cambiare radicalmente il modello con il quale producono le loro piattaforme e dunque non possono eliminare - o finora non sono riusciti a eliminare - gli errori allucinanti commessi dai loro prodotti, la possibilità di condurli a dire frasi offensive per il vivere civile, la mancanza di rispetto per il copyright e per la privacy, e così via: significherebbe, secondo alcuni, che quelle piattaforme semplicemente ignorerebbero la legge o si ritirerebbero dall’Europa.

Il compromesso è tutto da valutare: si dice che le piattaforme più grandi avranno responsabilità maggiori di quelle delle startup, ma si attendono chiarimenti sul modo che sarà adottato per classificare i grandi e i piccoli. Il pericolo è che la scarsa chiarezza finisca per intimorire le piccole imprese e lasciare tranquille le grandi, come in parte è successo con il regolamento sulla privacy, che impensierisce le Pmi e le pubbliche amministrazioni molto più che Facebook e TikTok. Se al contrario invece si chiarisse troppo, subentrerebbe paradossalmente un altro rischio: quello di scrivere regole destinate a essere velocemente superate dall’innovazione tecnologica. I modi con i quali sarà applicata la legge diventeranno forse più decisivi della legge stessa.

Anche perché il punto più controverso della normativa, quello sulla sorveglianza automatizzata nei luoghi pubblici, resta appeso alle interpretazioni degli stati.

Il Parlamento voleva vietare del tutto la sorveglianza nei luoghi pubblici fondata sui sistemi di riconoscimento facciale automatizzato e conseguentemente vietare la possibilità che la polizia intervenisse senza mandato per arrestare le persone che le intelligenze artificiali dovessero riconoscere come pericolose.

Ma certi governi hanno invece preteso di inserire possibili eccezioni. Per combattere il terrorismo e per altre gravissime minacce all’ordine pubblico. Questo significa però che la sorveglianza ci potrà essere, anche se dovrà determinare conseguenze soltanto in certi casi.

Il testo emerso dal trilogo dovrà essere votato dal Parlamento e si vedrà se il compromesso trovato sarà considerato accettabile. Il rischio che l’AI Act, per questo motivo, possa alla fine addirittura saltare non è pari a zero.

Ma se i tempi necessari a tutti questi chiarimenti dovessero essere tanto lunghi da lasciare alle piattaforme americane e cinesi la possibilità di conquistare di fatto il mondo e l’Europa prima dell’entrata in vigore dell’AI Act, la nuova legge potrebbe addirittura risultare inutile.

Sarebbe un disastro. Una regola sull’intelligenza artificiale è necessaria, anche se difficile. Di certo non basterebbe una normativa come quella che chiedono i produttori come Sam Altman, Ceo di OpenAI, che fondamentalmente vuole essere lasciato libero di lavorare e nello stesso tempo vuole bloccare i piccoli concorrenti. Sarebbe anche relativamente insufficiente una chiamata all’autoregolamentazione, come quella in qualche modo proposta dagli Stati Uniti. Ma anche una regola insensibile alle opportunità offerte dalla tecnologia, tale da fermare l’innovazione, sarebbe sbagliata.

Insomma. Quello che serve, forse, è una modalità di attuazione che consenta una rapida manutenzione della normativa. La legge chiederà ai produttori di intelligenza artificiale di testare i loro prodotti per verificare che non danneggino la società, prima di immetterli sul mercato? Ebbene: anche le regole dovrebbero poter essere testate e modificate velocemente quando si dimostrano inadeguate, per essere rinforzate nelle parti che si dimostrano in grado di influenzare positivamente lo sviluppo.

Leggi anche
AI Act
di Fabrizio Papitto 3 min lettura
Thisisengineering  
Intelligenza artificiale
di Ilaria Marciano 3 min lettura