Futuro

Intelligenza artificiale: le leggi non basteranno

L’Europa rilancia il suo ruolo economico e tecnologico, ma soprattutto culturale, nell’AI. Per questo parte dalla regolamentazione. Ma tutti sanno che non sarà sufficiente
Credit: 8machine _
Tempo di lettura 5 min lettura
15 giugno 2023 Aggiornato alle 06:30

Con la votazione sull’AI Act di questa settimana, il Parlamento europeo chiude la sua parte di lavoro per arrivare alla nuova regolamentazione dell’intelligenza artificiale. Iniziano i triloghi tra le tre istituzioni europee: il Parlamento, appunto, la Commissione, che aveva lavorato al primo testo del regolamento, e il Consiglio.

La discussione che porterà al testo definitivo dovrà necessariamente coinvolgere tutti i grandi stakeholder. A partire dalle mega aziende americane, da Microsoft-OpenAI a Google-DeepMind e a Meta-Facebook. Forse si dovrebbe sentire la stessa Nvidia.

Gli americani che tanto spesso si dichiarano preoccupati per l’impatto dell’intelligenza artificiale farebbero bene a collaborare con l’impostazione europea, centrata sui diritti umani. Una certa coerenza in tal senso sarebbe una bella innovazione. E se fossero collaborative, le aziende americane potrebbero aiutare gli europei a trovare soluzioni normative adeguate: perché, di certo, l’AI Act non è facile da scrivere e da implementare.

L’impostazione del regolamento è basata su una classificazione della gravità dei rischi. Impone dunque delle limitazioni alla diffusione di tecnologie rischiose. E alcuni divieti: quando i rischi sono talmente gravi da apparire sostanzialmente inaccettabili.

Come ogni classificazione, anche questa è necessariamente soggettiva. Tanto per fare un esempio, qualifica come socialmente inaccettabile, e vietato, l’uso dell’intelligenza artificiale per il riconoscimento facciale, ma ne consente l’uso in caso di indagini per argomenti gravissimi, come il terrorismo. Ma non connette questo argomento con le modifiche a base di intelligenza artificiale delle fotografie che circolano in rete, considerate una questione non rischiosa.

Le false immagini potrebbero confondere le acque in modi difficilmente prevedibili. E poi è giusto che i ritocchi alle foto siano considerati tanto innocenti?

Può apparire un problema secondario, ma per un numero crescente di adolescenti le foto ritoccate che si pubblicano sui social network sono un motivo di sofferenza tale da spingerli alla depressione o addirittura a forme di dismorfofobia tanto gravi da indurli tentare la via della chirurgia plastica: il 13% degli interventi di chirurgia plastica sono collegati alla dismorfofobia (un disturbo psichiatrico che produce una patologica paura di avere difetti fisici che in effetti non esistono), secondo un paper di Cristina Gatto, scritto per il corso di Cittadinanza digitale all’Università di Modena e Reggio Emilia. Le discussioni sulla classificazione dei rischi non saranno semplici.

Ma mentre l’iter per il regolamento va avanti - e si prevede che il tutto sarà concluso nel 2025 - occorre che gli europei si preparino a un salto di qualità nella loro capacità di produrre sistemi di intelligenza artificiale seguendo i criteri che rispettano i valori dell’Unione europea.

In pratica, le istituzioni europee possono anche legiferare in modo tecnicamente competente e umanisticamente visionario. Ma se poi le aziende e i cittadini europei lasciano che comunque lo sviluppo dell’intelligenza artificiale sia opera di imprese americane e cinesi che in qualche caso non condividono i valori europei il processo di umanizzazione dell’automazione cognitiva si ferma a metà strada.

Le norme possono garantire uno spazio privilegiato per le aziende che vogliano seguire gli indirizzi valoriali e umanistici proposti dalle leggi europee. Ma poi occorrono le aziende che prendano quello spazio e lo trasfomino in opportunità di business.

Ce la possono fare perché in Europa c’è una fortissima attività di ricerca accademica. E perché ci sono aziende che stanno investendo molto nell’intelligenza artificiale, anche se non probabilmente sono le tipiche imprese tecnologiche: nelle attività bancarie, assicurative, nell’energia, nel commercio, in qualche caso addirittura nelle telecomunicazioni. E poi ci sono molte startup o piccole imprese innovative.

La vicenda di Mistral, startup francese dell’intelligenza artificiale appena nata e subito finanziata con 105 milioni di euro, dimostra che ci sono anche i soldi. Ma gli investimenti devono aumentare. E forse anche da questo punto di vista hanno bisogno di una mano dallo stato: in America e in Cina, con ogni evidenza, la spesa pubblica aiuta lo sviluppo delle mega aziende tecnologiche e di molte startup.

L’Europa a sua volta potrebbe fare di più per finanziare lo sviluppo dell’intelligenza artificiale europea che segue le leggi e i valori europei? Un nutrito gruppo di scienziati si è riunito al Parlamento europeo per iniziativa di HumaneAI e ha firmato una lettera per chiedere un impegno anche finanziario delle istituzioni europee per colmare il gap accumulato dopo l’accelerazione di cinesi e americani.

L’intelligenza artificiale può essere un grande aiuto in molti settori dell’economia, della produzione di energia e delle infrastrutture sociali, dalla sanità all’educazione. Non dovrebbe preoccupare troppo se la tecnologia viene addestrata con basi di dati ben fatte e se viene applicata ad attività relativamente specialistiche: in quel caso assiste gli umani in modo formidabile, aumentandone la produttività.

Se invece le basi di dati sono poco curate e le applicazioni sono generiche, si possono avere errori, allucinazioni, discorsi pericolosi e antisociali.

L’intelligenza artificiale sarà fondamentale per la lotta alla disinformazione e per garantire la cybersecurity. Potrà migliorare la pubblica amministrazione e la sanità. Ma deve anche essere chiaro che affidare questioni tanto strategiche a un oligopolio di aziende americane o cinesi sarebbe un rischio di prima grandezza: un rischio analogo - mutatis mutandis - a quello che gli europei hanno corso basando la loro economia sul gas di un solo Paese.

Gli investimenti necessari non sono certo al di fuori della portata dell’economia e delle finanze europee. Ma la grandezza dell’obiettivo può essere pareggiata soltanto dalla grandezza della visione strategica di chi deve realizzarlo.

Leggi anche
Intelligenza artificiale
di Luca De Biase 4 min lettura
Algoritmi
di Luca De Biase 4 min lettura