Riconoscimento facciale: possiamo stare tranquilli?

Lo scorso 29 giugno, a seguito del sì della Camera, il Senato ha approvato la moratoria sul riconoscimento facciale negli spazi pubblici, in scadenza a fine anno, fino al 31 dicembre 2025. L’emendamento è stato presentato dal Partito Democratico, egarantisce un ulteriore periodo di tutelacontro i progetti diinstallare sistemi di riconoscimento facciale nelle videocamere di sorveglianzapresenti in luoghi aperti al pubblico, in attesa dell’effettiva entrata in vigore dell’AI Act europeo. Negli ultimi anni, molti sindaci del centrodestra avevano tentato di installare telecamere con riconoscimento facciale nei luoghi pubblici, ma i loro tentativi erano stati bloccati dal Garante della Privacy, che finora si è opposto all’utilizzo di questi sistemi che rischiano di essere discriminatori e inefficaci. Nel riconoscere i benefici derivanti dall’affermazione dell’intelligenza artificiale, dei servizi in cloud o dell’Internet delle cose,il G7 dei Garanti Privacy,che si terrà in Italia nel 2024, “ha evidenziato anche come queste tecnologie, se non controllate, possano causare danni e ledere i diritti e gli interessi degli individui”. Una contrarietà all’utilizzo di queste tecnologie è arrivata anche dall’Europa(nonostante le pressioni del PPE), chenell’AI Actne prevede l’utilizzo solo nei casi in cui vi sia un rischio effettivo per la sicurezza nazionale. Il testo approvato dal Parlamento Europeo ha tuttavia generato perplessità per associazioni comeAmnesty International, che in untweetha comunicato il proprio disappunto verso la decisione dinon proteggere i migranti, i rifugiati e i richiedenti asilodal divieto di sorveglianza biometrica, visto che l’AI Actnon tutela gli individui “in transito” ai confini europei. Un’altra controversia sottovalutata deriva dall’utilizzo avvenuto in occasione di alcune partite di queste misure invasive, e talvolta non autorizzate, contro i tifosi neglistadi europei. Sono innumerevoli i casi che ci mostrano i possibili danni derivanti dall’utilizzo di queste tecnologie, un esempio è quello diClearview AI, la società americana multata dal Garante della Privacy per aver raccolto in modo illecito dati personali come i parametri biometrici e di geolocalizzazione delle persone in Italia, oltre che in altri 24 Paesi. Negli Stati Uniti, privi di una netta regolamentazione a riguardo, l’utilizzo di questi strumenti si è diffuso a macchia di leopardo, anche in luoghi come gliaeroportio nelle arene dei concerti, generando proteste che sono state supportate da più di 100 artisti tra cui i Rage Against The Machine, che si sono uniti allalotta contro i sistemi di riconoscimento facciale utilizzati dai tornelli ai concertiper associare il volto delle persone al biglietto. In una dichiarazione ufficiale, Leila Nashashibi, attivista diFight for the Future, ha scritto: “Le aziende tecnologiche stanno proponendo l’uso di strumenti di dati biometrici come ‘innovativi’ e utili per aumentare l’efficienza e la sicurezza.Non solo è falso, è anche moralmente ingiusto. Per cominciare, questa tecnologia è così imprecisa che in realtà crea più danni e problemi di quanti ne risolva, attraverso l’errata identificazione e altri difetti tecnici. Ancora più spaventoso, però, è un mondo in cui il sistema funzioni perfettamente al 100%, in altre parole, uno scenario in cui la privacy è inesistente, dove siamo identificati, osservati e sorvegliati ovunque andiamo”. Come spiegato dall’Hermes Center- una delle organizzazioni che insieme Edri –European Digital Rightse alla coalizioneReclaim Your Facesi battono per un divieto assoluto dei sistemi di riconoscimento biometrico con la campagnaDontSpyEU, al fine di tutelare la libertà e la privacy dei cittadini – “tecnologie di questo tipo sono già utilizzate in alcuni Stati extraeuropei, tra cui Cina e Iran. Negli ultimi anni, i cittadini di questi e altri Paesi hanno potuto sperimentare sulla propria pelle l’invasività e la pericolosità della videosorveglianza di massa”.