Futuro

Nizza: le telecamere di sorveglianza sfruttano l’AI

In vista delle Olimpiadi di Parigi del 2024 e in memoria dell’attentato del 2016 sulla Promenade des Anglais, si sta sperimentando un sistema di riconoscimento facciale basato sull’intelligenza artificiale
Tempo di lettura 4 min lettura
2 gennaio 2024 Aggiornato alle 14:00

A Nizza è in corso un esperimento. Migliaia di telecamere di sorveglianza, 4200 per la precisione, installate in tutta la città, una ogni 81 residenti. Ma non telecamere qualsiasi, quelle cosiddette Cctc o a circuito chiuso, di cui ogni città è dotata per il controllo delle strade pubbliche. Qui di mezzo c’è lintelligenza artificiale più sofisticata, che con il riconoscimento facciale riesce a distinguere tra loro anche due gemelli.

I dispositivi hanno schermi provvisti di sensori termici poi collegati a un sistema centrale di comando, in grado di captare piccole infrazioni come un parcheggio irregolare o movimenti sospetti come qualcuno che tenta di accedere a un edificio scolastico.

Il motivo della loro installazione non è una blanda paranoia, ma le prossime Olimpiadi 2024, che si terranno a Parigi. E un fatto non poi così lontano nel tempo: l’orribile attentato del 14 luglio 2016, in cui schiacciati da un camion lanciato a tutta velocità sulla Promenade des Anglais persero la vita 86 persone, e altre 458 rimasero ferite. «Ci è stata dichiarata una guerra, e noi possiamo vincerla con le armi della pace» ha dichiarato il sindaco Christian Etrosi. Nizza è adesso la città più monitorata della Francia e un laboratorio per una rivoluzione globale nell’attività delle forze dell’ordine basata sull’uso dell’intelligenza artificiale, «l’arma più protettiva di cui disponiamo» nelle parole di Etrosi.

Non è la prima volta per la città della Costa Azzurra. Nel corso dei festeggiamenti per il Carnevale del 2019 erano state già sperimentate delle telecamere con il riconoscimento facciale, ma la normativa in quel caso era stata estremamente restrittiva, al punto che il test fu eseguito solo su volontari in determinate aree della città.

C’è anche un altro sistema testato sull’iconico lungomare della città francese, come riporta il Washington Post. Un algoritmo che se utilizzato a suo tempo avrebbe potuto sventare l’attacco poi rivendicato dall’Isis. È infatti capace di segnalare veicoli irregolari e movimenti dei pedoni in tempo reale, e secondo le autorità locali avrebbe potuto avvisare la polizia per tempo prima che l’autocarro si schiantasse a tutta velocità sulla folla durante i festeggiamenti del 14 luglio, festa nazionale francese. In arrivo vi sono anche altri sistemi all’avanguardia in grado di rilevare improvvisi movimento della folla o abbandono di oggetti nel suolo.

Non mancano le criticità, e sono tutte sul piano della privacy, in un Paese come la Francia dove la regolamentazione in ambito digitale è tra le più severe. Alcuni hanno parlato di meccanismi di orwelliana memoria, mentre Félix Tréguer, cofondatore dell’associazione per i diritti digitali La Quadrature du Net, ha ipotizzato un futuro in cui «tutti saranno messi sotto l’occhio osservatore dell’AI».

Non c’è ancora da aspettarsi quanto già accaduto in Cina ai Giochi Asiatici di settembre, durante i quali si era arrivati a installare telecamere con il riconoscimento facciale nelle camere di hotel in modo da avere la conferma dell’identità degli ospiti. Ma la corsa verso l’uso dell’intelligenza artificiale come strumento di lotta al crimine nei governi occidentali è già in atto. Anche in Italia: a Venezia esistono per esempio telecamere capaci di riconoscere forma e misure delle barche in modo da monitorarne la velocità e la sicurezza.

Esistono però limiti da non oltrepassare, stabiliti nello storico accordo raggiunto nella Ue con il cosiddetto AI Act. Per l’identificazione biometrica per esempio, deve esservi una autorizzazione giudiziaria. Per la tecnologia del riconoscimento facciale, invece, l’applicazione sarà ammessa solo per identificare condannati o sospettati di aver commesso un reato grave. La sorveglianza in tempo reale è possibile solo in limitate circostanze, come nel caso di sospettati di terrorismo o di vittime di rapimento. A spiegarlo è l’eurodeputato Pd Brando Benifei, relatore dell’AI Act: «Se vogliono cercare qualcuno con indosso una maglietta rossa, possono farlo». Ma è diverso il caso in cui si vogliano per esempio «registrare tutte le persone nere perché si è in cerca di un terrorista di pelle scura». In quel caso i dati biometrici non potranno essere utilizzati.

Leggi anche
AI
di Francesco Carrubba 3 min lettura
Controllo
di Alice Dominese 3 min lettura