Nizza: le telecamere di sorveglianza sfruttano l’AI

Nizza: le telecamere di sorveglianza sfruttano l’AI

 

ANizzaè in corso un esperimento.Migliaia di telecamere di sorveglianza, 4200 per la precisione, installate in tutta la città, una ogni 81 residenti. Ma nontelecamerequalsiasi, quelle cosiddette Cctc o a circuito chiuso, di cui ogni città è dotata per il controllo delle strade pubbliche. Qui di mezzo c’è l’intelligenza artificialepiù sofisticata, che con ilriconoscimento faccialeriesce a distinguere tra loro anche due gemelli. I dispositivi hanno schermi provvisti di sensori termici poi collegati a un sistema centrale di comando, in grado di captare piccole infrazioni come un parcheggio irregolare o movimenti sospetti come qualcuno che tenta di accedere a un edificio scolastico. Il motivo della loro installazione non è una blanda paranoia, ma le prossimeOlimpiadi 2024, che si terranno a Parigi. E un fatto non poi così lontano nel tempo: l’orribileattentato del 14 luglio 2016, in cui schiacciati da un camion lanciato a tutta velocità sulla Promenade des Anglais persero la vita 86 persone, e altre 458 rimasero ferite. «Ci è stata dichiarata una guerra, e noi possiamo vincerla con le armi della pace» ha dichiarato il sindaco Christian Etrosi. Nizza è adesso la città più monitorata della Francia e un laboratorio per una rivoluzione globale nell’attività delle forze dell’ordine basata sull’uso dell’intelligenza artificiale, «l’arma più protettiva di cui disponiamo» nelle parole di Etrosi. Non è la prima volta per la città della Costa Azzurra.Nel corso dei festeggiamenti per il Carnevale del 2019 erano state già sperimentate delle telecamere con il riconoscimento facciale, ma la normativa in quel caso era stata estremamente restrittiva, al punto che il test fu eseguito solo su volontari in determinate aree della città. C’è anche un altro sistema testato sull’iconico lungomare della città francese, come riporta ilWashington Post.Un algoritmo che se utilizzato a suo tempo avrebbe potuto sventare l’attacco poi rivendicato dall’Isis. È infatti capace di segnalare veicoli irregolari e movimenti dei pedoni in tempo reale, e secondo le autorità locali avrebbe potuto avvisare la polizia per tempo prima che l’autocarro si schiantasse a tutta velocità sulla folla durante i festeggiamenti del 14 luglio, festa nazionale francese. In arrivo vi sono anche altri sistemi all’avanguardia in grado di rilevare improvvisi movimento della folla o abbandono di oggetti nel suolo. Non mancano lecriticità, e sono tuttesul piano della privacy, in un Paese come la Francia dove la regolamentazione in ambito digitale è tra le più severe. Alcuni hanno parlato di meccanismi di orwelliana memoria, mentre Félix Tréguer, cofondatore dell’associazione per i diritti digitaliLa Quadraturedu Net, ha ipotizzato un futuro in cui «tutti saranno messi sotto l’occhio osservatore dell’AI». Non c’è ancora da aspettarsi quanto già accadutoin Cina ai Giochi Asiatici di settembre, durante i quali si era arrivati a installaretelecamere con il riconoscimento facciale nelle camere di hotelin modo da avere la conferma dell’identità degli ospiti. Ma la corsa verso l’uso dell’intelligenza artificiale come strumento di lotta al crimine nei governi occidentali è già in atto. Anche in Italia:a Veneziaesistono per esempiotelecamere capaci di riconoscere forma e misure delle barchein modo da monitorarne la velocità e la sicurezza. Esistono peròlimiti da non oltrepassare, stabiliti nello storico accordo raggiunto nella Ue con il cosiddettoAI Act. Per l’identificazione biometrica per esempio, deve esservi una autorizzazione giudiziaria. Per la tecnologia del riconoscimento facciale, invece, l’applicazione sarà ammessa solo per identificare condannati o sospettati di aver commesso un reato grave. La sorveglianza in tempo reale è possibile solo in limitate circostanze, come nel caso di sospettati di terrorismo o di vittime di rapimento. A spiegarlo è l’eurodeputato Pd Brando Benifei, relatore dell’AI Act: «Se vogliono cercare qualcuno con indosso una maglietta rossa, possono farlo». Ma è diverso il caso in cui si vogliano per esempio «registrare tutte le persone nere perché si è in cerca di un terrorista di pelle scura». In quel caso i dati biometrici non potranno essere utilizzati.