Futuro

Giove, l’AI che prevede i reati

Il Dipartimento di pubblica sicurezza del ministero dell’Interno sta lavorando a un sistema predittivo che potrebbe aiutare a prevenire furti, rapine e molestie sessuali. Resta il problema privacy e discriminazione
Costanza Giannelli
Costanza Giannelli giornalista
Tempo di lettura 5 min lettura
7 giugno 2023 Aggiornato alle 14:00

Predire dove e quando avverranno i prossimi reati. Quello che sembra uno scenario da film di fantascienza potrebbe essere realtà in un futuro prossimo, e non nella Washington del 2054 di Minority Report ma nel nostro Paese. Il Dipartimento di pubblica sicurezza del ministero dell’Interno, infatti, sta lavorando a Giove, un sistema di “polizia predittiva” che, sfruttando un algoritmo basato sull’intelligenza artificiale, potrebbe aiutare gli investigatori a prevenire e reprimere i reati a più alto impatto sociale come furti, rapine e molestie sessuali.

Questo “sistema di elaborazione e analisi automatizzata per l’ausilio alle attività di polizia” sarà destinato a tutte le questure, dove sarà controllato e gestito da operatori della polizia di Stato come supporto all’indagine preliminare. Non è escluso che la sua applicazione possa essere estesa anche ad altri reati: si parla già, infatti, di un suo possibile impego per combattere il terrorismo.

Giove è stato progettato da una società privata per conto del Dipartimento di pubblica sicurezza con l’obiettivo di analizzare una mole enorme di dati e scovarne le correlazioni per individuare le serie criminali (i cosiddetti pattern) che collegano reati commessi in luoghi e tempi diversi e, basandosi su questi elementi, predire i futuri reati.

Per lo sviluppo dell’algoritmo è stata fondamentale l’esperienza di Keycrime, il software di polizia predittiva ideato nel 2008 dall’allora assistente capo della Questura di Milano Mario Venturi. L’idea alla base del programma, pensato soprattutto come strumento di contrasto alle rapine nelle farmacie e negli esercizi commerciali, spiegano Ivan Cimmarusti e Bianca Lucia Mazzei su Il Sole 24 Ore “era basata su un metodo investigativo e analitico ispirato alla logica del detective che cerca di capire come un fatto possa collegarsi a un altro: il presupposto di fondo è infatti che alla base di centinaia di furti o rapine non ci sono centinaia di criminali ma pochi soggetti che mettono in atto molti reati”. Questo approccio, rispetto a un’analisi statistica delle zone “calde” con più alta incidenza di reati, eviterebbe la ghettizzazione di queste aree e il rafforzamento di pregiudizi.

Anche l’utilizzo dell’AI, però, potrebbe non essere neutrale e unbiased. Sono già numerosi, del resto, gli esempi che mostrano come l’intelligenza artificiale sia pregna di stereotipi e foriera di discriminazioni.

Per questo, prima di essere operativo (potrebbe succedere già l’anno prossimo) dovrà essere redatto il “documento di valutazione dell’impatto” e Giove dovrà essere sottoposto alla valutazione del Garante della privacy. I nodi critici sono quelli legati alla tutela della privacy e della libertà personale, oltre all’individuazione di strategie che evitino pregiudizi e discriminazioni. Gli strumenti di polizia predittiva, infatti, sono già stati utilizzati in diverse parti del mondo per identificare possibili target criminali, ma il loro operato è finito più volte sotto accusa perché, anche in quest’ambito, le macchine sembravano riproporre stereotipi e alimentare discriminazioni.

Di polizia predittiva ne ha discusso a lungo anche il Parlamento europeo, che a metà giugno dovrebbe approvare l’AI act (la prima legge al mondo dedicata all’intelligenza artificiale da parte di un regolatore così importante) che interverrà anche riguardo questa materia per evitare che l’AI applicata alle Forze dell’ordine si trasformi in un incubo distopico.

A essere diverso, però, non sarà solo il modo in cui potrebbero venire individuati i reati, ma anche il modo di registrarli: perché possa funzionare, infatti, come tutti i sistemi di machine learning, Giove ha bisogno di essere “alimentato” con moltissime informazioni di qualità; per questo, anche le denunce dovranno cambiare.

Secondo le linee guida già elaborate dalla polizia di Stato, spiega ancora Il Sole 24 Ore, per i reati previsti da Giove saranno disponibili domande per approfondire le dinamiche e individuare le analogie con altri crimini. Saranno inoltre caricati “eventuali file di natura documentale o immagini e video riferibili all’evento denunciato anche se non consentano l’identificazione dei soggetti coinvolti” e “tutte le informazioni su posizione geografica, frequenza temporale e tipo di reato”.

Incrociando tutti i dati il software sarà in grado di individuare collegamenti anche tra eventi apparentemente scollegati e indicare i pattern: questo dovrebbe permettere di individuare dove potrebbero avvenire i crimini futuri e, conseguentemente, dare indicazioni riguardo come distribuire le forze dell’ordine sul territorio al fine di prevenirli.

Leggi anche
Inaugurazione a Gijon, in Spagna, presso il Centro d'arte del lavoro, di una mostra immersiva sul mondo di Van Gogh, dove grazie all'intelligenza artificiale i dipinti diventano tridimensionali.
Discriminazioni
di Chiara Manetti 4 min lettura
Intelligenza artificiale
di Sara Baroni 8 min lettura