L’Interpol vuole usare un algoritmo di IA contro la ‘ndrangheta: può funzionare?

Il progetto dell’Interpol denominato I-Can, che mira a contrastare la ‘ndrangheta, “potrà avvalersi del primo algoritmo predittivo di intelligenza artificiale per intercettare le strategie espansionistiche dell’organizzazione criminale e anticipare la minaccia”: lo ha spiegato a inizio novembre, nel corso della Conferenza sulla Cooperazione internazionale delle forze di polizia, il prefetto Vittorio Rizzi, vicecapo della polizia.

Ancora una volta, la prospettiva di utilizzare le potenzialità dell’intelligenza artificiale per contrastare il crimine (addirittura il crimine organizzato) si fa strada tra le forze dell’ordine. Ma di che sistema si tratta nello specifico? Di particolari, nel corso della conferenza, ne sono stati forniti pochi, è però noto come l’Interpol stia sviluppando un algoritmo di polizia predittiva che porta il nome di Insight e che è stato specificamente studiato, come si legge in una presentazione, per contrastare il crimine organizzato a livello internazionale. Ulteriori richieste di chiarimento all’Interpol non hanno per ora avuto risposta.

È un progetto ancora in fase di sviluppo, che “permetterà all’Interpol di raccogliere, immagazzinare, elaborare, analizzare e interpretare vaste quantità di dati da molteplici fonti e in formati differenti, in maniera rapida ed efficiente”. Tra le fonti segnalate, vengono indicati rapporti di polizia, immagini, video e informazioni testuali di altri tipo (reperite anche dal Web).

La prima fase di sviluppo si è conclusa nel 2021 e ha utilizzato solo dati interni dell’Interpol, con il limitato obiettivo di consentire “analisi strategiche potenziate”. Nel biennio 2022-23 verranno invece aggiunte ulteriori fonti di dati, con lo scopo di consentire una capacità di “analisi avanzata”. La terza e ultima fase avverrà invece nel 2024-2026, quando la piattaforma, sempre secondo quanto spiegato dall’Interpol, “raggiungerà le sue piene capacità, incorporando tutte le rilevanti fonti di dati interne ed esterne e le tecnologie più evolute per offrire la qualità più elevata possibile di analisi”.

A questo punto, l’algoritmo Insight sarà dotato di capacità predittive che permetteranno agli Stati che fanno parte dell’Interpol di scoprire i modus operandi dei criminali, individuare le tendenze e i pattern dei reati e addirittura “segnalare persone d’interesse”. E così, ancora una volta, gli algoritmi di polizia predittiva tornano a farsi largo anche in Italia, dove sono già stati utilizzati (o almeno sperimentati) in svariate occasioni e nonostante siano stati in tutto il mondo al centro di feroci polemiche.

L’utilizzo di sistemi di questo tipo potrebbe peraltro scontrarsi con il regolamento europeo sull’Intelligenza artificiale che sta prendendo forma a Bruxelles. Per quanto non ci sia ancora un regolamento definitivo, era stato proprio uno dei due correlatori del Parlamento europeo (l’italiano Brando Benifei) a spiegare come l’obiettivo fosse di arrivare alla messa al bando dei sistemi di polizia predittiva: “Un emendamento congiunto che abbiamo presentato riguarda il divieto di utilizzo degli algoritmi di polizia predittiva, perché sono troppo in contrasto con il valore della presunzione d’innocenza. Con questi strumenti, anzi, sembra venirsi a creare una presunzione di colpevolezza”, aveva spiegato Benifei a Italian Tech.

Questo genere di algoritmi predittivi non solo rientra già nei casi in cui (sempre secondo il nascente regolamento) i sistemi di intelligenza artificiale sono considerati ad alto rischio e possono essere impiegati solo in casi limitati ed eccezionali, ma potrebbero quindi essere completamente proibiti. Soprattutto se (ed è il caso di Insight) permettono anche di “segnalare persone sospette” tramite metodi algoritmici, rientrando così pienamente in quel rischio di “presunzione di colpevolezza” di cui ha parlato Benifei.

Ma perché la polizia predittiva solleva così tante preoccupazioni? Prima di tutto, i vari sistemi (dal più famoso PredPol sino a Gotham di Palantir, passando per RTM o KeyStats) alla prova sul campo si sono dimostrati meno capaci di quanto promesso a ricavare informazioni utili dall’analisi dei big data. Nonostante le differenze, questi algoritmi funzionano infatti in maniera simile: attraverso i dati relativi ai crimini compiuti (rapporti di polizia, testimonianze, registro degli arresti, targhe identificate, orari, condizioni meteo e altro ancora), i sistemi di polizia predittiva cercano di individuare correlazioni e schemi ricorrenti nei crimini, prevedendo così dove e quando potrebbero verificarsi in futuro con maggiore probabilità.

Messa così, sembra il sogno di qualunque poliziotto. Come però segnalato in numerosi studi (per esempio Discriminating Data, pubblicato dall’MIT), questi sistemi non solo stanno venendo abbandonati da sempre più numerosi dipartimenti di polizia perché poco efficaci (il capo della polizia del New Mexico aveva spiegato che “non ci diceva nulla che non sapessimo già”), ma rischiano anche di riprodurre gli stessi pregiudizi già presenti nella società.

Per esempio, le persone che vivono nei quartieri più difficili hanno maggiori probabilità di essere arrestate, anche perché quelle sono le zone tradizionalmente più pattugliate. I big data forniti agli algoritmi indicheranno quindi che queste sono le aree a maggiore densità criminale, creando un circolo vizioso che porterà sempre più persone a essere fermate, perquisite e controllate per il solo fatto di abitare in un quartiere difficile (discriminando e sottoponendo a ulteriori difficoltà una persona onesta che, per esempio, vive in una zona ad alta penetrazione di ‘ndrangheta).

In questo modo, si viene inoltre a creare un vero e proprio bias di conferma, come segnalato da The Next Web: “Se l’intelligenza artificiale indica che in una particolare area c’è un elevato rischio di crimine, e gli agenti di pattuglia non trovano nulla, il merito è della IA, che indicando alla polizia dove andare ha consentito di prevenire il crimine. E se invece gli agenti individuano reati? Merito comunque degli algoritmi, che hanno previsto che lì si sarebbero compiuti dei crimini”.

Sono passati ormai parecchi anni da quando i dubbi sull’efficacia e sui rischi di questi strumenti hanno iniziato a diffondersi, al punto da rischiare di essere messi al bando dall’Unione europea e da venir abbandonati anche dai dipartimenti di polizia che per primi avevano deciso di impiegarli (come quelli di Chicago o di Los Angeles, e anche nel Regno Unito). Quante possibilità ci sono che il sistema Insight sviluppato dall’Interpol si riveli drasticamente diverso?

Fonte : Repubblica