Come la polizia potrà usare l’intelligenza artificiale (e cosa non potrà fare)

L’Europa ha trovato l’accordo per dare vita alla prima legge al mondo sull’intelligenza artificiale. Dopo mesi di negoziati, Parlamento e governi Ue hanno trovato l’intesa sull’AI act, come è stato ribattezzato, un pacchetto normativo che da un lato mira a proteggere i cittadini e le democrazie dai rischi di questa tecnologia, e dall’altro ha l’obiettivo di promuovere lo sviluppo dell’IA nell’Ue, ricucendo il ritardo dagli Stati Uniti, ma anche dalla Cina. Uno dei nodi più delicati delle trattative che hanno portato al testo finale, che dovrà adesso essere ratificato dalle istituzioni del blocco, ha riguardato la sicurezza, in particolare il riconoscimento facciale, una delle applicazioni dell’intelligenza artificiale che già alcuni Paesi stanno mettendo in pratica nella lotta al crimine. Ma che diverse organizzazioni non governative ed esperti accusano di essere un rischio per la privacy e per i diritti dei cittadini.

Le applicazioni vietate

Il testo finale della legge riconosce “la potenziale minaccia ai diritti dei cittadini e alla democrazia rappresentata da determinate applicazioni dell’IA”, si legge in una nota del Parlamento europeo. Per questo, sono espressamente vietate una serie di queste applicazioni: i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (come convinzioni politiche, religiose, filosofiche, orientamento sessuale o razza) per costruire delle liste di persone in base a tali caratteristiche. Vietata anche la raccolta non mirata (ossia non legata per esempio a scopi specifici di sicurezza nazionale) di immagini facciali catturate da Internet o filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale. Tra i divieti, anche l’uso di applicazioni per il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative, sistemi che manipolano il comportamento umano per aggirare il loro libero arbitrio o che sfruttano le vulnerabilità delle persone (a causa della loro età, disabilità, situazione sociale o economica). Infine, l’Europa vieta la creazione di punteggi sociali da assegnare ai cittadini basati sul comportamento sociale o sulle caratteristiche personali, come avviene per esempio in Cina con il sistema di credito sociale.

Esenzioni dalle forze dell’ordine

La legge prevede delle esenzioni a questi divieti per le forze dell’ordine, ma solo in determinati casi e previa autorizzazione giudiziaria. La polizia potrà utilizzare i sistemi di identificazione biometrica (Rbi) per classificare le persone in base a categorie specifiche come sesso, età, colore dei capelli e degli occhi, tatuaggi, origine etnica o orientamento sessuale o politico. Lo potrà fare in spazi accessibili al pubblico per scopi di contrasto sia “in tempo reale”, ossia acquisendo i dati e classificandoli in diretta, sia “post-remoto”, ovvero utilizzando dati già acquisiti.

In quest’ultimo caso, il riconoscimento facciale va “utilizzato rigorosamente nella ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave”, spiega il Parlamento Ue. Per i sistemi di identificazione biometrica in tempo reale, invece, bisogna rispettare “condizioni rigorose” e il loro uso va “limitato nel tempo e nel luogo” per: ricerche mirate delle vittime (sequestro, tratta, sfruttamento sessuale), prevenzione di una minaccia terroristica specifica e attuale, la localizzazione o l’identificazione di una persona sospettata di aver commesso un reato come. terrorismo, tratta di esseri umani, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, e reati ambientali.

Il nodo ChatGpt

Un altro punto critico della legge, che ha messo contro i governi Ue, è quello relativo ai requisiti di trasparenza dei modelli più potenti di intelligenza artificiale, come ChatGpt e Bard. Alcuni Paesi, come Germania, Francia e Italia, hanno sollevato il timore che un reticolo normativo troppo stringente potrebbe precludere lo sviluppo di queste tecnologie nella stessa Ue, che sconta già un grave ritardo rispetto agli Stati Uniti, ma anche rispetto alla Cina. Nel 2022, gli investimenti sull’intelligenza artificiale sono stati di 50 miliardi negli Usa, di 10 miliardi in Cina, e di 5 miliardi in Europa, ha lamentato di recente il ministro francese Bruno Le Maire. 

Per i sistemi di IA classificati come ad alto rischio (a causa del loro significativo potenziale danno alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto), spiega il Parlamento europeo, “sono stati concordati obblighi chiari” come “una valutazione d’impatto obbligatoria sui diritti fondamentali, applicabile anche ai settori assicurativo e bancario”. Anche i sistemi di intelligenza artificiale utilizzati per influenzare l’esito delle elezioni e il comportamento degli elettori sono classificati come ad alto rischio. I cittadini avranno il diritto di presentare reclami sui sistemi di intelligenza artificiale e ricevere spiegazioni sulle decisioni basate su sistemi di intelligenza artificiale ad alto rischio che incidono sui loro diritti.

Limiti e sanzioni

Per tenere conto dell’ampia gamma di compiti che i sistemi di intelligenza artificiale possono svolgere e della rapida espansione delle loro capacità, è stato concordato che i sistemi di intelligenza artificiale per scopi generali (GPAI) e i modelli GPAI su cui si basano dovranno aderire ai requisiti di trasparenza. Questi includono la stesura di una documentazione tecnica, il rispetto della normativa Ue sul diritto d’autore e la diffusione di riepiloghi dettagliati sui contenuti utilizzati per la formazione.

Il ritardo dell’Europa nell’intelligenza artificiale

“Abbiamo messo regole stringenti per la sicurezza dei modelli più potenti e abbiamo imposto la trasparenza sul diritto d’autore a tutela dei lavoratori della creatività e del giornalismo e la riconoscibilità dei contenuti generati dall’intelligenza artificiale, in modo da contrastare la disinformazione e difendere la nostra democrazia da una proliferazione incontrollata dei cosiddetti ‘deepfakes'”, dice l’eurodeputato del Pd, Brando Benifei, che ha contribuito alla stesura del testo finale. I modelli GPAI ad alto impatto con rischio sistemico, si legge sempre nella nota dell’Eurocamera, “dovranno condurre valutazioni dei modelli, valutare e mitigare i rischi sistemici, condurre test contraddittori, riferire alla Commissione su incidenti gravi, garantire la sicurezza informatica e riferire sulla loro efficienza energetica”.

Il mancato rispetto delle norme può portare a sanzioni che vanno da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni o l’1,5% del fatturato, a seconda della violazione e delle dimensioni dell’azienda.

Continua a leggere su Today

Fonte : Today