Intelligenza artificiale, la battaglia finale sulle regole europee è tutta politica

Questo editoriale è firmato da The Good Lobby, Privacy Network, Hermes Center for Transparency and Digital Human Rights

Seguire il dibattito intorno all’AI Act, un dossier legislativo destinato a incidere profondamente sul nostro futuro perché si occupa di intelligenza artificiale, è un’impresa non semplice. Capire la posizione dell’Italia in merito è ancora più complesso

Le divergenze fra le posizioni di Consiglio – e degli Stati che lo compongono – e del Parlamento europeo su questioni chiave come la regolamentazione dei foundation models, l’utilizzo di tecnologie di identificazione – o per meglio dire sorveglianza – biometrica e di sistemi di polizia predittiva, non sono poche. Secondo le dichiarazioni ufficiali è ancora possibile trovare un accordo entro il 6 dicembre, data in cui si dovrebbe infatti concludere il trilogo sull’AI Act. Da un lato questa è una notizia positiva, perché ritardare la regolamentazione dell’AI avrebbe costi significativi e aprirebbe la porta a potenziali usi impropri e abusi delle tecnologie di intelligenza artificiale, con conseguenze gravi, tra cui violazioni della privacy, amplificazione di pregiudizi e discriminazioni e minacce alla sicurezza nazionale in aree critiche come l’assistenza sanitaria, i trasporti e le forze dell’ordine. Dall’altro questa accelerazione, combinata alla forte resistenza dell’industria a dotarsi di regole certe e degli Stati a rinunciare alle tecnologie di sorveglianza, tanto bramate nell’illusione di dirimere con approccio securitario questioni sociali complesse come criminalità e immigrazione, ci stanno esponendo al rischio di un compromesso al ribasso.

Gli sforzi congiunti della società civile si stanno concentrando proprio nel fare tutto il possibile per evitare che questo accada. Da tempo Privacy Network, Hermes, The Good Lobby e altre organizzazioni che si occupano di diritti digitali e dell’impatto delle tecnologie sulla democrazia, stanno cercando di dialogare con il governo affinché si posizioni sui tavoli europei a favore di regole chiare per i fornitori di modelli fondativi come OpenAI, tra cui l’obbligo di effettuare audit indipendenti, test di sicurezza e di cybersecurity, misure di governance dei dati, valutazioni dei rischi e sforzi per la loro mitigazione. L’autoregolamentazione, soprattutto in ambito tecnologico, non ha mai funzionato, se non per avvantaggiare lo sviluppo economico di mega corporations ai danni dei diritti dei cittadini e, in questo caso, anche delle start ups o aziende europee che da quei modelli fondativi partono per costruire la loro applicazione di AI generativa (ma non solo). L’introduzione di un sistema regolatorio che chiede ai provider originali dei modelli fondativi di assicurare un livello minimo di verifica e testing della loro tecnologia è cruciale non solo per tutelare l’impianto democratico della nostra società, ma renderebbe anche più diversificato e competitivo il mercato europeo, supportando la nascita di nuove realtà tecnologiche incoraggiate dall’accesso a modelli fondativi sicuri che difficilmente sarebbero nella posizione, anche economica, di valutare a posteriori.

Nonostante tutto ciò sia francamente lapalissiano, qualche giorno fa a Germania, Francia e Italia hanno comunque ritenuto opportuno diffondere un documento in cui si promuove la deregolamentazione del settore e si caldeggia l’adozione di codici di condotta volontari, bloccando di fatto i negoziati. Lo sforzo di lobbying portato avanti dalle Big tech, come riportato dal report Bite by Bite, How Big Tech undermined the AI Act di Corporate Europe Observatory, sembra avere avuto i suoi frutti.

Non solo organizzazioni come le nostre, ma anche il gruppo di esperti dell’Atomium, European institute for science, media and democracy, ha immediatamente segnalato l’enorme criticità di questo approccio, che però fortunatamente sembra rappresentare la posizione del ministero per le Imprese e non quella del governo nella sua interezza. Abbiamo infatti apprezzato i chiarimenti del sottosegretario alla presidenza del Consiglio con delega all’innovazione tecnologica Alessio Butti, con cui abbiamo avviato da tempo un dialogo sull’AI Act, che, in una recente intervista a Repubblica, ha dichiarato l’Italia ha una preferenza per “regole certe semplificate, così da contemperare le esigenze dell’innovazione con principi etici […] e non si è detta a favore di codici di condotta perché non abbastanza efficaci..”. L’autoregolamentazione, infatti, come abbiamo ricordato al ministro Adolfo Urso in una lettera congiunta, finirebbe per avvantaggiare solo i giganti dell’AI e sicuramente non le start-up. Lo conferma anche European Digital Sme Alliance che ha recentemente chiesto pubblicamente un’equa ripartizione della responsabilità nella catena del valore dei modelli di AI pre-allenati.

Se sul tema chiave della regolamentazione dei modelli generativi riscontriamo da parte del governo un’apertura, siamo invece molto preoccupati della volontà di schiudere le porte all’uso di tecnologie di riconoscimento biometrico da parte delle forze di polizia e della Difesa. Nonostante gli sforzi della presidenza spagnola di rafforzare le misure di salvaguardia, infatti, nell’ultimo testo fatto circolare la settimana scorsa sembra che il Parlamento abbia abdicato rispetto ad una moratoria completa dei sistemi di riconoscimento biometrico in tempo reale, concedendo alcune eccezioni – sebbene limitate – nel caso di utilizzo da parte delle forze dell’ordine. La tensione emergente in queste ultime fasi di negoziati tra le posizioni del Parlamento e di larga parte della società civile, e quelle ben oliate dalle lobby tech del Consiglio, ci ricordano come intorno all’AI Act si stia giocando una partita ben più importante, il cui esito ci racconterà molto in termini di chi realmente gestisce il potere politico ai nostri giorni.

Fonte : Wired