I pericolosi War Games dell’intelligenza artificiale

A volte è semplicemente una questione di etichetta. Qualche tempo fa, ai ricercatori di Open AI era bastato incollare su una mela verde un foglio di carta con scritto “iPod” per ingannare il loro modello di apprendimento automatico, facendo sì che scambiasse il frutto per un gadget.

Nulla di troppo grave e nessun ferito (eccezion fatta per l’orgoglio accademico), ma che cosa accadrebbe se lo stesso algoritmo venisse adoperato in campo militare e un robot da perlustrazione venisse ingannato da una bomba con scritto sopra “pallone da calcio”?

È uno degli interrogativi che si sono posti gli studiosi dell’Istituto per la Ricerca sul disarmo dell’Onu, nel rapporto “Known unknowns: data issues and military autonomous systems”, che mette in guardia dai rischi dell’affidarsi eccessivamente all’intelligenza artificiale sul campo di battaglia.

Esempi di armi intelligenti
Quello delle armi autonome o semi-autonome, in grado di decidere quasi da sole quando e cosa colpire sul campo di battaglia, spesso note anche come killer robots è un filone ancora limitato, però in decisa crescita.

In Libia e in Siria volano droni come il Kargu (video qui sopra): di fabbricazione turca, è in grado, una volta inserite le coordinate o un’immagine dell’obiettivo, di individuarlo e colpirlo senza intervento umano. La Corea del Sud schiera da tempo, a vigilare sulla zona che la separa dal Nord, le Sgr-A1, torrette semi-automatiche dotate di mitragliatrice e collegate via fibra ottica a un centro di comando.

Anche nel recente conflitto nella Striscia di Gaza, da parte israeliana sarebbe stato fatto un uso massiccio dell’intelligenza artificiale per individuare i bersagli.

A oggi, la decisione se sparare o meno viene comunque sempre presa da un supervisore in carne e ossa, da una persona, ma anche questo potrebbe cambiare: ci sono situazioni, come un attacco coordinato su più fronti da parte di uno sciame di droni, in cui i riflessi umani potrebbero non essere all’altezza della situazione e sistemi in grado di difendersi e contrattaccare da soli potrebbero essere più efficaci.

Sempre però che non sbaglino, per errore o perché ingannati di proposito:

  • perché il nemico riesce a inserirsi nei canali di trasmissione e a fornire volutamente dati errati (questa tecnica è nota come spoofing);
  • perché i dati erano scarsamente attendibili all’origine;
  • perché ci si trova in presenza di dati nuovi, che la macchina non riesce a classificare.

I rischi del mondo reale
Uno dei problemi principali è che, come scrive l’autore del report Onu, Arthur Holland Michel, “rispetto agli ambienti controllati, spesso digitali, in cui le IA hanno dato sinora prova di sé, gli ambienti di conflitto incontrollato pongono una vasta gamma di sfide”.

Gli algoritmi dell’intelligenza artificiale rendono al meglio quando possono basarsi su dati e scenari certi e coerenti con quelli su cui la macchina è stata addestrata, ma nel caso di eventi anomali e imprevisti, il modello dev’essere aggiornato e ricalibrato: una cosa è battere nel combattimento aereo un pilota umano nell’ambiente ideale creato da un simulatore di volo, come è successo l’anno scorso, un’altra è farlo in cielo, dove la pioggia, il fumo e le sollecitazioni possono danneggiare i sensori.

Per non parlare di quanto avviene in uno scontro sul terreno: alberi, riflessi, persone in movimento e camuffamenti possono rendere difficile per l’intelligenza artificiale catalogare correttamente quanto sta vedendo.

Per una macchina non è sempre facile distinguere fra un furgone blindato a uso militare e uno scuolabus se la forma e il colore sono simili oppure capire che quello che sta inquadrando è un carro armato, se una parte fondamentale del mezzo (il cannone) è nascosto da un albero.

In alcuni casi, come quello del carro armato, può essere semplice per un supervisore umano intervenire e risolvere la situazione. In altri meno, per mancanza di tempo e anche perché non è sempre chiaro come il modello matematico, che attinge in pochi istanti a miliardi di informazioni e le connette fra loro, arrivi a prendere una certa decisione.

La questione della Black Box
È il cosiddetto problema della scatola nera: spesso l’intelligenza artificiale ci azzecca, ma non è chiaro perché. E in guerra i casi di errata valutazione potrebbero portare a risultati disastrosi, senza che gli umani se ne accorgano se non a cose fatte.

“Immaginate un drone da ricognizione che, a causa di uno spoofing o di dati errati, categorizza erroneamente un’area bersaglio come avente una probabilità molto bassa di presenza di civili – ha raccontato Holland Michel a Popular Science – I soldati umani che agiscono in base alla valutazione di quel sistema non saprebbero necessariamente che era difettoso, e in una situazione molto veloce potrebbero non avere il tempo di controllare e trovare il problema”.

Il che pone anche la questione della responsabilità: nel caso di una strage di civili dovuta a uno sbaglio nella valutazione dell’IA, di chi sarebbe la colpa? Di chi ha progettato l’algoritmo? Di chi ha fornito dati errati alla macchina? O del soldato che ha dato il via libera o non è intervenuto in tempo per correggere una decisione del robot?

Fonte : Repubblica