Qualche giorno fa gli utenti di Gemini, l’IA generativa di Google, si sono accorti che non c’era verso di creare – con un semplice testo – il ritratto di una persona caucasica, più in generale dalla pelle bianca.
Chi ci ha provato ha ottenuto risultati bizzarri. Anche quando Gemini ha prodotto immagini di vichinghi, soldati di Hitler o cavalieri medievali, infatti, nessuna di queste (o quasi nessuna) includeva persone bianche.
Mentre le foto realistiche di persone nere e di nativi americani in uniformi naziste diventavano virali sui social, Google ha deciso di sospendere la possibilità di generare persone di ogni tipo.
La creazione di una persona esistente – una celebrità come Taylor Swift o un politico come Joe Biden – era infatti proibita fin dall’introduzione in Gemini di Imagen 2, il modello di IA che permette effettivamente di produrre immagini a partire da un testo.
“La generazione di immagini da parte di Gemini non è andata come volevamo, la miglioreremo” ha detto Prabhakar Raghavan, senior vicepresident di Google, in un lungo post in cui ha spiegato cosa è andato storto.
“Quando abbiamo dotato Gemini del nuovo strumento per le immagini – ha detto Raghavan – lo abbiamo sistemato affinché non cadesse in alcune delle trappole a cui abbiamo assistito in passato per quanto riguarda l’IA generativa, come la creazione di immagini violente o esplicite oppure la creazione di persone esistenti”.
Raghavan fa giustamente riferimento ai problemi che hanno avuto, non troppo tempo fa, i due principali competitor di Google nel business dell’IA, ovvero Microsoft e OpenAI. La prima, recentemente, ha contribuito involontariamente alla genrazione di foto realistiche esplicite di Taylor Swift. La seconda, invece, ha incontrato le stesse difficoltà di Big G: la sua IA per le immagini, Dall-E 3, inizialmente faceva fatica a produrre persone bianche.
Eppure Google, nonostante gli “incidenti” occorsi ai suoi rivali in passato, non è riuscita a evitare le “trappole” che temeva.
E questo è accaduto, essenzialmente, per due motivi.
Il primo, di cui si aveva già qualche sospetto, è stato confermato proprio da Raghavan: nel tentativo di rendere Gemini il più possibile inclusiva, Google l’ha regolata affinché producesse un’umanità il più possibile variegata.
“Siccome la nostra IA viene usata da persone in tutto il mondo – ha spiegato Raghavan – volevamo che funzionasse bene con tutti. Se per esempio si intende creare una squadra di calcio, probabilmente si vogliono ottenere persone variegate”.
“Probabilmente non vuoi solo ricevere immagini di persone di un solo tipo di etnia (o di qualsiasi altra caratteristica)” aggiunge Raghavan, e non a caso.
L’IA generativa tende a produrre testi e immagini che rispecchiano e amplificano i valori, ma anche i pregiudizi e le discriminazioni, contenuti nei testi e nelle immagini su cui è stata addestrata. Nel caso di Gemini – ma anche di ChatGpt e Copilot, tutte tecnologie sviluppate da grandi aziende americane e in gran parte su testi in inglese – questo si traduce in un ipotetica preferenza per la cultura e per gli stereotipi occidentali.
Il problema è che il lavoro di Google “per garantire che Gemini mostrasse una diversità di persone non è riuscito a tenere conto di quei casi in cui chiaramente non aveva alcun senso mostrare una diversità”. La criticità è risultata evidente quando più di un utente ha chiesto all’IA di generare “un soldato tedesco del 1943”. E Gemini, in risposta, ha fornito ritratti di persone nere, asiatiche e di nativi americani.
“Tutto questo è accaduto perché, in alcuni casi, il modello ha provato a compensare troppo” ha spiegato Raghavan. Gemini, quindi, ha spinto per la diversità su indicazione dei suoi creatori.
Ma Google ammette anche “nel corso del tempo il modello è diventato molto più cauto di quanto volevamo che fosse, e si è rifiutato di rispondere a determinate richieste, interpretando erroneamente alcune richieste innocue come sensibili”. E questo, ha aggiunto Raghavan, “ha reso il modello più conservativo”.
Fonte : Repubblica