Gemini, il politicamente corretto ha messo in crisi l’AI di Google

Ma ci è voluto poco prima che i problemi di Gemini fossero cavalcati dalle personalità “anti-woke” online, che hanno accusato Google di essere razzista” o “infettata dal virus della mente woke, uno degli slogan preferiti da Elon Musk.

Il troll di estrema destra Ian Miles Cheong ha attribuito tutte le colpe a Krawczyk, che ha apostrofato come un “idiota woke ossessionato dalla razza”, facendo riferimento a vecchi post in cui il ricercatore di Google riconosceva su X l’esistenza del razzismo sistemico e del cosiddetto white privilege. “Abbiamo dotato le nostre bugie demenziali di un’intelligenza sovrumana“, ha invece scritto scritto sul social di Musk il controverso psicologo Jordan Peterson.

AI poco intelligenti

La realtà tuttavia è che Gemini e qualsiasi altro sistema di intelligenza artificiale generativa simile non possiedono “un’intelligenza sovrumana”, qualunque cosa significhi il termine. Semmai, il caso che ha coinvolto l’AI di Google dimostra che è vero il contrario. Come sottolinea Marcus, Gemini non è in grado di distinguere tra una richiesta storica, come quella di mostrare l’equipaggio dell’Apollo 11, e una contemporanea, generare per esempio un’illustrazione di astronauti moderni.

Come dimostra una campagna di Wired Italia del 2023, i modelli di intelligenza artificiale – tra cui Dall-E di OpenAI – sono sempre stati afflitti dal problema dei pregiudizi, raffigurando per esempio persone non bianche in risposta a prompt che chiedevano di mostrare immagini di detenuti, o rappresentando manager esclusivamente come maschi bianchi. Gli errori di Gemini potrebbero riflettere non tanto una presunta inflessibilità del modello, quanto “una compensazione eccessiva quando si tratta di rappresentare la diversità“, spiega Sasha Luccioni, ricercatore presso la startup di AI Hugging Face. “I pregiudizi sono davvero uno spettro, ed è molto difficile trovare la sfumatura giusta tenendo conto di cose come il contesto storico”, aggiunge Luccioni.

Se combinata con le limitazioni imposte modelli di intelligenza artificiale, questa attività di calibrazione può produrre risultati particolarmente fuori fuoco: “I modelli di generazione delle immagini non hanno alcuna nozione del tempo – afferma Luccioni –, quindi qualsiasi tecnica per aumentare la diversità adottata dai creatori di Gemini sarebbe applicabile a ogni immagine generata dal modello. Credo che sia questo quello che stiamo vedendo“.

In una fase in cui il nascente settore dell’AI cerca di affrontare il problema dei pregiudizi, Luccioni sottolinea che trovare il giusto equilibrio in termini di rappresentazione e diversità non sarà facile. “Non credo che esista un’unica risposta giusta, e un modello ‘imparziale’ non esiste – commenta il ricercatore –. Le aziende hanno preso posizioni diverse sul tema […]. Sembra che Google abbia adottato un approccio alla Bridgerton alla generazione delle immagini“.

Questo articolo è comparso originariamente su Wired US ed è stato aggiornato alle 15:50 per integrare un commento di Jack Krawczyk, Senior Director of Product Management for Gemini Experiences, che dà conto del fatto Google sta lavorando per risolvere il problema.

Fonte : Wired