Facebook non riesce a moderare alcuni post perché la sua intelligenza artificiale non sa le lingue

Senza Ai avanzate o moderatori umani che mastichino le lingue, contenuti dannosi e traffici illeciti riescono a trovare posto sul social network

Facebook sembra avere delle grandi difficoltà nella moderazione dei contenuti che provengono da alcuni Paesi, perché i suoi sistemi di intelligenza artificiale (Ai) non sono abbastanza avanzati da riconoscere alcune lingue e allo stesso tempo la società non ha a disposizione moderatori umani con queste competenze.

Il risultati di questa combinazione sono preoccupanti, come evidenziato da una nuova puntata delle inchieste del Wall Street Journal sulla piattaforma, soprattutto se si pensa che Facebook è in espansione in molti di questi mercati. Oltre il 90% degli utenti mensili di Facebook si trova al momento al di fuori del Nord America.

In questi punti ciechi prosperano commerci illegali, oltre a contenuti violenti e incitamento all’odio. La piattaforma di Mark Zuckerberg, racconta il quotidiano, è utilizzata persino per vendere droga da parte dei cartelli messicani, con post in spagnolo.

Secondo il Wsj, che ha letto dei documenti interni, diversi dipendenti di Facebook sono a conoscenza di questo problema e si dicono preoccupati. Un ex vicepresidente della società ha dichiarato al giornale che Facebook considera il potenziale danno in Paesi stranieri come “semplicemente il costo di fare affari” in quei mercati. Nella maggior parte dei casi, Facebook ha rimosso i post solo quando hanno attirato l’attenzione del pubblico e non ha corretto i sistemi automatizzati che hanno consentito la pubblicazione di quel contenuto in prima battuta.

Un problema noto

Che Facebook, come anche Instagram, fosse usato da trafficanti non si scopre certo oggi. L’organizzazione americana Alliance to counter crime online (Acco) lo denuncia da tempo con report dettagliati e si era già accorta del problema di Facebook con le lingue. “I nostri ricercatori hanno trovato post in lingua araba che vendono antichità saccheggiate e post in lingua vietnamita che propongono animali selvatici”, ha scritto Acco sul suo account Twitter commentando la notizia data dal Wall Street Journal. La soluzione per l’organizzazione però potrebbe essere a portata di mano: “Fino a quando Facebook non investirà nell’assunzione di moderatori di contenuti che parlino lingue diverse dall’inglese, continueremo a vedere un gran numero di crimini”.

Anche dal rapporto del Wsj emerge che sarebbe fondamentale per Facebook avere moderatori che parlino le lingue locali. La piattaforma era già stata accusata nel 2018 di avere tardato ad agire quando in Myanmar era esplosa la violenza contro i rohingya montata sui social. Così quest’anno ha avuto difficoltà a moderare i post di incitamento all’odio contro la popolazione del Tigray in Etiopia.

Affidarsi invece a sistemi di intelligenza artificiale o a personale non preparato è rischioso come suggerisce un altro esempio recente. Durante gli scontri tra israeliani e palestinesi dei mesi scorsi Facebook ha bloccato sulle sue piattaforme il riferimento alla moschea di Al-Aqsa a Gerusalemme, terzo luogo santo per i palestinesi, a causa del nome di un’organizzazione palestinese, le Brigate dei martiri di Al-Aqsa, che è stata etichettata come un’organizzazione terroristica dagli Stati Uniti e dall’Unione europea.

Gli algoritmi e la lotta alle fake news

Dopo le notizie uscite in questi giorni che hanno evidenziato diversi fallimenti e scorciatoie nella moderazione dei contenuti Facebook ha rilanciato promettendo più trasparenza e assicurando di voler fare la propria parte combattendo in modo specifico la disinformazione sul cambiamento climatico. In un’audizione al Congresso di aprile Zuckerberg ha affermato che la disinformazione sul clima è “un grosso problema”.

La società ha annunciato che investirà un milione di dollari con questo intento per migliorare il fact checking sul clima. Facebook vorrebbe espandere il suo Centro di scienze climatiche per fornire informazioni più affidabili e lanciare una serie di video e quiz informativi. Tutte misure che puntano di migliorare la consapevolezza degli utenti e l’informazione intorno al clima ma che non assomigliano a scelte radicali.

Anche in questo caso a combattere contro le fake news ci sono principalmente gli algoritmi e per ora non sembra sia andata troppo bene. Il gruppo di controllo del negazionismo climatico InfluenceMap nell’ottobre 2020 aveva scoperto che dozzine pubblicità che negavano il riscaldamento globale sono state visualizzate più di 8 milioni di volte dopo essere passate attraverso i filtri del social network. Un recente studio condotto da Friends of the Earth, un’organizzazione ambientalista, ha rilevato che il 99% della disinformazione climatica sulle interruzioni di corrente in Texas lo scorso febbraio non è stata controllata.

Fonte : Wired