Coronavirus e vaccini, YouTube dichiara guerra alla disinformazione

Ogni minuto su YouTube vengono caricati in media 500 minuti di contenuti. Musica, video satirici, interviste, documentari, testimonianze e purtroppo anche tante fake news. Per combattere la disinformazione, soprattutto in ambito sanitario – prima con il coronavirus e adesso soprattutto con i vaccini – Google sta mettendo in campo già da tempo numerose iniziative per rimuovere tempestivamente i video definiti dannosi e, allo stesso tempo, ricompensare i creator che portano un valore “positivo” alla community. Ne abbiamo parlato con Marco Pancini, Director Public Policy EMEA di YouTube.

La regola delle “4R”

“La responsabilità è la nostra priorità numero uno – ci spiega Marco Pancini – ed è proprio il nostro business che ce lo richiede, i nostri utenti, i creator, gli investitori”. Tutti i team (prodotto, legal, trust&safety, policy) stanno lavorando moltissimo affinché YouTube sia sempre più una piattaforma che fornisca informazioni utili ai propri utenti. Per questo motivo è stata adottata una strategia, definita delle “4R”: Remove, Raise, Reduce, Reward. La policy di YouTube, dunque, prevede la rimozione il prima possibile dei contenuti che violano le norme, viene data evidenza a voci autorevoli quando gli utenti cercano informazioni o notizie, si riduce la diffusione di contenuti che oltrepassano le linee guida, si ricompensano creatori di contenuti affidabili, in modo tale che solo chi pubblica contenuti “positivi” e che porti un valore positivo alla community e agli investitori pubblicitari venga ricompensato.

I contenuti rimossi

Da quando è iniziata la pandemia, ci spiegano, sono stati rimossi oltre 850mila video per violazioni relative alla policy. 30mila video sono stati rimossi solo nel quarto trimestre del 2020 per violazione relative alla policy sui vaccini. In generale Google sta rimuovendo con frequenza i contenuti che contraddicono le regole e le linee guida diffuse dall’Organizzazione Mondiale della Sanità e dalle autorità sanitarie locali. Tra questi contenuti, la disinformazione sul coronavirus, i contenuti no-vax, le fake news sui vaccini. Sono consentite eccezioni per i video educativi, documentaristici, scientifici o artistici. Le norme si applicano, oltre che ai filmati, alle descrizioni, ai commenti, ai live streaming e a tutte le altre funzioni della piattaforma.

Come avviene la rimozione

Nell’ultimo trimestre, spiegano da Google, secondo gli ultimi dati a disposizione il 94% delle violazioni delle policy è stato identificato attraverso i sistemi automatici e il 75% dei video segnalati è stato rimosso prima che avessero ricevuto più di dieci visite. Ma come avviene questa rimozione? Si tratta di un lavoro enorme fatto in gran parte dall’intelligenza artificiale e da algoritmi di apprendimento automatico, che lavorano su larga scala per identificare i video contenenti notizie o informazioni dubbie. Un altro importante lavoro lo fanno i cosiddetti “trusted flaggers”, i segnalatori certificati, che sono Ong, istituzioni o altre fonti autorevoli con cui Google collabora e che utilizzano la loro conoscenza specifica dei singoli problemi per aiutare i dipendenti Google a capire quali sono le notizie da rimuovere. Infine c’è l’enorme community degli utenti, che possono sempre segnalare per una revisione i filmati attraverso le icone presenti sotto ogni video. Le segnalazioni vengono attentamente vagliate da un gruppo di addetti madrelingua e si cerca sempre di prendere una decisione il più possibile attenta e rispettosa, anche in collaborazione con esperti esterni. La decisione viene riportata all’utente che – ci spiegano – in qualunque momento può appellarsi per una revisione. 

Il Transparency Report

Dal 2018 YouTube pubblica un Rapporto sulla Trasparenza, il Transparency Report, in cui ogni trimestre vengono diffusi i dati relativi ai contenuti rimossi. “Per aggiungere una dimensione qualitativa – spiega Pancini – il nostro team ha realizzato un indice, chiamato Tasso di Visualizzazioni Inappropriate (VVR), che aiuta a comprendere quanti contenuti rimuoviamo e con quale frequenza i nostri utenti vengono esposti a contenuti non in linea con le policy”. L’obiettivo, insomma, è quello di capire soprattutto se un contenuto considerato non appropriato ha raggiunto una massa critica di utenti e quanti utenti sono stati esposti. “Focalizzandoci su questa metrica – spiega ancora Pancini – abbiamo tracciato uno storico e abbiamo notato che dall’inizio ad oggi vi è stata una riduzione del 70 per cento di questo tipo di contenuti”. Con l’avvento del coronavirus, inoltre, YouTube spiega di aver introdotto funzionalità aggiuntive sulla piattaforma (come ad esempio riquadri informativi o “scaffali” con notizie attendibili) per garantire agli “spettatori” informazioni accurate e autorevoli.

Le iniziative europee

Uno sforzo, quello di Google, che si inserisce in una serie di iniziative che vengono portate avanti insieme alle istituzioni europee per combattere la disinformazione. In occasione delle elezioni europee venne stilato un Codice di Condotta Europeo sulla Disinformazione (Code of Practice on Difisnformation) che “stabilisce una serie di linee guida e per supportare un dibattito democratico robusto”. Questa esperienza è confluita nel Fighting COVID-19 Disinformation Monitoring Programme: una serie di linee guida sulle aspettative dell’Unione nell’approcciarsi a una comunicazione corretta in ambito sanitario e pandemico.

Fonte : Sky Tg24