Rapporti di crowdsourcing di Mozilla di cattivi consigli su YouTube

Che il feed basato sull’apprendimento automatico dei consigli di YouTube può spesso far emergere risultati taglienti o addirittura radicalizzando piegato non è più una domanda. YouTube stesso ha promosso strumenti che, a suo avviso, potrebbero offrire agli utenti un maggiore controllo sul proprio feed e trasparenza su determinati consigli, ma è difficile per gli estranei sapere che tipo di impatto stanno avendo. Ora, dopo aver trascorso gran parte dell’ultimo anno a raccogliere dati dal Estensione RegretsReporter (disponibile per Firefox o Cromo), la Fondazione Mozilla ha maggiori informazioni su ciò che le persone vedono quando l’algoritmo fa la scelta sbagliata e ha rilasciato un rapporto dettagliato (PDF).

A settembre 2020 è stata lanciata l’estensione, adottando un approccio di crowdsourcing per trovare contenuti “spiacevoli” che le persone incontrano tramite il motore di raccomandazione. Dopo aver ricevuto 3.362 segnalazioni (insieme ai dati di persone che hanno installato l’estensione ma non hanno inviato segnalazioni), le tendenze nei dati mostrano il pericolo nell’approccio di YouTube.

Sebbene la fondazione affermi di aver mantenuto il concetto di “rimpianto” nel vago di proposito, ha ritenuto che il 12,2 percento dei video segnalati violasse le regole stesse di YouTube per i contenuti e ha notato che circa il nove percento di essi (quasi 200 in totale) è stato rimosso da YouTube, dopo aver accumulato oltre 160 milioni di visualizzazioni. Per quanto riguarda il motivo per cui quei video sono stati pubblicati in primo luogo, una possibile spiegazione è che sono popolari: Mozilla ha notato che i video segnalati hanno una media del 70% in più di visualizzazioni al giorno rispetto ad altri video guardati dai volontari.

Direttore senior di advocacy di Mozilla Brandy Guerkink dice “YouTube deve ammettere che il loro algoritmo è progettato in modo da danneggiare e disinformare le persone”. Tuttavia, due statistiche in particolare mi sono emerse dallo studio: Mozilla afferma che “nel 43,3 percento dei casi in cui abbiamo dati sui percorsi che un volontario ha guardato prima di un rimpianto, la raccomandazione era completamente estranea ai video precedenti che il volontario ha guardato”. Inoltre, il tasso di video deplorevoli segnalati era del 60% più alto nei paesi in cui l’inglese non è una lingua principale. Nonostante la piccola dimensione del campione e il possibile bias di selezione dei dati, indica che c’è altro da guardare in luoghi in cui le persone che parlano principalmente inglese non prestano nemmeno attenzione.

Notizie NBC includeva una dichiarazione di YouTube in merito al rapporto che affermava “solo nell’ultimo anno, abbiamo lanciato oltre 30 diverse modifiche per ridurre i consigli sui contenuti dannosi”. Hanno avuto una risposta simile quando il progetto è stato lanciato l’anno scorso. Le riforme suggerite da Mozilla includono rapporti sulla trasparenza e la possibilità di rinunciare alla personalizzazione, ma con YouTube che guadagna oltre 6 miliardi di dollari al trimestre dalla pubblicità, l’abbandono della profilazione sembra dubbio.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.