Facebook afferma di aver perso accidentalmente una regola di moderazione che coinvolge figure “pericolose”

Instagram ha accidentalmente vietato un post che criticava l’isolamento perché Facebook aveva smarrito la politica che lo consentiva, secondo una nuova decisione del Facebook Oversight Board (FOB).

L’Organismo di Vigilanza semi-indipendente dice che il sito di proprietà di Facebook non avrebbe dovuto essere rimosso un post su Abdullah Öcalan, un membro fondatore del militante Partito dei lavoratori del Kurdistan (PKK). Facebook designa Öcalan e il PKK come “entità pericolose” che gli utenti non possono supportare sulle sue piattaforme. A gennaio, i moderatori hanno applicato quella politica a un messaggio che criticava la prigionia e l’isolamento di Öcalan, una pratica che le Nazioni Unite hanno considerata una forma di tortura — in una prigione turca.

L’utente ha presentato ricorso all’Osservatorio, che ha accettato di esaminare il caso. Come ha fatto, Facebook apparentemente “ha scoperto che una guida interna sulla politica per gli individui e le organizzazioni pericolose è stata ‘inavvertitamente non trasferita’ a un nuovo sistema di revisione nel 2018”. La politica era stata sviluppata nel 2017 in parte a causa del dibattito sulle condizioni di vita di Öcalan e “consente la discussione sulle condizioni di reclusione per le persone designate come pericolose”. Ma la guida interna non è mai stata resa pubblica agli utenti di Facebook o Instagram e Facebook si è resa conto di aver abbandonato del tutto le linee guida sulla moderazione solo quando l’utente ha presentato ricorso.

“Se il consiglio non avesse selezionato questo caso per la revisione, la guida sarebbe rimasta sconosciuta ai moderatori dei contenuti e una quantità significativa di espressioni nell’interesse pubblico sarebbe stata rimossa”, afferma la decisione della FOB. Facebook ha rifiutato di commentare se considera tale valutazione accurata.

“Il consiglio è preoccupato che una guida specifica per i moderatori su un’importante eccezione politica sia stata persa per tre anni”, continua la decisione del FOB. Mentre Facebook ha ripristinato il post su Öcalan ad aprile, ha detto al consiglio che “non era tecnicamente fattibile” vedere quanti altri post avrebbero potuto essere rimossi perché i moderatori non erano a conoscenza dell’eccezione. “Il Consiglio ritiene che l’errore di Facebook possa aver portato alla rimozione errata di molti altri post e che la segnalazione sulla trasparenza di Facebook non sia sufficiente per valutare se questo tipo di errore riflette un problema sistemico”.

La decisione FOB spinge ampiamente Facebook a rendere le sue regole più trasparenti. “Questo caso dimostra perché le regole pubbliche sono importanti per gli utenti: non solo li informano su ciò che ci si aspetta, ma li autorizzano anche a segnalare gli errori di Facebook”, afferma. La decisione afferma che Facebook sta conducendo una revisione del modo in cui la politica non è stata trasferita e il FOB ha offerto una serie di ulteriori raccomandazioni facoltative. Includono la conduzione di un processo di revisione per vedere se altre politiche sono state perse, oltre a chiarire pubblicamente i limiti del suo divieto di supportare “individui e organizzazioni pericolose”.

I social network come Facebook e Instagram spesso tengono segrete parti delle loro politiche, affermando che il rilascio di regole di moderazione totalmente precise consente ai troll e ad altri cattivi attori di ingannare il sistema. Tuttavia, come osserva la FOB, questo tipo di segretezza su un servizio enorme e diffuso può rendere più facile la comunicazione errata, come apparentemente è successo in questo caso.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.