Dall’anno scorso Facebook ha raddoppiato il bullismo e le molestie
Giovedì, Facebook ha pubblicato un nuovo rapporto sulla trasparenza della moderazione che mostra un netto aumento nell’applicazione del bullismo e delle molestie, che ha raggiunto un picco di 6,3 milioni di takedown totali nell’ultimo trimestre del 2020. Si tratta di un aumento da 3,5 milioni di pezzi lo scorso trimestre e 2,8 milioni nel quarto trimestre del 2019. La società ha affermato che gran parte del cambiamento è dovuto a miglioramenti nei sistemi automatizzati che analizzano i commenti di Facebook e Instagram.
L’ultimo rapporto sulla trasparenza di Facebook copre da ottobre a dicembre 2020, un periodo che include le elezioni presidenziali statunitensi. Durante quel periodo, la rete principale di Facebook ha rimosso più molestie, odio organizzato e discorsi di incitamento all’odio e contenuti relativi al suicidio e all’autolesionismo. Instagram ha registrato salti significativi nel bullismo e nelle rimozioni per autolesionismo. L’azienda afferma che i suoi numeri sono stati modellati da due fattori: maggiore capacità di revisione umana e miglioramenti nell’intelligenza artificiale, in particolare per i post non in inglese.
La società indica inoltre che si appoggerà all’automazione per affrontare una quantità crescente di video e audio sulle sue piattaforme, incluso un presunto concorrente della Clubhouse. “Stiamo investendo nella tecnologia in tutti i diversi tipi di modi che le persone condividono”, ha detto il CTO Mike Schroepfer in una telefonata con i giornalisti. “Comprendiamo audio, video, comprendiamo il contenuto di queste cose, chi lo ha condiviso e costruiamo un quadro più ampio di ciò che sta accadendo lì.” Facebook non ha confermato l’esistenza di una piattaforma audio simile a una Clubhouse, ma “Penso che stiamo facendo molto qui che può essere applicato a questi diversi formati, e ovviamente guardiamo a come i prodotti stanno cambiando e investiamo in anticipo rispetto a quelli modifiche per assicurarci di disporre degli strumenti tecnologici di cui abbiamo bisogno “, ha affermato.
Facebook ha spinto alcuni team di moderazione a rientrare negli uffici all’inizio di ottobre; anche se a novembre si diceva che la maggior parte dei moderatori lavorasse da remoto, si dice anche che alcuni contenuti sensibili non possono essere rivisti da casa. Ora, la società afferma che una maggiore moderazione ha aiutato Facebook e Instagram a rimuovere più post di suicidio e autolesionismo. Facebook ha rimosso 2,5 milioni di contenuti in violazione, rispetto agli 1,3 milioni di pezzi del trimestre precedente, e Instagram ha rimosso 3,4 milioni di pezzi, rispetto a 1,3 milioni. È paragonabile ai livelli pre-pandemia per Facebook ed è un aumento assoluto significativo per Instagram.
:no_upscale()/cdn.vox-cdn.com/uploads/chorus_asset/file/22297476/Screen_Shot_2021_02_11_at_11.42.56_AM.png?w=800&ssl=1)
Al contrario, Facebook attribuisce alcuni aumenti alla moderazione basata sull’intelligenza artificiale. Ad esempio, ha rimosso 6,3 milioni di contenuti di bullismo e molestie su Facebook, quasi il doppio rispetto ai trimestri precedenti. Su Instagram, ha rimosso 5 milioni di contenuti, rispetto ai 2,6 milioni di pezzi dello scorso trimestre e 1,5 milioni di pezzi alla fine del 2019. Questi aumenti derivano dalla tecnologia che analizza meglio i commenti nel contesto del post di accompagnamento.
La moderazione della lingua non inglese è stata un punto debole storico per Facebook e la società afferma di aver migliorato il rilevamento della lingua AI in arabo, spagnolo e portoghese, alimentando un aumento dei discorsi di odio da 22,1 milioni a 26,9 milioni di pezzi. Non è così grande come il salto che Facebook ha visto alla fine del 2019, tuttavia, quando ha apportato quelli che ha descritto come miglioramenti drammatici al suo rilevamento automatico.
:no_upscale()/cdn.vox-cdn.com/uploads/chorus_asset/file/22297416/Screen_Shot_2021_02_11_at_11.32.38_AM.png?w=800&ssl=1)
Facebook afferma di aver cambiato il suo feed di notizie in modi che riducono la quantità di incitamento all’odio e contenuti violenti che le persone vedono. Un’indagine sull’incitamento all’odio nel terzo trimestre ha rilevato che gli utenti hanno calcolato in media tra i 10 e gli 11 discorsi d’odio per ogni 10.000 contenuti; nel quarto quarto, che è sceso a sette o otto pezzi. La società ha detto che stava ancora formulando risposte ad alcuni suggerimenti del Facebook Oversight Board, che ha rilasciato le sue prime decisioni il mese scorso.
Come lo scorso trimestre, Facebook ha suggerito ai legislatori di utilizzare il suo rapporto sulla trasparenza come modello per un quadro giuridico. Facebook ha supportato le modifiche alla sezione 230 del Communications Decency Act, un ampio scudo di responsabilità che è stato criticato dai critici dei social media. “Riteniamo che la regolamentazione sarebbe un’ottima cosa”, ha affermato Monika Bickert, VP della politica dei contenuti.
Tuttavia, Facebook non ha sostenuto una proposta legislativa specifica, incluso il SAFE TECH Act, un radicale rollback proposto al Congresso la scorsa settimana. “Rimaniamo impegnati ad avere questo dialogo con tutti gli Stati Uniti che stanno lavorando per trovare una via da seguire con la regolamentazione”, ha detto Bickert. “Ovviamente abbiamo visto una serie di proposte in questo settore e abbiamo visto obiettivi diversi di persone diverse sulla collina in termini di ciò che vogliono perseguire, e vogliamo assicurarci di essere parte di tutte quelle conversazioni . “