TikTok inizierà ad automatizzare la rimozione di video per nudità e altro negli Stati Uniti

TikTok sta cercando di accelerare il suo processo di moderazione rimuovendo i revisori umani in cui anche i suoi sistemi automatizzati possono svolgere il lavoro.

Negli Stati Uniti e in Canada, l’azienda è sta per iniziare utilizzando sistemi di revisione automatizzata per eliminare i video con nudità, sesso, violenza, contenuti grafici, attività illegali e violazioni della sua politica di sicurezza sui minori. Se il sistema rileva un video in quelle categorie, verrà immediatamente rimosso e al creatore verrà data l’opportunità di fare appello a un moderatore umano.

Fino ad ora, TikTok ha eseguito tutti i video di moderatori umani negli Stati Uniti prima di ritirarli, dice un portavoce Il Verge. Il cambiamento ha lo scopo in parte di limitare il “volume di video angoscianti” che i moderatori devono guardare e dare loro più tempo da dedicare a clip più complicate, come la disinformazione, che richiedono un contesto per essere esaminate correttamente. I moderatori di altre aziende, come Facebook, hanno sviluppato sintomi simili a PTSD dai video che dovevano guardare. L’annuncio fa anche parte di uno sforzo per fornire maggiore trasparenza sulla moderazione, secondo Axios, che per primo ha riportato la notizia.

Il problema che TikTok dovrà affrontare è che i sistemi automatizzati non sono mai perfetti e alcune comunità potrebbero essere colpite più duramente da errori nelle rimozioni automatiche. L’app ha una storia di moderazione discriminatoria ed è stata recentemente criticata per aver rimosso due volte l’hashtag intersessuale. TikTok afferma che sta iniziando a utilizzare l’automazione solo dove è più affidabile; sta testando la tecnologia in altri paesi, tra cui Brasile e Pakistan, e afferma che solo il 5% dei video rimossi dai suoi sistemi avrebbe dovuto essere autorizzato.

È un numero basso, ma se inserito nel contesto di quanti video rimuove TikTok — 8.540.088 video negli Stati Uniti durante i primi tre mesi del 2021 — potrebbero esserci decine o centinaia di migliaia di video estratti per errore. La stragrande maggioranza dei video rimossi rientra nelle categorie che TikTok sta implementando la moderazione automatizzata. Detto questo, non tutti questi video verranno indirizzati a revisori umani. Un portavoce afferma che i moderatori umani continueranno a controllare i rapporti della community, gli appelli e altri video segnalati dai suoi sistemi automatizzati.

TikTok afferma che lancerà il sistema di revisione automatizzata “nelle prossime settimane”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.