Il primo rapporto sulla trasparenza di Twitch è arrivato e atteso da tempo

Twitch rilasciato oggi è il primo in assoluto relazione sulla trasparenza, illustrando in dettaglio i suoi sforzi per salvaguardare i 26 milioni di persone che visitano il suo sito ogni giorno. Quando si tratta di trasparenza, il servizio decennale di proprietà di Amazon ha avuto molto da recuperare.

Twitch ha beneficiato di un aumento del 40% dei canali tra l’inizio e la fine del 2020, sostenuto dalla popolarità sia della tecnologia di live streaming che dei videogiochi durante la pandemia. Quella crescita esplosiva, tuttavia, è anche la più grande sfida dell’azienda quando si tratta di sconfiggere molestie e odio. A differenza dei video registrati, i contenuti live sono spesso spontanei ed effimeri. Le cose accadono e basta, di fronte a un pubblico dal vivo di migliaia o decine di migliaia. Ciò può includere qualsiasi cosa, da ragazzini di 11 anni che suonano dal vivo Minecraft— Esponendoli a potenziali predatori — alla celebrità dei giochi ora vietata Guy “Dr Disrespect” Beahm streaming da un bagno pubblico all’E3.

Nel suo nuovo rapporto sulla trasparenza Twitch riconosce questa difficoltà e per la prima volta offre dettagli specifici su quanto bene modera la sua piattaforma. Sebbene i risultati siano incoraggianti, ciò su cui Twitch storicamente non è stato trasparente parla altrettanto forte.

Twitch si è guadagnato subito la reputazione di focolaio di tossicità. Donne e minoranze in streaming sulla piattaforma ricevuto odio mirato da parte di un pubblico ostile a persone che credevano deviassero dagli stereotipi dei giocatori. Le vaghe linee guida di Twitch sui cosiddetti contenuti “sessualmente allusivi” sono servite da carburante auto-nominata polizia anti-tetta per segnalare in massa le donne streamer di Twitch. Moderatori volontari hanno sorvegliato la rapida chat di Twitch per eliminare le molestie. E per gli streamer problematici, Twitch si è basata sui rapporti degli utenti.

Nel 2016, Twitch ha introdotto uno strumento AutoMod, ora abilitato per impostazione predefinita per tutti gli account, che blocca ciò che la sua intelligenza artificiale considera i messaggi inappropriati degli spettatori. Come altre piattaforme di grandi dimensioni, anche Twitch fa affidamento sull’apprendimento automatico per segnalare contenuti potenzialmente problematici per la revisione umana. Twitch ha investito in moderatori umani per rivedere anche i contenuti segnalati. Eppure, un 2019 studia dall’Anti-Defamation League ha rilevato che quasi la metà degli utenti di Twitch intervistati ha riferito di aver subito molestie. E un 2020 GamesIndustry.Biz rapporto ha citato diversi dipendenti di Twitch che descrivono come i dirigenti dell’azienda non dessero la priorità agli strumenti di sicurezza e fossero sprezzanti nei confronti dei problemi di incitamento all’odio.

Per tutto questo tempo, Twitch non ha avuto un rapporto sulla trasparenza per rendere chiare le sue politiche e il funzionamento interno a una base di utenti che subiva abusi. In un’intervista con CABLATA, Il nuovo responsabile della fiducia e della sicurezza di Twitch, Angela Hession, afferma che, nel 2020, la sicurezza è stato “l’investimento numero uno” di Twitch.

Nel corso degli anni, Twitch ha imparato che i molestatori in malafede possono utilizzare come armi i suoi vaghi standard della comunità e nel 2020 ha rilasciato versioni aggiornate delle sue linee guida “Nudità e abbigliamento”, “Terrorismo e violenza estrema” e “Molestie e condotta ostile”. L’anno scorso, Twitch ha nominato un consiglio consultivo per la sicurezza di otto persone, composto da streamer, esperti di anti-bullismo e ricercatori sui social media, che redigerebbero politiche volte a migliorare la sicurezza, la moderazione e sane abitudini di streaming.

Lo scorso autunno Twitch ha portato Hession, in precedenza a capo della sicurezza in Xbox. Sotto Hession, Twitch ha finalmente bandito le raffigurazioni della bandiera confederata e della faccia nera. Twitch è in fiamme, dice, e c’è una grande opportunità per lei di immaginare come sia la sicurezza lì. “Twitch è un servizio creato per incoraggiare gli utenti a sentirsi a proprio agio nell’esprimersi e intrattenersi a vicenda”, afferma, “ma vogliamo anche che la nostra comunità sia e si senta sempre al sicuro”. Hession afferma che Twitch ha aumentato i suoi moderatori di contenuti di quattro volte nell’ultimo anno.

Il rapporto sulla trasparenza di Twitch serve come un giro di vittoria per i suoi recenti sforzi di moderazione. La società riporta che AutoMod o moderatori attivi hanno toccato oltre il 95% dei contenuti di Twitch durante la seconda metà del 2020. Le persone che hanno segnalato di aver ricevuto molestie tramite il messaggio diretto di Twitch sono diminuite del 70% nello stesso periodo. Le azioni di applicazione sono aumentate da 788.000 all’inizio del 2020 a 1,1 milioni alla fine del 2020, che secondo Twitch riflette il suo aumento di utenti. Anche i rapporti degli utenti sono aumentati durante questo periodo, da 5,9 milioni a 7,4 milioni, cosa che Twitch attribuisce nuovamente alla sua crescita. Lo stesso per i divieti di canale, passati da 2,3 milioni a 3,9 milioni.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *