Il meta CTO Andrew Bosworth avverte della “minaccia esistenziale” nella moderazione VR

Il CTO di Meta (ex Facebook) Andrew Bosworth ha avvertito i dipendenti che la creazione di esperienze di realtà virtuale sicure era una parte vitale del suo piano aziendale, ma anche potenzialmente impossibile su larga scala.

In una nota interna visto da Financial Times, Bosworth apparentemente ha affermato di volere che i mondi virtuali di Meta avessero “livelli di sicurezza quasi Disney”, sebbene gli spazi di sviluppatori di terze parti potrebbero avere standard più flessibili rispetto ai contenuti creati direttamente da Meta. Le molestie o altri comportamenti tossici potrebbero rappresentare una “minaccia esistenziale” per i piani dell’azienda per un futuro Internet incarnato se allontanasse i consumatori tradizionali dalla realtà virtuale.

Allo stesso tempo, Bosworth ha affermato che controllare il comportamento degli utenti “a qualsiasi scala significativa è praticamente impossibile”. FT la giornalista Hannah Murphy ha poi twittato che Bosworth stava citando Teorema dell’impossibilità di Masnick: una massima, coniata da Techdirt fondatore Mike Masnick, che afferma che “la moderazione dei contenuti su larga scala è impossibile da fare bene”. (La scrittura di Masnick osserva che questo non è un argomento contro la spinta per una migliore moderazione, ma i grandi sistemi “finiranno sempre per frustrare segmenti molto ampi della popolazione”.)

Bosworth apparentemente suggerisce che Meta potrebbe moderare spazi come la sua piattaforma Horizon Worlds VR utilizzando una versione più rigorosa delle sue regole comunitarie esistenti, affermando che la moderazione della realtà virtuale o del metaverso potrebbe avere “una maggiore propensione verso l’applicazione lungo una sorta di spettro di avvertimento, sospensioni successivamente più lunghe e infine l’espulsione dagli spazi multiutente”.

Sebbene il promemoria completo non sia disponibile pubblicamente, Bosworth ha pubblicato un post sul blog che vi allude più tardi quel giorno. Il post, intitolato “Mantenere le persone al sicuro nella realtà virtuale e oltre”, fa riferimento a molti degli strumenti di moderazione VR esistenti di Meta. Ciò include consentire alle persone di bloccare altri utenti in VR, nonché un ampio sistema di sorveglianza Horizon per monitorare e segnalare comportamenti scorretti. Meta ha anche promesso 50 milioni di dollari per la ricerca su questioni pratiche ed etiche relative ai suoi piani del metaverso.

Come FT osserva, le vecchie piattaforme di Meta come Facebook e Instagram sono state punite per gravi errori di moderazione, comprese risposte lente e inadeguate a contenuti che promuovevano l’odio e incitavano alla violenza. Il recente rebranding dell’azienda offre un potenziale nuovo inizio, ma come osserva il promemoria, la realtà virtuale e i mondi virtuali dovranno probabilmente affrontare una serie completamente nuova di problemi oltre a quelli esistenti.

“Spesso abbiamo conversazioni sincere internamente ed esternamente sulle sfide che affrontiamo, sui compromessi coinvolti e sui potenziali risultati del nostro lavoro”, ha scritto Bosworth nel post sul blog. “Ci sono problemi sociali e tecnici difficili in gioco e li affrontiamo quotidianamente”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *