Oggi ho appreso degli slider AI di Intel che filtrano l’abuso dei giochi online

Lo scorso mese durante la sua presentazione virtuale alla GDC Intel ha annunciato Bleep, un nuovo strumento basato sull’intelligenza artificiale che si spera ridurrà la quantità di tossicità che i giocatori devono sperimentare nella chat vocale. Secondo Intel, l’app “utilizza l’intelligenza artificiale per rilevare e modificare l’audio in base alle preferenze dell’utente”. Il filtro funziona sull’audio in entrata, agendo come un ulteriore livello di moderazione controllato dall’utente oltre a ciò che una piattaforma o un servizio già offre.

È uno sforzo nobile, ma c’è qualcosa di terribilmente divertente nell’interfaccia di Bleep, che elenca nei minimi dettagli tutte le diverse categorie di abusi che le persone potrebbero incontrare online, abbinate a cursori per controllare la quantità di maltrattamenti che gli utenti vogliono sentire. Le categorie vanno da “Aggressione” a “LGBTQ + Odio”, “Misoginia”, “Razzismo e xenofobia” e “Nazionalismo bianco”. C’è anche un interruttore per la parola N. La pagina di Bleep osserva che deve ancora entrare nella beta pubblica, quindi tutto questo è soggetto a modifiche.

I filtri includono “Aggressione”, “Misoginia” …
Credito: Intel

… e un interruttore per la “N-parola”.
Immagine: Intel

Con la maggior parte di queste categorie, Bleep sembra offrire agli utenti una scelta: vorresti che nessuno, alcuni, la maggior parte o tutto questo linguaggio offensivo venisse filtrato? Come scegliere da un buffet di fanghi tossici di Internet, l’interfaccia di Intel offre ai giocatori la possibilità di aggiungere una leggera dose di aggressività o insulti nei loro giochi online.

Bleep è in lavorazione da un paio d’anni ormai – PCMag Appunti che Intel ha parlato di questa iniziativa nel lontano GDC 2019 e sta lavorando con specialisti della moderazione dell’intelligenza artificiale Spirito AI sul software. Ma moderare gli spazi online utilizzando l’intelligenza artificiale non è un’impresa facile, come hanno dimostrato piattaforme come Facebook e YouTube. Sebbene i sistemi automatizzati possano identificare parole chiaramente offensive, spesso non riescono a considerare il contesto e le sfumature di determinati insulti e minacce. La tossicità online si presenta in molte forme in continua evoluzione che possono essere difficili da individuare anche per i sistemi di moderazione dell’IA più avanzati.

“Sebbene riconosciamo che soluzioni come Bleep non cancellano il problema, riteniamo che sia un passo nella giusta direzione, offrendo ai giocatori uno strumento per controllare la loro esperienza”, ha detto Roger Chandler di Intel durante la sua dimostrazione GDC. Intel afferma che spera di rilasciare Bleep entro la fine dell’anno e aggiunge che la tecnologia si basa sul rilevamento vocale AI accelerato dall’hardware, suggerendo che il software potrebbe fare affidamento sull’hardware Intel per l’esecuzione.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *