Secondo quanto riferito, Google ha chiesto ai dipendenti di “dare un tono positivo” nel documento di ricerca

Google ha aggiunto un livello di controllo per documenti di ricerca su argomenti delicati tra cui genere, razza e ideologia politica. Un senior manager ha anche incaricato i ricercatori di “dare un tono positivo” in un documento di questa estate. La notizia era segnalato per la prima volta da Reuters.

“I progressi della tecnologia e la crescente complessità del nostro ambiente esterno stanno portando a situazioni in cui progetti apparentemente inoffensivi sollevano questioni etiche, reputazionali, normative o legali”, si legge nella policy. Tre dipendenti hanno detto a Reuters che la regola è iniziata a giugno.

L’azienda ha anche chiesto ai dipendenti di “astenersi dal mettere la sua tecnologia in una luce negativa” in più occasioni, afferma Reuters.

Secondo Reuters, ai dipendenti che lavoravano a un documento sulla raccomandazione AI, che viene utilizzata per personalizzare i contenuti su piattaforme come YouTube, è stato detto di “fare molta attenzione a dare un tono positivo”. Gli autori hanno quindi aggiornato il documento per “rimuovere tutti i riferimenti ai prodotti Google”.

Un altro documento sull’utilizzo dell’IA per comprendere le lingue straniere “ha ammorbidito un riferimento al modo in cui il prodotto Google Traduttore stava commettendo errori”, ha scritto Reuters. La modifica è avvenuta in risposta a una richiesta dei revisori.

Il processo di revisione standard di Google ha lo scopo di garantire che i ricercatori non rivelino inavvertitamente segreti commerciali. Ma la revisione degli “argomenti sensibili” va oltre. I dipendenti che desiderano valutare i servizi di Google per pregiudizi sono invitati a consultare prima i team legali, PR e responsabili delle politiche. Secondo quanto riferito, altri argomenti delicati includono Cina, industria petrolifera, dati sulla posizione, religione e Israele.

Il processo di pubblicazione del gigante della ricerca è stato sotto i riflettori sin dal licenziamento dell’etico dell’IA Timnit Gebru all’inizio di dicembre. Gebru afferma di essere stata interrotta per un’e-mail inviata a Google Brain Women and Allies listserv, un gruppo interno per i dipendenti di ricerca di Google AI. In esso, ha parlato dei manager di Google che l’hanno spinta a ritirare un documento sui pericoli dei modelli di elaborazione del linguaggio su larga scala. Jeff Dean, capo dell’intelligenza artificiale di Google, ha detto di averlo inviato troppo vicino alla scadenza. Ma la stessa squadra di Gebru ha respinto questa affermazione, dicendo che la politica è stata applicata “in modo non uniforme e discriminatorio”.

Gebru ha contattato il team delle pubbliche relazioni e delle politiche di Google a settembre in merito al documento, secondo Il Washington Post. Sapeva che l’azienda potrebbe avere problemi con alcuni aspetti della ricerca, poiché utilizza modelli di elaborazione del linguaggio di grandi dimensioni nel suo motore di ricerca. Il termine per apportare modifiche al documento non era fino alla fine di gennaio 2021, dando ai ricercatori tutto il tempo per rispondere a qualsiasi preoccupazione.

Una settimana prima del Ringraziamento, tuttavia, Megan Kacholia, VP di Google Research, ha chiesto a Gebru di ritirare il documento. Il mese successivo, Gebru è stato licenziato.

Google non ha risposto immediatamente alla richiesta di commento di The Verge.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *