Google ha reso il linguaggio AI il fulcro dell’I / O ignorando il suo passato travagliato in azienda

Ieri alla conferenza degli sviluppatori I / O di Google, la società ha delineato piani ambiziosi per il suo futuro costruiti su una base di linguaggio avanzato AI. Questi sistemi, ha affermato il CEO di Google Sundar Pichai, consentiranno agli utenti di trovare informazioni e organizzare la propria vita intrattenendo conversazioni naturali con i computer. Tutto quello che devi fare è parlare e la macchina risponderà.

Ma per molti nella comunità AI, c’era una notevole assenza in questa conversazione: la risposta di Google alla propria ricerca che esaminava i pericoli di tali sistemi.

A dicembre 2020 e febbraio 2021, Google ha licenziato prima Timnit Gebru e poi Margaret Mitchell, co-responsabili del suo team di Ethical AI. La storia della loro partenza è complessa ma è stata innescata da un articolo di cui la coppia è coautrice (con ricercatori esterni a Google) esaminando i rischi associati ai modelli linguistici che Google presenta ora come chiave per il suo futuro. Come fanno notare il documento e altre critiche, questi sistemi di intelligenza artificiale sono soggetti a una serie di errori, inclusa la generazione di linguaggio offensivo e razzista; la codifica del pregiudizio razziale e di genere attraverso il linguaggio; e un’incapacità generale di separare i fatti dalla finzione. Per molti nel mondo dell’IA, il licenziamento di Gebru e Mitchell da parte di Google equivaleva a censurare il loro lavoro.

Per alcuni spettatori, come Pichai ha delineato come i modelli di intelligenza artificiale di Google sarebbero sempre stati progettati con “correttezza, accuratezza, sicurezza e privacy” a cuore, la disparità tra le parole e le azioni dell’azienda ha sollevato dubbi sulla sua capacità di salvaguardare questa tecnologia.

“Google ha appena presentato LaMDA un nuovo modello di linguaggio di grandi dimensioni all’I / O”, twittato Meredith Whittaker, ricercatrice sull’equità dell’IA e co-fondatrice dell’AI Now Institute. “Questo è un indicatore della sua importanza strategica per i Co. Team che passano mesi a preparare questi annunci. Tl; dr questo piano era in atto quando Google ha licenziato Timnit + ha cercato di soffocare la sua + ricerca che criticava questo approccio “.

Gebru stessa twittato, “Questo è ciò che viene chiamato lavaggio etico”, in riferimento alla tendenza del settore tecnologico a strombazzare le preoccupazioni etiche ignorando i risultati che ostacolano la capacità delle aziende di realizzare un profitto.

Parlando con The Verge, Emily Bender, una professoressa dell’Università di Washington che è stata coautrice del documento con Gebru e Mitchell, ha detto che la presentazione di Google non ha in alcun modo placato le sue preoccupazioni sulla capacità dell’azienda di rendere sicura tale tecnologia.

“Dal post sul blog [discussing LaMDA] e data la storia, non ho la certezza che Google stia effettivamente facendo attenzione ai rischi che abbiamo sollevato nel giornale “, ha detto Bender. “Per prima cosa, hanno licenziato due degli autori di quel documento, nominalmente sul giornale. Se le questioni che sollevavamo erano quelle che stavano affrontando frontalmente, si sono deliberatamente privati ​​di competenze altamente rilevanti per quel compito “.

Nel suo post sul blog su LaMDA, Google evidenzia una serie di questi problemi e sottolinea che il suo lavoro necessita di ulteriore sviluppo. “La lingua potrebbe essere uno dei più grandi strumenti dell’umanità, ma come tutti gli strumenti può essere utilizzata in modo improprio”, scrive il direttore della ricerca senior Zoubin Ghahramani e il vicepresidente della gestione dei prodotti Eli Collins. “I modelli addestrati sul linguaggio possono propagare tale uso improprio, ad esempio interiorizzando pregiudizi, rispecchiando discorsi di odio o replicando informazioni fuorvianti”.

Ma Bender afferma che la società sta offuscando i problemi e deve essere più chiara su come li sta affrontando. Ad esempio, osserva che Google si riferisce al controllo del linguaggio utilizzato per addestrare modelli come LaMDA, ma non fornisce alcun dettaglio su come si presenta questo processo. “Mi piacerebbe molto conoscere il processo di controllo (o la sua mancanza)”, afferma Bender.

È stato solo dopo la presentazione che Google ha fatto alcun riferimento alla sua unità di etica AI, in a CNET colloquio con Jeff Dean, capo dell’IA di Google. Dean ha notato che Google aveva subito un vero “colpo di reputazione” a causa dei licenziamenti – qualcosa The Verge ha già riferito in precedenza, ma che la società ha dovuto “superare” questi eventi. “Non siamo timidi di criticare i nostri prodotti”, ha detto Dean CNET. “Fintanto che è fatto con una lente verso i fatti e un trattamento appropriato dell’ampia serie di lavoro che stiamo svolgendo in questo spazio, ma anche per affrontare alcuni di questi problemi”.

Per i critici dell’azienda, tuttavia, la conversazione deve essere molto più aperta di così.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *