L’uscita da Google di Timnit Gebru espone una crisi nell’intelligenza artificiale

Quest’anno ha tenuto molte cose, tra cui audaci affermazioni di scoperte di intelligenza artificiale. I commentatori del settore hanno ipotizzato che il modello di generazione del linguaggio GPT-3 possa aver raggiunto “aintelligenza artificiale generale, “Mentre altri lodavano l’algoritmo di ripiegamento delle proteine ​​di DeepMind della sussidiaria di Alphabet, Alphafold, e la sua capacità di”trasformare la biologia. ” Sebbene la base di tali affermazioni sia più sottile dei titoli dei titoli, ciò non ha fatto molto per smorzare l’entusiasmo in tutto il settore, i cui profitti e prestigio dipendono dalla proliferazione dell’IA.

È in questo contesto che Google ha licenziato Timnit Gebru, nostro caro amico e collega e leader nel campo dell’intelligenza artificiale. È anche una delle poche donne nere nella ricerca sull’intelligenza artificiale e una ferma sostenitrice di portare più BIPOC, donne e persone non occidentali sul campo. Con qualsiasi misura, eccelleva al lavoro che Google l’ha assunta per svolgere, tra cui la dimostrazione delle disparità razziali e di genere nelle tecnologie di analisi facciale e lo sviluppo di linee guida per la segnalazione di set di dati e modelli di intelligenza artificiale. Ironia della sorte, questo e il suo sostegno vocale a coloro che sono sottorappresentati nella ricerca sull’IA sono anche le ragioni, dice, la compagnia l’ha licenziata. Secondo Gebru, dopo aver chiesto a lei e ai suoi colleghi di ritirare un documento di ricerca critico di (redditizi) sistemi di intelligenza artificiale su larga scala, Google Research ha detto al suo team di aver accettato le sue dimissioni, nonostante il fatto che non si fosse dimessa. (Google ha rifiutato di commentare questa storia.)

Di Google trattamento spaventoso di Gebru denuncia una doppia crisi nella ricerca sull’IA. Il campo è dominato da una forza lavoro d’élite, principalmente maschile bianca, ed è controllata e finanziata principalmente da grandi operatori del settore: Microsoft, Facebook, Amazon, IBM e sì, Google. Con il licenziamento di Gebru, la politica di civiltà che ha aggiogato il giovane sforzo di costruire i necessari guardrail attorno all’IA è stata fatto a pezzi, portando al centro del discorso le questioni sull’omogeneità razziale della forza lavoro dell’IA e l’inefficacia dei programmi di diversità aziendale. Ma questa situazione ha anche chiarito che, per quanto sincera possa sembrare una società come le promesse di Google, la ricerca finanziata dalle aziende non può mai essere separata dalla realtà del potere e dai flussi di entrate e capitali.

Questo dovrebbe interessarci tutti. Con la proliferazione dell’IA in domini come assistenza sanitaria, giustizia criminale, e formazione scolastica, ricercatori e sostenitori stanno sollevando preoccupazioni urgenti. Questi sistemi effettuano determinazioni che modellano direttamente le vite, nello stesso momento in cui sono incorporate organizzazioni strutturate per rafforzare le storie di discriminazione razziale. I sistemi di intelligenza artificiale concentrano anche il potere nelle mani di coloro che li progettano e li utilizzano, oscurando la responsabilità (e la responsabilità) dietro la patina del calcolo complesso. I rischi sono profondi e gli incentivi decisamente perversi.

La crisi attuale espone le barriere strutturali che limitano la nostra capacità di costruire protezioni efficaci attorno ai sistemi di IA. Ciò è particolarmente importante perché le popolazioni soggette a danni e pregiudizi dalle previsioni e determinazioni dell’IA sono principalmente persone BIPOC, donne, minoranze religiose e di genere e poveri, coloro che hanno sopportato il peso della discriminazione strutturale. Qui abbiamo una chiara divisione razzializzata tra coloro che ne beneficiano – le corporazioni e principalmente ricercatori e sviluppatori maschi bianchi – e quelli che hanno maggiori probabilità di essere danneggiati.

Prendi le tecnologie di riconoscimento facciale, ad esempio, che è stato mostrato per “riconoscere” le persone dalla pelle più scura meno frequentemente rispetto a quelle con la pelle più chiara. Questo da solo è allarmante. Ma questi “errori” razzializzati non sono gli unici problemi con il riconoscimento facciale. Tawana Petty, direttore dell’organizzazione di Data for Black Lives, sottolinea che questi sistemi sono impiegati in modo sproporzionato in quartieri e città prevalentemente neri, mentre le città che hanno avuto successo nel vietare e respingere l’uso del riconoscimento facciale sono prevalentemente bianche.

Senza una ricerca critica e indipendente che centra le prospettive e le esperienze di coloro che sopportano i danni di queste tecnologie, la nostra capacità di comprendere e contestare le affermazioni troppo esagerate fatte dall’industria è notevolmente ostacolata. Il trattamento di Gebru da parte di Google rende sempre più chiaro dove sembrano essere le priorità dell’azienda quando il lavoro critico respinge i suoi incentivi commerciali. Ciò rende quasi impossibile garantire che i sistemi di intelligenza artificiale siano responsabili nei confronti delle persone più vulnerabili ai loro danni.

I controlli sul settore sono ulteriormente compromessi dagli stretti legami tra aziende tecnologiche e istituzioni accademiche apparentemente indipendenti. Ricercatori di aziende e università pubblicano articoli insieme e si strusciano nelle stesse conferenze, con alcuni ricercatori che ricoprono anche posizioni simultanee presso aziende tecnologiche e università. Questo offusca il confine tra la ricerca accademica e quella aziendale e oscura gli incentivi alla sottoscrizione di tale lavoro. Significa anche che i due gruppi sembrano terribilmente simili: la ricerca sull’IA nel mondo accademico soffre degli stessi perniciosi problemi di omogeneità razziale e di genere delle sue controparti aziendali. Inoltre, i migliori dipartimenti di informatica accettare importi abbondanti dei finanziamenti per la ricerca Big Tech. Dobbiamo solo guardare a Big Tobacco e Big Oil per modelli preoccupanti che rivelano quanta influenza sulla comprensione pubblica di complesse questioni scientifiche possono esercitare le grandi aziende quando la creazione di conoscenza è nelle loro mani.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *