Una mossa per la “riparazione algoritmica” richiede giustizia razziale nell’IA

I sostenitori della riparazione algoritmica suggeriscono di prendere lezioni da professionisti della curatela come i bibliotecari, che hanno dovuto considerare come raccogliere eticamente i dati sulle persone e cosa dovrebbe essere incluso nelle biblioteche. Propongono di considerare non solo se le prestazioni di un modello di intelligenza artificiale sono ritenute giuste o buone, ma se sposta il potere.

I suggerimenti fanno eco alle precedenti raccomandazioni dell’ex ricercatore di Google AI Timnit Gebru, che in un articolo del 2019 incoraggiato professionisti dell’apprendimento automatico per considerare come gli archivisti e le biblioteche hanno affrontato questioni riguardanti l’etica, l’inclusività e il potere. Gebru afferma che Google l’ha licenziata alla fine del 2020 e ha recentemente lanciato un centro di ricerca distribuito sull’IA. un critico analisi ha concluso che Google ha sottoposto Gebru a un modello di abuso storicamente rivolto alle donne nere negli ambienti professionali. Gli autori di tale analisi hanno anche esortato gli informatici a cercare modelli nella storia e nella società oltre ai dati.

All’inizio di quest’anno, cinque senatori degli Stati Uniti ha esortato Google assumere un revisore indipendente per valutare l’impatto del razzismo sui prodotti e sul posto di lavoro di Google. Google non ha risposto alla lettera.

Nel 2019, quattro ricercatori di Google AI discusso il campo dell’IA responsabile ha bisogno di una teoria critica della razza perché la maggior parte del lavoro nel campo non tiene conto dell’aspetto socialmente costruito della razza o riconosce l’influenza della storia sui set di dati che vengono raccolti.

“Sottolineiamo che la raccolta dei dati e gli sforzi di annotazione devono essere radicati nei contesti sociali e storici della classificazione razziale e della formazione delle categorie razziali”, si legge nel documento. “Semplificare significa fare violenza, o anche di più, reinscrivere la violenza su comunità che già sperimentano violenza strutturale”.

L’autore principale Alex Hanna è uno dei primi sociologi assunti da Google e autore principale del documento. Era una critica vocale dei dirigenti di Google sulla scia della partenza di Gebru. Hanna dice che lei apprezza che la teoria critica della razza centri la corsa nelle conversazioni su ciò che è giusto o etico e può aiutare a rivelare modelli storici di oppressione. Da allora, Hanna è stata coautrice di un articolo pubblicato anche su Big Data e società che confronta il modo in cui la tecnologia di riconoscimento facciale rafforza i costrutti di genere e razza che risalgono al colonialismo.

Alla fine del 2020, Margaret Mitchell, che con Gebru ha guidato il team di Ethical AI di Google, disse l’azienda stava iniziando a utilizzare la teoria della razza critica per aiutare a decidere cosa è giusto o etico. Mitchell è stato licenziato a febbraio. Un portavoce di Google afferma che la teoria della razza critica fa parte del processo di revisione per la ricerca sull’intelligenza artificiale.

Altro carta, del consigliere per la politica scientifica e tecnologica della Casa Bianca Rashida Richardson, che sarà pubblicato il prossimo anno, sostiene che non si può pensare all’intelligenza artificiale negli Stati Uniti senza riconoscere l’influenza della segregazione razziale. L’eredità di leggi e norme sociali per controllare, escludere e altrimenti opprimere i neri è troppo influente.

Ad esempio, gli studi hanno scoperto che gli algoritmi utilizzati per affittuari di appartamenti schermo e richiedenti un mutuo svantaggiare in modo sproporzionato i neri. Richardson afferma che è essenziale ricordare che la politica abitativa federale richiedeva esplicitamente la segregazione razziale fino all’approvazione delle leggi sui diritti civili negli anni ’60. Il governo ha anche collaborato con sviluppatori e proprietari di case per negare opportunità alle persone di colore e tenere separati i gruppi razziali. Dice che la segregazione ha consentito un “comportamento simile a un cartello” tra i bianchi nelle associazioni di proprietari di case, nei consigli scolastici e nei sindacati. A loro volta, le pratiche abitative segregate aggravano i problemi oi privilegi legati all’istruzione o alla ricchezza generazionale.

I modelli storici di segregazione hanno avvelenato i dati su cui sono costruiti molti algoritmi, dice Richardson, come per classificare quale sia una scuola “buona” o atteggiamenti nei confronti della polizia dei quartieri Brown e Black.

“La segregazione razziale ha svolto un ruolo evolutivo centrale nella riproduzione e nell’amplificazione della stratificazione razziale nelle tecnologie e nelle applicazioni basate sui dati. La segregazione razziale limita anche la concettualizzazione dei problemi di pregiudizio algoritmico e degli interventi rilevanti”, ha scritto. “Quando l’impatto della segregazione razziale viene ignorato, i problemi della disuguaglianza razziale appaiono come fenomeni naturali, piuttosto che come sottoprodotti di politiche, pratiche, norme sociali e comportamenti specifici”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.