Facebook afferma che la sua intelligenza artificiale ha etichettato erroneamente un video di uomini neri come “primati” era “inaccettabile”

Facebook si sta scusando per un incidente in cui la sua intelligenza artificiale ha etichettato erroneamente un video di uomini neri con l’etichetta “primati”, definendolo un “errore inaccettabile” che stava esaminando per evitare che si ripeta. Come riportato da New York Times, utenti che hanno guardato un video del 27 giugno pubblicato dal tabloid britannico Mail giornaliera hanno ricevuto un messaggio automatico che chiedeva se volevano “continuare a vedere video sui primati”.

Facebook ha disabilitato l’intera funzione di raccomandazione dell’argomento non appena si è reso conto di cosa stava succedendo, ha detto un portavoce in un’e-mail a Il Verge di sabato.

“Questo è stato chiaramente un errore inaccettabile”, ha detto il portavoce. La società sta indagando sulla causa per evitare che il comportamento si ripeta, ha aggiunto il portavoce. “Come abbiamo detto, anche se abbiamo apportato miglioramenti alla nostra intelligenza artificiale, sappiamo che non è perfetta e abbiamo ulteriori progressi da fare. Ci scusiamo con chiunque abbia visto queste raccomandazioni offensive”.

L’incidente è solo l’ultimo esempio di strumenti di intelligenza artificiale che mostrano pregiudizi di genere o razziali, con strumenti di riconoscimento facciale che hanno dimostrato di avere un particolare problema di identificare erroneamente le persone di colore. Nel 2015, Google si è scusato dopo che la sua app Foto ha etichettato le foto di persone di colore come “gorilla”. L’anno scorso, Facebook ha affermato che stava studiando se i suoi algoritmi addestrati utilizzando l’intelligenza artificiale, compresi quelli di Instagram, che possiede Facebook, fossero di parte razziale.

Ad aprile, negli Stati Uniti La Federal Trade Commission ha avvertito che gli strumenti di intelligenza artificiale che hanno dimostrato pregiudizi razziali e di genere “preoccupanti” possono violare le leggi sulla protezione dei consumatori se vengono utilizzati per prendere decisioni per il credito, l’alloggio o l’occupazione. “Ritieniti responsabile o preparati affinché l’FTC lo faccia per te”, ha scritto l’avvocato per la privacy dell’FTC Elisa Jillson in un post sul sito Web dell’agenzia.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *