Lo studio federale sui migliori algoritmi di riconoscimento facciale trova "prove empiriche" di parzialità


Un nuovo studio federale ha scoperto che molti dei migliori algoritmi di riconoscimento facciale del mondo sono influenzati da età, razza ed etnia. Secondo il studia dal National Institute of Standards and Technology (NIST), gli algoritmi attualmente venduti sul mercato possono identificare erroneamente i membri di alcuni gruppi fino a 100 volte più frequentemente di altri.

Il NIST afferma di aver trovato "prove empiriche" che caratteristiche come l'età, il genere e la precisione dell'impatto sulla razza per la "maggioranza" degli algoritmi. Il gruppo ha testato 189 algoritmi di 99 organizzazioni, che insieme alimentano la maggior parte dei sistemi di riconoscimento facciale in uso a livello globale.

I risultati forniscono ancora più prove del fatto che molti degli algoritmi di riconoscimento facciale più avanzati al mondo non sono pronti per l'uso in aree critiche come le forze dell'ordine e la sicurezza nazionale. I legislatori hanno definito lo studio "scioccante" Il Washington Post rapportie ha invitato il governo degli Stati Uniti a riconsiderare i piani di utilizzo della tecnologia per proteggere i suoi confini.

Lo studio ha testato i controlli "one-to-one", utilizzati per abbinare qualcuno con un passaporto o una carta d'identità, nonché ricerche "one-to-many", in cui qualcuno è abbinato a un singolo record in un database più grande. Le donne afro-americane sono state erroneamente identificate più frequentemente nelle ricerche uno-a-molti, mentre asiatici, afro-americani, nativi americani e isole del Pacifico sono stati tutti erroneamente identificati nelle ricerche uno a uno. Anche i bambini e gli anziani sono stati identificati erroneamente di più. In alcuni casi, i popoli asiatici e afroamericani sono stati identificati erroneamente fino a 100 volte più degli uomini bianchi. I più alti tassi di accuratezza sono stati generalmente riscontrati tra i bianchi di mezza età.

Lo studio NIST si è basato su organizzazioni che hanno presentato volontariamente i loro algoritmi per i test. Ma dalla lista mancava Amazon, che vende il suo software Rekognition alla polizia locale e agli investigatori federali. Precedenti studi hanno sollevato dubbi sull'accuratezza del sistema di Amazon e i ricercatori dell'IA hanno invitato l'azienda a smettere di vendere il suo sistema "difettoso". Amazon afferma che il suo software non può essere facilmente analizzato dai test del NIST (nonostante il fatto che le società tecnologiche con prodotti simili non abbiano problemi a presentare i propri algoritmi) e che i suoi azionisti abbiano resistito alle chiamate per frenare le vendite di Rekognition.

Gli esperti affermano che la distorsione in questi algoritmi potrebbe essere ridotta utilizzando una serie più diversificata di dati di allenamento. I ricercatori hanno scoperto che gli algoritmi sviluppati nei paesi asiatici, ad esempio, non avevano una differenza così grande nei tassi di errore tra i volti bianchi e quelli asiatici.

Tuttavia, anche risolvere il problema del bias non risolverà tutti i problemi con il riconoscimento facciale quando la tecnologia viene utilizzata in modi che non rispettano la sicurezza o la privacy delle persone.

"A che serve sviluppare la tecnologia di analisi facciale che viene poi armata?", Ha detto Joy Buolamwini, un ricercatore di intelligenza artificiale che ha guidato le indagini sulla distorsione del riconoscimento facciale. The Verge l'anno scorso. "Le considerazioni tecniche non possono essere separate dalle implicazioni sociali".

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *