Facebook elimina il riconoscimento facciale per taggare le persone nelle foto
Raji ha detto che è sempre positivo quando le aziende prendono provvedimenti pubblici per segnalare che la tecnologia è pericolosa, ma ha avvertito che le persone non dovrebbero fare affidamento su azioni aziendali volontarie per la protezione. Se la decisione di Facebook di limitare l’uso del riconoscimento facciale faccia una differenza maggiore dipenderà dai responsabili delle politiche.
“Se questo spingesse un politico a prendere sul serio la conversazione sul riconoscimento facciale abbastanza da far passare una legislazione al Congresso e sostenerla davvero e appoggiarla, allora questo diventerebbe un punto di svolta o un momento critico”, afferma.
Nonostante la retorica occasionalmente bipartisan sulla minaccia che il riconoscimento facciale rappresenta per le libertà civili e la mancanza di standard in uso da parte delle forze dell’ordine, il Congresso non ha approvato alcuna legge che regoli l’uso della tecnologia o che stabilisca standard su come le aziende o i governi possono utilizzare il riconoscimento facciale.
In una dichiarazione condivisa con WIRED, il gruppo Fight for the Future ha affermato che Facebook sa che il riconoscimento facciale è pericoloso e ha rinnovato gli appelli per vietare l’uso della tecnologia.
“Anche se gli algoritmi migliorano, il riconoscimento facciale sarà solo più pericoloso”, afferma il gruppo. “Questa tecnologia consentirà ai governi autoritari di prendere di mira e reprimere le minoranze religiose e il dissenso politico; automatizzerà l’incanalamento delle persone nelle carceri senza renderci più sicuri; creerà nuovi strumenti per lo stalking, l’abuso e il furto di identità”.
Sneha Revanur, fondatrice di Encode Justice, un gruppo per giovani che cercano di porre fine all’uso di algoritmi che automatizzano l’oppressione, ha dichiarato in una dichiarazione che la notizia rappresenta una vittoria sudata per i sostenitori della privacy e della giustizia razziale e per gli organizzatori giovanili. Ha detto che è una delle tante riforme necessarie per affrontare l’incitamento all’odio, la disinformazione e la sorveglianza consentiti dalle società di social media.
Luke Stark è un assistente professore presso l’Università dell’Ontario occidentale e un critico di lunga data del riconoscimento facciale. Lui è chiamato riconoscimento facciale e pseudoscienza della visione artificiale con implicazioni per la privacy dei dati biometrici, la legge contro la discriminazione e le libertà civili. Nel 2019, ha sostenuto che il riconoscimento facciale è il plutonio di AI.
Stark ha detto che pensa che l’azione di Facebook equivalga a una tattica di pubbliche relazioni e a una deviazione pensata per ottenere buoni titoli, non un cambiamento fondamentale nella filosofia. Ma ha detto che la mossa mostra anche una società che non vuole essere associata alla tecnologia tossica.
Ha collegato la decisione alla recente attenzione di Facebook sulla realtà virtuale e sul metaverso. Il potenziamento degli avatar personalizzati richiederà la raccolta di altri tipi di dati fisiologici e solleverà nuovi problemi di privacy, ha affermato. Stark ha anche messo in dubbio l’impatto della cancellazione del database di riconoscimento facciale perché non conosce nessuno di età inferiore ai 45 anni che pubblichi foto su Facebook.
Facebook ha definito la sua decisione come “uno dei più grandi cambiamenti nell’uso del riconoscimento facciale nella storia della tecnologia”. Ma Stark prevede che “l’impatto effettivo sarà piuttosto limitato” perché Facebook non ha completamente abbandonato il riconoscimento facciale e altri lo usano ancora.
“Penso che possa essere un punto di svolta se le persone preoccupate per queste tecnologie continuano a insistere sulla conversazione”, afferma.
Altre grandi storie WIRED