Il piano di scansione delle foto di Apple suscita proteste da parte dei gruppi di criteri

Più di 90 i gruppi politici degli Stati Uniti e di tutto il mondo hanno firmato una lettera aperta esortando Apple a rinunciare al suo piano per consentire ai dispositivi Apple di scansionare le foto alla ricerca di materiale pedopornografico (CSAM).

“Le sottoscritte organizzazioni impegnate per i diritti civili, i diritti umani e i diritti digitali in tutto il mondo stanno scrivendo per sollecitare Apple ad abbandonare i piani annunciati il ​​5 agosto 2021 per integrare funzionalità di sorveglianza in iPhone, iPad e altri prodotti Apple”, il lettera al CEO di Apple Tim Cook ha detto. “Sebbene queste capacità abbiano lo scopo di proteggere i bambini e ridurre la diffusione di materiale pedopornografico (CSAM), siamo preoccupati che vengano utilizzate per censurare i discorsi protetti, minacciare la privacy e la sicurezza delle persone in tutto il mondo e avere disastrosi conseguenze per molti bambini».

Il Centro per la Democrazia e la Tecnologia (CDT) ha annunciato la lettera, con Sharon Bradford Franklin, codirettore del CDT Security and Surveillance Project, che afferma: “Possiamo aspettarci che i governi trarranno vantaggio dalla capacità di sorveglianza che Apple sta incorporando in iPhone, iPad e computer. Chiederanno che Apple scansioni e blocchi le immagini di violazioni dei diritti umani. , proteste politiche e altri contenuti che dovrebbero essere protetti come libera espressione, che costituisce la spina dorsale di una società libera e democratica”.

La lettera aperta è stata firmata da gruppi provenienti da Africa, Asia, Australia, Europa, Nord America e Sud America. Alcuni dei firmatari con sede negli Stati Uniti sono l’American Civil Liberties Union, la Electronic Frontier Foundation, Fight for the Future, la LGBT Technology Partnership and Institute, l’Open Technology Institute di New America, STOP (Surveillance Technology Oversight Project) e il Sex Workers Project del Centro di Giustizia Urbana. Tra i firmatari figurano anche gruppi provenienti da Argentina, Belgio, Brasile, Canada, Colombia, Repubblica Dominicana, Germania, Ghana, Guatemala, Honduras, Hong Kong, India, Giappone, Kenya, Messico, Nepal, Paesi Bassi, Nigeria, Pakistan, Panama, Paraguay , Perù, Senegal, Spagna, Tanzania e Regno Unito. L’elenco completo dei firmatari è qui.

Scansione di foto e messaggi di iCloud

Mela annunciato due settimane fa i dispositivi con Foto di iCloud abilitate eseguiranno la scansione delle immagini prima che vengano caricate su iCloud. Un iPhone carica ogni foto su iCloud subito dopo che è stata scattata, quindi la scansione avverrebbe quasi immediatamente se un utente ha precedentemente attivato le foto di iCloud.

Apple ha affermato che la sua tecnologia “analizza un’immagine e la converte in un numero univoco specifico per quell’immagine” e contrassegna una foto quando il suo hash è identico o quasi identico all’hash di qualsiasi altro che appare in un database di CSAM noto. Un account può essere segnalato al National Center for Missing and Exploited Children (NCMEC) quando vengono rilevate circa 30 foto CSAM, una soglia impostata da Apple per garantire che ci sia “meno di una possibilità su 1 trilione all’anno di segnalare erroneamente un dato account.” Tale soglia potrebbe essere modificata in futuro per mantenere il tasso di falsi positivi di un trilione su mille.

Apple sta anche aggiungendo uno strumento all’applicazione Messaggi che “analizzerà gli allegati di immagini e determinerà se una foto è sessualmente esplicita” senza dare ad Apple l’accesso ai messaggi. Il sistema sarà facoltativo per i genitori e, se attivato, “avviserà i bambini e i loro genitori quando ricevono o inviano foto sessualmente esplicite”.

Apple ha affermato che i nuovi sistemi verranno lanciati entro la fine dell’anno con gli aggiornamenti di iOS 15, iPadOS 15, watchOS 8 e macOS Monterey. All’inizio sarà solo negli Stati Uniti.

Entrambi i sistemi di scansione riguardano i firmatari della lettera. Sulla scansione dei messaggi che i genitori possono abilitare, la lettera diceva:

Gli algoritmi progettati per rilevare materiale sessualmente esplicito sono notoriamente inaffidabili. Sono inclini a segnalare erroneamente arte, informazioni sanitarie, risorse educative, messaggi di sensibilizzazione e altre immagini. I diritti dei bambini di inviare e ricevere tali informazioni sono protetti dalla Convenzione delle Nazioni Unite sui diritti dell’infanzia. Inoltre, il sistema sviluppato da Apple presuppone che gli account “genitore” e “figlio” coinvolti appartengano effettivamente a un adulto che è il genitore di un bambino e che tali individui abbiano una relazione sana. Questo potrebbe non essere sempre il caso; un adulto abusivo potrebbe essere l’organizzatore dell’account e le conseguenze della notifica ai genitori potrebbero minacciare la sicurezza e il benessere del bambino. Particolarmente a rischio sono i giovani LGBTQ+ che hanno conti familiari con genitori antipatici. A seguito di questa modifica, iMessage non fornirà più riservatezza e privacy a tali utenti attraverso un sistema di messaggistica crittografato end-to-end in cui solo il mittente e i destinatari previsti hanno accesso alle informazioni inviate. Una volta integrata questa funzione di backdoor, i governi potrebbero costringere Apple ad estendere la notifica ad altri account e a rilevare immagini discutibili per motivi diversi dall’essere sessualmente espliciti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *