I gruppi politici chiedono ad Apple di abbandonare i piani per scansionare i dispositivi alla ricerca di immagini di abusi sui minori

Una coalizione internazionale di gruppi politici e per i diritti civili ha pubblicato giovedì una lettera aperta chiedendo ad Apple di “abbandonare i suoi piani recentemente annunciati per integrare funzionalità di sorveglianza in iPhone, iPad e altri prodotti Apple”. I gruppi includono l’American Civil Liberties Union, la Electronic Frontier Foundation, Access Now, Privacy International e il Tor Project.

All’inizio di questo mese, Apple ha annunciato i suoi piani per utilizzare la nuova tecnologia all’interno di iOS per rilevare potenziali immagini di abusi sui minori con l’obiettivo di limitare la diffusione di materiale pedopornografico (CSAM) online. Apple ha anche annunciato una nuova funzione di “sicurezza della comunicazione”, che utilizzerà l’apprendimento automatico sul dispositivo per identificare e sfocare le immagini sessualmente esplicite ricevute dai bambini nella sua app Messaggi. I genitori di bambini di età pari o inferiore a 12 anni possono essere avvisati se il bambino visualizza o invia tale immagine.

“Sebbene queste capacità abbiano lo scopo di proteggere i bambini e ridurre la diffusione di materiale pedopornografico, siamo preoccupati che vengano utilizzate per censurare i discorsi protetti, minacciare la privacy e la sicurezza delle persone in tutto il mondo e avere conseguenze disastrose per molti bambini”, hanno scritto i gruppi in la lettera.

La nuova pagina “Sicurezza dei bambini” di Apple descrive in dettaglio i piani, che richiedono la scansione sul dispositivo prima che venga eseguito il backup di un’immagine in iCloud. La scansione non viene eseguita fino a quando non viene eseguito il backup di un file su iCloud e Apple afferma di ricevere dati su una corrispondenza solo se i voucher crittografici (caricati su iCloud insieme all’immagine) per un account soddisfano una soglia di corrispondenza CSAM nota. Apple e altri provider di posta elettronica cloud hanno utilizzato sistemi di hash per eseguire la scansione di CSAM inviati via e-mail, ma il nuovo programma applicherebbe le stesse scansioni alle immagini archiviate in iCloud, anche se l’utente non le condivide o non le invia a nessun altro.

In risposta alle preoccupazioni su come la tecnologia potrebbe essere utilizzata in modo improprio, Apple ha proseguito affermando che avrebbe limitato il suo utilizzo al rilevamento di CSAM “e non accetteremo alcuna richiesta del governo di espanderla”, ha affermato la società.

Gran parte del rifiuto contro le nuove misure si è concentrato sulla funzionalità di scansione del dispositivo, ma i gruppi per i diritti civili e la privacy hanno affermato che il piano per offuscare la nudità negli iMessage dei bambini potrebbe potenzialmente mettere i bambini in pericolo e rompere la crittografia end-to-end di iMessage .

“Una volta integrata questa funzionalità di backdoor, i governi potrebbero costringere Apple a estendere la notifica ad altri account e a rilevare immagini discutibili per ragioni diverse dall’essere sessualmente esplicite”, afferma la lettera.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *