Apple dettagli le misure di protezione della scansione per la sicurezza dei bambini di Foto di iCloud

Apple ha fornito maggiori dettagli sui suoi imminenti piani per la scansione di foto di iCloud alla ricerca di materiale pedopornografico (CSAM) tramite iPhone e iPad degli utenti. La società ha pubblicato un nuovo documento che approfondisce le garanzie che spera possano aumentare la fiducia degli utenti nell’iniziativa. Ciò include una regola per contrassegnare solo le immagini trovate in più database di sicurezza dei bambini con diverse affiliazioni governative, impedendo in teoria a un paese di aggiungere contenuti non CSAM al sistema.

Le prossime versioni di iOS e iPadOS di Apple abbineranno automaticamente gli account di iCloud Photos con sede negli Stati Uniti a CSAM noti da un elenco di hash di immagini compilato dai gruppi per la sicurezza dei bambini. Mentre molte aziende scansionano i servizi di cloud storage da remoto, la strategia basata sui dispositivi di Apple ha suscitato aspre critiche da parte di alcuni esperti di crittografia e privacy.

Il documento, intitolato “Revisione del modello di minaccia alla sicurezza delle funzioni di sicurezza dei bambini di Apple”, spera di alleviare i problemi di privacy e sicurezza relativi a tale implementazione. Si basa su un giornale di Wall Street colloquio con il dirigente Apple Craig Federighi, che questa mattina ha delineato alcune informazioni.

Nel documento, Apple afferma che non farà affidamento su un singolo database affiliato al governo, come quello del National Center for Missing and Exploited Children, o NCMEC, con sede negli Stati Uniti, per identificare CSAM. Invece, abbinerà solo le immagini di almeno due gruppi con diverse affiliazioni nazionali. L’obiettivo è che nessun singolo governo possa avere il potere di inserire segretamente contenuti non correlati a fini di censura, poiché non corrisponderebbe agli hash in nessun altro database.

Un diagramma di Venn con un cerchio etichettato

Mela

Apple ha fatto riferimento al potenziale utilizzo di più database per la sicurezza dei bambini, ma fino ad oggi non aveva spiegato il sistema di sovrapposizione. In una chiamata con i giornalisti, Apple ha affermato che sta nominando NCMEC solo perché non ha ancora concluso accordi con altri gruppi.

Il documento conferma un dettaglio citato da Federighi: inizialmente, Apple contrassegnerà un account iCloud solo se identifica 30 immagini come CSAM. Questa soglia è stata scelta per fornire un “drastico margine di sicurezza” per evitare falsi positivi, afferma il documento – e poiché valuta le prestazioni del sistema nel mondo reale, “potremmo cambiare la soglia”.

Fornisce inoltre maggiori informazioni su un sistema di controllo di cui parla Federighi. L’elenco di hash CSAM conosciuti di Apple verrà inserito in iOS e iPadOS in tutto il mondo, anche se per ora il sistema di scansione verrà eseguito solo negli Stati Uniti. Apple fornirà un elenco completo di hash che i revisori possono verificare rispetto ai database di sicurezza dei bambini, un altro metodo per assicurarsi che non corrisponda segretamente a più immagini. Inoltre, afferma che “rifiuterà tutte le richieste” ai moderatori di segnalare “qualsiasi cosa diversa dai materiali CSAM” per gli account che vengono contrassegnati, facendo riferimento al potenziale utilizzo di questo sistema per altri tipi di sorveglianza.

Federighi ha riconosciuto che Apple aveva introdotto “confusione” con il suo annuncio la scorsa settimana. Ma Apple ha sostenuto l’aggiornamento stesso: dice ai giornalisti che sebbene stia ancora finalizzando e iterando sui dettagli, non ha cambiato i suoi piani di lancio in risposta alle critiche della scorsa settimana.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *