Apple rivela nuovi sforzi per combattere le immagini di abusi sui minori

In un briefing di giovedì pomeriggio, Apple ha confermato i piani precedentemente segnalati per l’implementazione di nuove tecnologie all’interno di iOS, macOS, watchOS e iMessage che rileveranno potenziali immagini di abusi sui minori, ma ha chiarito i dettagli cruciali del progetto in corso. Per i dispositivi negli Stati Uniti, le nuove versioni di iOS e iPadOS in arrivo questo autunno hanno “nuove applicazioni di crittografia per aiutare a limitare la diffusione di CSAM”. [child sexual abuse material] online, mentre si progetta per la privacy degli utenti”.

Il progetto è dettagliato anche in una nuova pagina “Sicurezza dei bambini” sul sito Web di Apple. L’implementazione più invasiva e potenzialmente controversa è il sistema che esegue la scansione sul dispositivo prima che venga eseguito il backup di un’immagine in iCloud. Dalla descrizione, la scansione non viene eseguita fino a quando non viene eseguito il backup di un file su iCloud e Apple riceve i dati su una corrispondenza solo se i voucher crittografici (caricati su iCloud insieme all’immagine) per un particolare account soddisfano una soglia di corrispondenza CSAM nota .

Per anni, Apple ha utilizzato sistemi di hash per la scansione di immagini di abusi sui minori inviate tramite e-mail, in linea con sistemi simili di Gmail e altri provider di posta elettronica cloud. Il programma annunciato oggi applicherà le stesse scansioni alle immagini degli utenti archiviate in iCloud Photos, anche se le immagini non vengono mai inviate a un altro utente o condivise in altro modo.

In un PDF fornito insieme al briefing, Apple ha giustificato le sue mosse per la scansione delle immagini descrivendo diverse restrizioni incluse per proteggere la privacy:

Apple non apprende nulla sulle immagini che non corrispondono al CSAM noto

Banca dati.

Apple non può accedere ai metadati o ai derivati ​​visivi per le immagini CSAM corrispondenti fino a quando

la soglia di corrispondenze è stata superata per un account iCloud Photos.

Il rischio che il sistema segnali erroneamente un account è estremamente basso. Inoltre,

Apple esamina manualmente tutte le segnalazioni inviate a NCMEC per garantire l’accuratezza delle segnalazioni.

Gli utenti non possono accedere o visualizzare il database delle immagini CSAM conosciute.

Gli utenti non possono identificare quali immagini sono state contrassegnate come CSAM dal sistema

I nuovi dettagli si basano sulle preoccupazioni trapelate all’inizio di questa settimana, ma aggiungono anche una serie di salvaguardie che dovrebbero proteggersi dai rischi per la privacy di un tale sistema. In particolare, il sistema di soglia garantisce che gli errori solitari non generino avvisi, consentendo ad Apple di raggiungere un tasso di errore di un falso avviso per trilione di utenti all’anno. Il sistema di hashing è inoltre limitato al materiale segnalato dal National Center for Missing and Exploited Children (NCMEC) e alle immagini caricate su iCloud Photos. Una volta generato, un avviso viene esaminato da Apple e NCMEC prima di allertare le forze dell’ordine, fornendo un’ulteriore protezione contro il sistema utilizzato per rilevare contenuti non CSAM.

Apple ha commissionato valutazioni tecniche del sistema a tre crittografi indipendenti (PDF 1, 2, e 3), che lo ha trovato matematicamente robusto. “Secondo me questo sistema probabilmente aumenterà in modo significativo la probabilità che vengano trovate persone che possiedono o trafficano in tali immagini (utenti dannosi); questo dovrebbe aiutare a proteggere i bambini”, ha affermato il professor David Forsyth, cattedra di informatica presso l’Università dell’Illinois, in una delle valutazioni. “L’accuratezza del sistema di corrispondenza, combinata con la soglia, rende molto improbabile che vengano rivelate immagini che non sono immagini CSAM note”.

Tuttavia, Apple ha affermato che è probabile che altri gruppi per la sicurezza dei bambini vengano aggiunti come fonti di hash man mano che il programma si espande e la società non si è impegnata a rendere pubblicamente disponibile l’elenco dei partner in futuro. Ciò rischia di aumentare le ansie su come il sistema potrebbe essere sfruttato dal governo cinese, che ha cercato a lungo un maggiore accesso ai dati degli utenti iPhone all’interno del paese.

Messaggi di esempio che avvisano bambini e genitori quando vengono rilevate foto sessualmente esplicite

Messaggi di esempio che avvisano bambini e genitori quando vengono rilevate foto sessualmente esplicite.
Foto: mela

Oltre alle nuove misure in iCloud Photos, Apple ha aggiunto due sistemi aggiuntivi per proteggere i giovani possessori di iPhone a rischio di abusi sui minori. L’app Messaggi ha già eseguito la scansione sul dispositivo delle immagini allegate per gli account dei bambini per rilevare contenuti potenzialmente sessualmente espliciti. Una volta rilevato, il contenuto è sfocato e viene visualizzato un avviso. Una nuova impostazione che i genitori possono abilitare sui propri account iCloud di famiglia attiverà un messaggio che informa il bambino che se visualizza (in entrata) o invia (in uscita) l’immagine rilevata, i loro genitori riceveranno un messaggio a riguardo.

Apple sta inoltre aggiornando il modo in cui Siri e l’app di ricerca rispondono alle domande sulle immagini di abusi sui minori. Con il nuovo sistema, le app “spiegheranno agli utenti che l’interesse per questo argomento è dannoso e problematico e forniranno risorse dai partner per ottenere aiuto con questo problema”.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *