Apple fa marcia indietro sui suoi controversi piani di scansione delle foto

Ad agosto, Apple dettagliate diverse nuove funzionalità volte a fermare la diffusione di materiale pedopornografico. Il contraccolpo dei crittografi ai sostenitori della privacy nei confronti dello stesso Edward Snowden è stato quasi istantaneo, in gran parte legato alla decisione di Apple non solo di scansionare le foto di iCloud per CSAM, ma anche di controllare le corrispondenze sul tuo iPhone o iPad. Dopo settimane di proteste sostenute, Apple si è ritirata. Almeno per ora.

“Il mese scorso abbiamo annunciato piani per funzionalità intese a proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per reclutarli e sfruttarli e limitare la diffusione di materiale pedopornografico”, ha affermato la società in un comunicato venerdì. “Sulla base del feedback di clienti, gruppi di difesa, ricercatori e altri, abbiamo deciso di dedicare più tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare queste funzionalità di sicurezza dei bambini di fondamentale importanza”.

Apple non ha fornito ulteriori indicazioni su quale forma potrebbero assumere tali miglioramenti o su come potrebbe funzionare il processo di input. Ma i sostenitori della privacy e i ricercatori sulla sicurezza sono cautamente ottimisti riguardo alla pausa.

“Penso che questa sia una mossa intelligente da parte di Apple”, afferma Alex Stamos, ex chief security officer di Facebook e cofondatore della società di consulenza sulla sicurezza informatica Krebs Stamos Group. “C’è una serie di compromessi incredibilmente complicati coinvolti in questo problema ed era altamente improbabile che Apple riuscisse a trovare una soluzione ottimale senza ascoltare un’ampia varietà di azioni”.

Gli scanner CSAM funzionano generando “hash” crittografici di immagini abusive note, una sorta di firma digitale, e quindi setacciando enormi quantità di dati per le corrispondenze. Molte aziende lo fanno già in qualche modo, inclusa Apple per iCloud Mail. Ma nei suoi piani per estendere quella scansione alle foto di iCloud, la società ha proposto di fare il passo aggiuntivo per controllare anche quegli hash sul tuo dispositivo, se hai un account iCloud.

L’introduzione di tale capacità di confrontare le immagini sul telefono con una serie di hash CSAM noti, forniti dal National Center for Missing and Exploited Children, ha immediatamente sollevato la preoccupazione che lo strumento potesse un giorno essere utilizzato per altri scopi. “Apple avrebbe implementato sul telefono di tutti una funzionalità di scansione CSAM che i governi potrebbero, e vorrebbero, sovvertire in uno strumento di sorveglianza per consentire ad Apple di cercare anche altro materiale nei telefoni delle persone”, afferma Riana Pfefferkorn, ricercatrice presso lo Stanford Internet Observatory.

Apple ha resistito a diverse richieste del governo degli Stati Uniti di creare uno strumento che consentisse alle forze dell’ordine di sbloccare e decrittografare i dispositivi iOS in passato. Ma l’azienda ha anche fatto concessioni in paesi come la Cina, dove i dati dei clienti risiedono su server statali. In un momento in cui i legislatori di tutto il mondo hanno intensificato gli sforzi per minare la crittografia in modo più ampio, l’introduzione dello strumento CSAM è stata particolarmente tesa.

“Ritengono chiaramente che questo sia politicamente impegnativo, il che penso dimostri quanto sia insostenibile la loro posizione ‘Apple rifiuterà sempre le pressioni del governo'”, afferma Matthew Green, crittografo della Johns Hopkins University. “Se sentono di dover scansionare, dovrebbero scansionare i file non crittografati sui loro server”, che è la pratica standard per altre società, come Facebook, che scansionano regolarmente non solo CSAM ma anche tipi di contenuti terroristici e altri non consentiti. Green suggerisce anche che Apple dovrebbe rendere lo spazio di archiviazione di iCloud crittografato end-to-end, in modo che non possa visualizzare quelle immagini anche se lo desidera.

La controversia sui piani di Apple era anche tecnica. Gli algoritmi di hashing possono generare falsi positivi, identificando erroneamente due immagini come corrispondenze anche quando non lo sono. Chiamati “collisioni”, questi errori sono particolarmente preoccupanti nel contesto di CSAM. Non molto tempo dopo l’annuncio di Apple, i ricercatori hanno iniziato a trovare collisioni nell’algoritmo iOS “NeuralHash” che Apple intendeva utilizzare. Apple ha affermato all’epoca che la versione di NeuralHash disponibile per lo studio non era esattamente la stessa di quella che sarebbe stata utilizzata nello schema e che il sistema era accurato. Le collisioni potrebbero anche non avere un impatto materiale nella pratica, afferma Paul Walsh, fondatore e CEO della società di sicurezza MetaCert, dato che il sistema di Apple richiede 30 hash corrispondenti prima di suonare qualsiasi allarme, dopo di che i revisori umani sarebbero in grado di dire cosa è CSAM e cosa è un falso positivo.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *