Secondo quanto riferito, Apple eseguirà la scansione delle foto archiviate su iPhone e iCloud alla ricerca di immagini di abusi sui minori

Apple prevede di scansionare le foto archiviate su iPhone e iCloud per immagini di abusi sui minori, secondo il Financial Times. Il nuovo sistema potrebbe aiutare le forze dell’ordine nelle indagini penali, ma potrebbe aprire la porta a maggiori richieste legali e governative per i dati degli utenti.

Il sistema, chiamato neuralMatch, “avviserà in modo proattivo un team di revisori umani se ritiene che vengano rilevate immagini illegali, che contatteranno quindi le forze dell’ordine se il materiale può essere verificato”, il Financial Times disse. neuralMatch, che è stato addestrato utilizzando 200.000 immagini dal National Center for Missing & Exploited Children, verrà lanciato per la prima volta negli Stati Uniti. Le foto verranno sottoposte a hash e confrontate con un database di immagini note di abusi sessuali su minori.

“Secondo le persone informate sui piani, ogni foto caricata su iCloud negli Stati Uniti riceverà un” buono di sicurezza “, che indica se è sospetta o meno”, il Financial Times disse. “Una volta contrassegnato come sospetto un certo numero di foto, Apple consentirà a tutte le foto sospette di essere decifrate e, se apparentemente illegali, trasmesse alle autorità competenti”.

Mercoledì sera, il professore e crittografo della John Hopkins University Matthew Green ha sollevato preoccupazioni sul sistema su Twitter. “Questo tipo di strumento può essere un vantaggio per trovare materiale pedopornografico nei telefoni delle persone”, Green ha detto. “Ma immagina cosa potrebbe fare nelle mani di un governo autoritario?”

“Anche se ritieni che Apple non permetterà che questi strumenti vengano utilizzati in modo improprio [crossed fingers emoji] c’è ancora molto di cui preoccuparsi”, Ha aggiunto. “Questi sistemi si basano su un database di ‘hash multimediali problematici’ che tu, come consumatore, non puoi rivedere.”

Apple controlla già i file iCloud rispetto alle immagini di abusi sui minori note, come ogni altro importante provider di servizi cloud. Ma il sistema qui descritto andrebbe oltre, consentendo l’accesso centrale all’archiviazione locale. Sarebbe anche banale estendere il sistema a crimini diversi dagli abusi sui minori, una preoccupazione particolare data l’ampia attività di Apple in Cina.

La società ha informato alcuni accademici statunitensi questa settimana e Apple potrebbe condividere di più sul sistema “non appena questa settimana”, secondo due ricercatori di sicurezza che sono stati informati sul precedente incontro di Apple, il Financial Times rapporti.

Apple ha precedentemente pubblicizzato le protezioni della privacy integrate nei suoi dispositivi e notoriamente si è opposto all’FBI quando l’agenzia voleva che Apple costruisse una backdoor in iOS per accedere a un iPhone utilizzato da uno degli assassini nell’attacco del 2015 a San Bernardino. La società non ha risposto a una richiesta di commento sul Financial Times rapporto.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *