Apple respinge i problemi di scansione degli abusi sui minori nelle nuove FAQ

In un nuove FAQ, Apple ha tentato di placare i timori che le sue nuove misure anti-abuso sui minori possano essere trasformate in strumenti di sorveglianza da parte dei governi autoritari. “Siamo chiari, questa tecnologia si limita a rilevare CSAM [child sexual abuse material] memorizzato in iCloud e non accetteremo alcuna richiesta del governo di espanderlo”, scrive la società.

I nuovi strumenti di Apple, annunciati giovedì scorso, includono due funzionalità progettate per proteggere i bambini. Uno, chiamato “sicurezza della comunicazione”, utilizza l’apprendimento automatico sul dispositivo per identificare e sfocare le immagini sessualmente esplicite ricevute dai bambini nell’app Messaggi e può avvisare un genitore se un bambino di età pari o inferiore a 12 anni decide di visualizzare o inviare tale immagine. Il secondo è progettato per rilevare CSAM noto eseguendo la scansione delle immagini degli utenti se scelgono di caricarle su iCloud. Apple riceve una notifica se viene rilevato CSAM e avviserà le autorità quando verifica l’esistenza di tale materiale.

I piani hanno incontrato un rapido contraccolpo da parte di gruppi e attivisti per la privacy digitale, che hanno sostenuto che questi introducono una backdoor nel software di Apple. Questi gruppi notano che una volta che una tale backdoor esiste, c’è sempre la possibilità che venga ampliata per cercare tipi di contenuti che vanno oltre il materiale pedopornografico. I governi autoritari potrebbero usarlo per cercare materiale di dissenso politico, oppure i regimi anti-LGBT potrebbero usarlo per reprimere l’espressione sessuale.

“Anche una backdoor accuratamente documentata, attentamente ponderata e con un ambito ristretto è ancora una backdoor”, il Electronic Frontier Foundation ha scritto. “Abbiamo già visto questa missione strisciare in azione. Una delle tecnologie originariamente costruite per scansionare e hash di immagini di abusi sessuali su minori è stata riproposta per creare un database di contenuti “terroristi” a cui le aziende possono contribuire e a cui possono accedere allo scopo di vietare tali contenuti”.

Tuttavia, Apple sostiene di disporre di misure di sicurezza per impedire che i suoi sistemi vengano utilizzati per rilevare qualsiasi cosa diversa dalle immagini di abusi sessuali. Dice che il suo elenco di immagini vietate è fornito dal National Center for Missing and Exploited Children (NCMEC) e da altre organizzazioni per la sicurezza dei bambini e che il sistema “funziona solo con gli hash delle immagini CSAM forniti da NCMEC e altre organizzazioni per la sicurezza dei bambini”. Apple afferma che non si aggiungerà a questo elenco di hash di immagini e che l’elenco è lo stesso su tutti gli iPhone e gli iPad per impedire il targeting individuale degli utenti.

La società afferma inoltre che rifiuterà le richieste dei governi di aggiungere immagini non CSAM all’elenco. “In passato abbiamo dovuto affrontare richieste di creare e implementare modifiche imposte dal governo che degradano la privacy degli utenti e abbiamo fermamente rifiutato tali richieste. Continueremo a rifiutarli in futuro”, afferma.

Vale la pena notare che, nonostante le assicurazioni di Apple, la società ha fatto concessioni ai governi in passato per continuare a operare nei loro paesi. Vende iPhone senza FaceTime nei paesi che non consentono telefonate crittografate e in Cina ha rimosso migliaia di app dal suo App Store, oltre a essere spostato per archiviare i dati degli utenti sui server di una società di telecomunicazioni statale.

Le FAQ inoltre non affrontano alcune preoccupazioni sulla funzione che analizza i messaggi alla ricerca di materiale sessualmente esplicito. La funzione non condivide alcuna informazione con Apple o le forze dell’ordine, afferma la società, ma non dice come garantisce che l’attenzione dello strumento rimanga esclusivamente sulle immagini sessualmente esplicite.

“Tutto ciò che servirebbe per ampliare la stretta backdoor che Apple sta costruendo è un’espansione dei parametri di apprendimento automatico per cercare ulteriori tipi di contenuto o una modifica dei flag di configurazione da scansionare, non solo gli account dei bambini, ma di chiunque”, ha scritto l’EFF. L’EFF rileva inoltre che le tecnologie di apprendimento automatico classificano spesso questi contenuti in modo errato e cita I tentativi di Tumblr di reprimere i contenuti sessuali come un esempio lampante di dove la tecnologia è andata storta.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *