Apple scansiona iPhone e iPad alla ricerca di immagini di abusi sessuali su minori | Notizie di affari ed economia


Apple Inc ha dichiarato che lancerà un nuovo software entro la fine dell’anno che analizzerà le foto di iPad e iPhone per immagini sessualmente esplicite di bambini e segnalerà eventuali risultati rilevanti alle autorità.

Apple Inc. ha dichiarato che lancerà un nuovo software entro la fine dell’anno che analizzerà le foto archiviate nell’account iCloud Photos di un utente per immagini sessualmente esplicite di bambini e quindi segnalerà i casi alle autorità competenti.

Nell’ambito delle nuove tutele che coinvolgono i bambini, la società ha anche annunciato una funzione che analizzerà le foto inviate e ricevute nell’app Messaggi da o verso i bambini per vedere se sono esplicite. Apple sta anche aggiungendo funzionalità nel suo assistente vocale digitale Siri per intervenire quando gli utenti cercano materiale offensivo correlato. Il gigante della tecnologia con sede a Cupertino, in California, ha presentato in anteprima le tre nuove funzionalità giovedì e ha detto che sarebbero state messe in uso più avanti nel 2021.

Se Apple rileva una soglia di foto sessualmente esplicite di bambini nell’account di un utente, le istanze verranno riviste manualmente dall’azienda e segnalate al National Center for Missing and Exploited Children, o NCMEC, che collabora con le forze dell’ordine. Apple ha affermato che le immagini vengono analizzate sull’iPhone e sull’iPad di un utente negli Stati Uniti prima di essere caricate sul cloud.

Apple ha affermato che rileverà le immagini abusive confrontando le foto con un database di materiale pedopornografico noto, o CSAM, fornito dall’NCMEC. L’azienda utilizza una tecnologia chiamata NeuralHash che analizza le immagini e le converte in una chiave hash o in un insieme univoco di numeri. Tale chiave viene quindi confrontata con il database utilizzando la crittografia. Apple ha affermato che il processo garantisce che non possa conoscere immagini che non corrispondono al database.

Apple ha affermato che il suo sistema ha un tasso di errore di “meno di uno su 1 trilione” all’anno e che protegge la privacy degli utenti. “Apple viene a conoscenza delle foto degli utenti solo se hanno una raccolta di CSAM noti nel proprio account iCloud Photos”, ha affermato la società in una nota. “Anche in questi casi, Apple viene a conoscenza solo delle immagini che corrispondono a CSAM noto”.

Qualsiasi utente che ritenga che il proprio account sia stato segnalato per errore può presentare ricorso, ha affermato la società.

Per rispondere alle preoccupazioni sulla privacy relative alla funzione, Apple ha pubblicato un white paper che descrive in dettaglio la tecnologia e un’analisi di terze parti del protocollo da parte di più ricercatori.

John Clark, presidente e amministratore delegato di NCMEC, ha elogiato Apple per le nuove funzionalità.

“Queste nuove misure di sicurezza hanno un potenziale salvavita per i bambini che vengono allettati online e le cui immagini orribili circolano in materiale pedopornografico”, ha affermato Clark in una dichiarazione fornita da Apple.

La funzione in Messaggi è facoltativa e può essere abilitata dai genitori sui dispositivi utilizzati dai figli. Il sistema verificherà la presenza di materiale sessualmente esplicito nelle foto ricevute e in quelle pronte per essere inviate dai minori. Se un bambino riceve un’immagine con contenuto sessuale, verrà sfocata e il bambino dovrà toccare un pulsante aggiuntivo per visualizzarla. Se visualizzano l’immagine, il loro genitore riceverà una notifica. Allo stesso modo, se un bambino cerca di inviare un’immagine esplicita, verrà avvisato e il genitore riceverà una notifica.

Apple ha affermato che la funzione Messaggi utilizza l’analisi sul dispositivo e la società non può visualizzare i contenuti dei messaggi. La funzione si applica al servizio iMessage di Apple e ad altri protocolli come il servizio di messaggistica multimediale.

La società sta inoltre implementando due funzionalità correlate a Siri e alla ricerca. I sistemi saranno in grado di rispondere a domande sulla segnalazione di sfruttamento minorile e immagini abusive e fornire informazioni su come gli utenti possono presentare segnalazioni. La seconda funzionalità avverte gli utenti che effettuano ricerche di materiale offensivo per i bambini. Le funzionalità di Messaggi e Siri arriveranno su iPhone, iPad, Mac e Apple Watch, ha affermato la società.



Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *