Un nuovo sistema sta aiutando a reprimere le immagini di abusi sessuali su minori

Ogni giorno, a team di analisti nel Regno Unito affronta una montagna apparentemente infinita di orrori. Il team di 21 persone, che lavora presso l’ufficio della Internet Watch Foundation nel Cambridgeshire, trascorre ore a sfogliare immagini e video contenenti abusi sessuali su minori. E ogni volta che trovano una foto o un filmato, è necessario valutarli ed etichettarli. Solo l’anno scorso il team ha identificato 153.383 pagine web con collegamenti a immagini di abusi sessuali su minori. Questo crea un vasto database che può poi essere condiviso a livello internazionale nel tentativo di arginare il flusso di abusi. Il problema? Paesi diversi hanno modi diversi di classificare immagini e video.

Fino ad ora, gli analisti dell’ente di beneficenza per la protezione dell’infanzia con sede nel Regno Unito hanno verificato se il materiale trovato rientra in tre categorie: A, B o C. Questi raggruppamenti si basano sulle leggi del Regno Unito e sulle linee guida sulle condanne per abusi sessuali su minori e hanno ampiamente definito i tipi di abuso. Le immagini della categoria A, ad esempio, la classificazione più severa, includono i peggiori crimini contro i bambini. Queste classificazioni vengono quindi utilizzate per calcolare per quanto tempo dovrebbe essere condannato qualcuno condannato per un crimine. Ma altri paesi usano classificazioni diverse.

Ora l’IWF crede che una scoperta dei dati potrebbe rimuovere alcune di queste differenze. Il gruppo ha ricostruito il suo software di hashing, soprannominato Intelligrade, per abbinare automaticamente immagini e video alle regole e alle leggi di Australia, Canada, Nuova Zelanda, Stati Uniti e Regno Unito, noti anche come i paesi Five Eyes. Il cambiamento dovrebbe significare una minore duplicazione del lavoro analitico e rendere più facile per le aziende tecnologiche dare la priorità alle immagini e ai video di abuso più gravi.

“Riteniamo di essere in grado di condividere meglio i dati in modo che possano essere utilizzati in modo significativo da più persone, piuttosto che da tutti noi che lavoriamo solo nei nostri piccoli silos”, afferma Chris Hughes, direttore della hotline di segnalazione dell’IWF. “Attualmente, quando condividiamo i dati è molto difficile ottenere confronti significativi con i dati perché semplicemente non si adattano correttamente”.

I paesi attribuiscono pesi diversi alle immagini in base a ciò che accade in esse e all’età dei bambini coinvolti. Alcuni paesi classificano le immagini in base al fatto che i bambini siano prepuberi o pubescenti e al crimine che si sta verificando. La categoria più seria del Regno Unito, A, include attività sessuale penetrativa, bestialità e sadismo. Non include necessariamente atti di masturbazione, dice Hughes. Mentre negli Stati Uniti questo rientra in una categoria superiore. “Al momento, gli Stati Uniti che richiedono immagini di categoria A dell’IWF mancherebbero a quel livello di contenuto”, afferma Hughes.

Tutte le foto e i video che l’IWF guarda hanno un hash, essenzialmente un codice, che viene condiviso con aziende tecnologiche e forze dell’ordine di tutto il mondo. Questi hash vengono utilizzati per rilevare e bloccare il contenuto di abuso noto che viene caricato nuovamente sul Web. Il sistema di hashing ha avuto un impatto sostanziale sulla diffusione di materiale pedopornografico online, ma l’ultimo strumento dell’IWF aggiunge significativamente nuove informazioni a ciascun hash.

L’arma segreta dell’IWF sono i metadati. Si tratta di dati che riguardano i dati: possono essere il cosa, il chi, il come e il quando di ciò che è contenuto nelle immagini. I metadati sono un potente strumento per gli investigatori, in quanto consentono loro di individuare modelli nelle azioni delle persone e analizzarli per le tendenze. Tra i maggiori sostenitori dei metadati ci sono le spie, che affermano che possono essere più rivelatori del contenuto dei messaggi delle persone.

L’IWF ha aumentato la quantità di metadati che crea per ogni immagine e video che aggiunge alla sua lista di hash, afferma Hughes. Ogni nuova immagine o video che guarda viene valutata in modo più dettagliato che mai. Oltre a capire se il contenuto di abusi sessuali rientra nei tre gruppi del Regno Unito, i suoi analisti stanno ora aggiungendo fino a 20 diverse informazioni ai loro rapporti. Questi campi corrispondono a ciò che è necessario per determinare le classificazioni di un’immagine negli altri paesi Five Eyes: lo staff delle politiche dell’ente benefico ha confrontato ciascuna delle leggi e ha elaborato quali metadati sono necessari. “Abbiamo deciso di fornire un alto livello di granularità nella descrizione dell’età, un alto livello di granularità in termini di rappresentazione di ciò che sta accadendo nell’immagine e anche di conferma del genere”, afferma Hughes.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.