Reddit deve affrontare una causa per non aver rimosso il materiale pedopornografico

Una donna ha citato in giudizio Reddit per aver permesso a un ex fidanzato di pubblicare ripetutamente immagini pornografiche di lei come una sedicenne. La causa applica misure controverse istituite nel 2018 sotto FOSTA-SESTA a un sito che ha attirato critiche particolari per la sessualizzazione infantile. Il caso risultante metterà alla prova i limiti degli scudi legali delle piattaforme tra gli sforzi in corso per ridurre la legge dietro di loro.

La donna, identificata con lo pseudonimo di Jane Doe, sostiene che “Reddit beneficia consapevolmente dall’applicazione lassista delle sue politiche sui contenuti, anche per la pornografia infantile”. Sostiene che nel 2019 un ex fidanzato violento ha pubblicato foto e video a sfondo sessuale che aveva scattato a sua insaputa o senza il suo consenso. Ma quando ha avvisato i moderatori di Reddit, potevano aspettare “diversi giorni” prima di rimuovere il contenuto, mentre gli amministratori di Reddit hanno permesso all’uomo di continuare a postare e creare un nuovo account quando il suo vecchio account è stato bannato.

“Poiché Reddit ha rifiutato di aiutare, è toccato a Jane Doe monitorare non meno di 36 subreddit – di cui è a conoscenza – che Reddit ha permesso al suo ex fidanzato di utilizzare ripetutamente per pubblicare ripetutamente pornografia infantile”, si legge nella denuncia. “Il rifiuto di Reddit di agire ha significato che negli ultimi anni Jane Doe è stata costretta ad accedere a Reddit e passare ore a esaminare alcuni dei suoi subreddit più oscuri e inquietanti in modo da poter individuare i post del suo io minorenne e poi combattere con Reddit per rimuoverli. “

La donna è alla ricerca di una class action che rappresenti chiunque abbia pubblicato foto o video simili su Reddit quando aveva meno di 18 anni. Accusa Reddit di distribuire materiale pedopornografico, di non aver segnalato materiale pedopornografico e di violare il Trafficking Victims Protection Act. Non è chiaro se l’ex fidanzato – che sarebbe pienamente responsabile per la pubblicazione delle immagini – sia stato citato in giudizio o incriminato.

La denuncia cita FOSTA-SESTA, un emendamento alla Sezione 230 del Communications Decency Act, come elemento centrale della causa. La sezione 230 fornisce un ampio scudo legale per “servizi informatici interattivi” come Reddit, limitando la loro responsabilità se gli utenti pubblicano contenuti illegali. Ma il disegno di legge FOSTA-SESTA del 2018 ha rimosso le protezioni per il materiale relativo al traffico sessuale. La causa apparentemente sostiene che il caso di Jane Doe soddisfa questa definizione perché le entrate pubblicitarie di Reddit hanno trasformato il video in un “atto sessuale commerciale”.

La causa sostiene che Reddit sapeva che il suo sito era un hub per foto e video illegali, basato sulla copertura delle notizie e sui suggerimenti degli utenti stessi, e avrebbe dovuto fare di più per proteggere le vittime. “La stessa Reddit ha ammesso di essere a conoscenza della presenza di materiale pedopornografico sul suo sito web”, si legge nella denuncia. Tra gli altri contenuti discutibili, elenca diversi subreddit ora rimossi con titoli che fanno riferimento a “jailbait”, tra cui un famigerato forum che è stato rimosso nel 2011 dopo le polemiche dei media. (Quel subreddit non ammetteva immagini di nudo, ma incoraggiava quelle sessualmente allusive.)

Reddit nega di aver condonato gli abusi. “Il materiale pedopornografico (CSAM) non ha posto sulla piattaforma Reddit. Manteniamo attivamente politiche e procedure che non si limitano a seguire la legge, ma vanno ben oltre “, ha detto un portavoce di Reddit in una dichiarazione a The Verge. “Utilizziamo strumenti automatizzati e intelligenza umana per rilevare e prevenire in modo proattivo la diffusione di materiale CSAM. Quando troviamo tale materiale, lo eliminiamo e vietiamo permanentemente all’utente di accedere a Reddit. Prendiamo anche le misure richieste dalla legge per segnalare gli utenti pertinenti e preservare tutti i dati degli utenti necessari “.

Reddit vietata la sessualizzazione dei bambini nel 2012, affermando che interpretare “linee guida legali vaghe e discusse” su ciò che contava come pornografia infantile illegale rischiava di trascinare Reddit in un “pantano legale”. Ma la causa sostiene che Reddit non riesce a far rispettare le sue linee guida, in particolare perché affida la moderazione a volontari non pagati che gestiscono i singoli subreddit. “La sicurezza interna di Reddit è stata compromessa dalla sua scelta di affidarsi a moderatori non pagati, che non riescono a far rispettare gli standard che dovrebbero proteggere gli utenti di Reddit e altri”, afferma.

FOSTA-SESTA ha avuto ripercussioni immediate e dannose per le lavoratrici del sesso, che – grazie alle leggi statunitensi che confondono il lavoro sessuale consensuale con la tratta – hanno dovuto affrontare un’ampia repressione online. Nel frattempo, le cause contro la tratta di esseri umani basate su FOSTA-SESTA sono apparse più gradualmente ei loro risultati sono stati meno chiari. Facebook lo è attualmente coinvolto in un di lunga durata Il caso del Texas in cui si afferma che il sito ha consentito ai trafficanti di reclutare vittime. Alex Yelderman, professore di diritto dell’Università di Notre Dame ha scritto su alcuni altri primi casi nel gennaio del 2020, compresi i reclami rivolti al mercato online Craigslist e alla società di email marketing MailChimp.

FOSTA-SESTA aveva lo scopo di abbattere siti di escort come Backpage, che ospitava annunci di servizi sessuali illegali. (In particolare, gli operatori di Backpage sono stati arrestati prima che FOSTA-SESTA diventasse legge.) Ma questa causa copre una situazione molto diversa e meno direttamente collegata alla tratta: un sito che non riesce a rimuovere la pornografia non consensuale che coinvolge un minore. L’azienda dietro il caso, Susman Godfrey LLP, usato un argomento simile contro il gigante del porno MindGeek a febbraio – affermando che il sito di video Pornhub ha violato le leggi sul traffico ospitando contenuti sessuali minorenni.

Se i tribunali non concordano sul fatto che la condivisione delle immagini costituisce traffico, la Sezione 230 probabilmente proteggerà Reddit dalla responsabilità civile. La sezione 230 non protegge i siti dalle accuse federali, comprese quelle relative allo sfruttamento sessuale di minori, ma non c’è alcuna indicazione che Reddit sia a rischio di procedimenti penali in relazione a questo incidente. E non vi è alcun intaglio in stile FOSTA-SESTA che esenta il materiale di abusi sessuali su minori dalla Sezione 230 protezioni civili.

Alcuni legislatori hanno spinto per limiti più ampi alla sezione 230. La legge EARN IT, ad esempio, renderebbe i servizi potenzialmente responsabili per materiale di abuso sessuale su minori a meno che non si conformassero a una serie di migliori pratiche. Ma il suo linguaggio aperto ha allarmato i sostenitori della privacy che lo vedevano come un potenziale attacco alla crittografia e non ha proceduto a una votazione alla Camera o al Senato. La modifica (o l’abrogazione) della Sezione 230 potrebbe anche trascinare siti e app in lunghe battaglie giudiziarie su decisioni di moderazione, in particolare servizi più piccoli senza le risorse legali dei giganti della tecnologia.

Gran parte del dibattito sulla Sezione 230 si è concentrato su Facebook, Alphabet e altre grandi aziende della Silicon Valley. Abiti come questo evidenziano il potenziale impatto di FOSTA-SESTA sui servizi web di medie dimensioni. Tuttavia, evidenziano anche guasti dannosi in servizi come Reddit, di cui sistema di moderazione ibrido ha creato lacune che gli autori di abusi possono facilmente sfruttare.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *