I regimi autoritari potrebbero sfruttare le grida di “Deepfake”

Un video virale mostra una giovane donna che conduce una lezione di ginnastica su una rotatoria nella capitale birmana, Nyapyidaw. Dietro di lei un convoglio militare si avvicina a un posto di blocco per condurre gli arresti al palazzo del Parlamento. Ha inavvertitamente filmato un colpo di stato? Continua a ballare.

Il video in seguito è diventato un meme virale, ma per i primi giorni, gli investigatori dilettanti online hanno discusso se fosse stato sottoposto a green screen o altrimenti manipolato, spesso usando il gergo della verifica e delle immagini forensi.

Per molti spettatori online, il video cattura l’assurdità del 2021. Eppure le affermazioni di manipolazione audiovisiva vengono sempre più utilizzate per indurre le persone a chiedersi se ciò che è reale sia un falso.

In Witness, oltre al nostro continuo lavoro per aiutare le persone filmare la realtà delle violazioni dei diritti umani, abbiamo condotto a sforzo globale per prepararsi meglio a manipolazioni audiovisive sempre più sofisticate, compresi i cosiddetti deepfake. Queste tecnologie forniscono strumenti per far sembrare che qualcuno dica o faccia qualcosa che non ha mai fatto, per creare un evento o una persona che non è mai esistita o per modificare più facilmente all’interno di un video.

Tuttavia, l’hype non è all’altezza. La minaccia politica ed elettorale dei veri deepfake si presta bene ai titoli dei giornali, ma la realtà è più sfumata. I veri motivi di preoccupazione divennero chiari attraverso le riunioni di esperti tenute da Testimone Brasile, Sud Africa, e Malaysia, così come in NOI e l’Europa, con persone che avevano vissuto attacchi alla loro reputazione e alle loro prove, e professionisti come giornalisti e verificatori di fatti accusati di combattere le bugie. Hanno evidenziato i danni attuali causati da immagini sessuali non consensuali manipolate che prendono di mira donne, giornalisti e politici comuni. Questo è un problema reale, esistente e diffuso, come lo hanno fatto i rapporti recenti ha confermato la sua scala crescente.

La loro testimonianza ha anche evidenziato come reclami della falsificazione profonda e della manipolazione video venivano sempre più utilizzate per quello che i professori di legge Danielle Citron e Bobby Chesney chiamano il “dividendo del bugiardo”, l’abilità dei potenti di rivendicare la plausibile negazione di filmati incriminanti. Affermazioni come “È un deepfake” o “È stato manipolato” sono state spesso utilizzate per denigrare un video trapelato di una situazione compromettente o per attaccare una delle poche fonti di potere civile nei regimi autoritari: la credibilità delle riprese da smartphone della violenza di Stato. Questo si basa su storie di inganni sponsorizzati dallo stato. In Myanmar, l’esercito e le autorità hanno ripetutamente condiviso immagini false e contestato la veridicità e l’integrità delle prove reali di violazioni dei diritti umani.

Nelle nostre discussioni, giornalisti e difensori dei diritti umani, compresi quelli del Myanmar, hanno descritto di temere il peso di dover dimostrare incessantemente cosa è reale e cosa è falso. Temevano che il loro lavoro diventasse non solo voci di smascheramento, ma dover dimostrare che qualcosa è autentico. Il pubblico scettico e le fazioni pubbliche indovinano le prove per rafforzare e proteggere la loro visione del mondo e per giustificare azioni e ragionamento partigiano. Negli Stati Uniti, ad esempio, cospirazionisti e sostenitori di destra ha respinto l’imbarazzante discorso di concessione dell’ex presidente Donald Trump dopo l’attacco al Campidoglio affermando che “è un deepfake”.

Non ci sono soluzioni facili. Dobbiamo supportare competenze forensi e di verifica audiovisive più forti nella comunità e leader professionisti a livello globale che possono aiutare il loro pubblico e i membri della comunità. Possiamo promuovere il accessibilità diffusa degli strumenti della piattaforma per rendere più facile vedere e sfidare i perenni video “shallowfake” mal contestualizzati o modificati che semplicemente interpretano erroneamente un video o eseguono una modifica di base, nonché deepfake più sofisticati. Responsabile “infrastruttura di autenticità”Che rende più facile tracciare se e come un’immagine è stata manipolata e da chi, per chi vuole“ mostrare il proprio lavoro ”, può aiutare se sviluppata sin dall’inizio con la consapevolezza di come potrebbe anche essere abusata.

Dobbiamo anche riconoscere candidamente che la promozione di strumenti e capacità di verifica può in effetti perpetuare un approccio cospiratorio “incredulità di default” nei confronti dei media che di fatto è al centro del problema con così tanti video infatti mostrare la realtà. Qualsiasi approccio per fornire migliori competenze e infrastrutture deve riconoscere che il ragionamento cospiratorio è a breve distanza dal dubbio costruttivo. Gli approcci all’alfabetizzazione mediatica e gli strumenti forensi sui media che mandano le persone nella tana del coniglio piuttosto che promuovere il giudizio di buon senso possono essere parte del problema. Non abbiamo tutti bisogno di essere investigatori open source istantanei. Per prima cosa dovremmo applicare semplici framework come il Metodologia SIFT: Interrompi, indaga sulla fonte, trova una copertura affidabile e traccia il contesto originale.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *