Deepfake Porno

AI, revenge porn e dintorni: quali sono le conseguenze ambigue delle nuove tecnologie digitali sulla diffusione non consensuale di immagini intime?

“L’ultima volta che hai visitato un sito porno, hai scaricato e installato senza accorgertene il software che ho sviluppato. Il mio software ha acceso la fotocamera e registrato sia lo schermo che un atto di mαsturbazione. Il mio programma ha anche caricato tutti i tuoi elenchi di contatti e-mail e un elenco dei tuoi amici recuperato dai social network. Ho il file video in .mp4 con te che ti mαsturbi, nonché un file con i tuoi indirizzi e-mail di parenti e colleghi. Dopo aver scaricato quei file, lasciami dire una cosa: le tue fantasie vanno ben oltre la normalità! Se vuoi che elimini entrambi i file e mantenga il tuo segreto, devi inviarmi un pagamento di 2000 dollari in Bitcoin. Ti do 72 ore per inviare il denaro. Puoi andare dalla polizia ma non ti aiuteranno a risolvere il problema. Il mio programma sarà ancora installato sul tuo dispositivo e continuerò a possedere i tuoi video. La polizia non mi prenderà. So cosa sto facendo. Non vivo nel tuo paese e so come rimanere anonimo.”

Qualche tempo fa mi sono svegliata con questa mail nella mia casella di posta. Dopo un primo momento di panico, è seguita una veloce ricerca online che ha confermato la mia iniziale impressione: mi trovavo dinnanzi a un tentativo di “sextortion”. Con questo termine ci si riferisce a quei ricatti che sfruttano la carica morale che la nostra socità attribuisce all’intimità sessuale. Appurata la dinamica, ho deciso di non fare nulla e, soprattutto, di non rispondere alla presunta minaccia. Ho semplicemente cercato di torgliermi di dosso la sensazione di vulnerabilità che la lettura di quella mail mi aveva creato e ho continuato la mia giornata. 

Ovviamente, il mancato pagamento non ha portato alla diffusione di filmato alcuno, ma da allora ho iniziato a prestare molta più attenzione al fenomeno e a confrontarmi con persone amiche e fidate sulle strategie da mettere in atto quando si incappa in queste estorsioni. Questo perché, nonostante sapessi senza esitazione alcuna che nessun hacker averebbe mai avuto accesso a quei fantomatici materiali, ci è voluto un po’ per liberarmi dal senso di disagio che accompagnava il ricatto. Il web è pieno di truffe del genere, e la minaccia di mostrare immagini dove a essere ritratta è sessaulità di una persona è una delle strategie più popolari per renderla vulnerabile. Strategia efficace, ovviamente, in un sistema patriarcale.

La studiosa e femminista Teresa de Lauretis ha introdotto la categoria di “tecnologia di genere” come insieme delle tecniche messe in atto da una società per la produzione e la riproduzione delle logiche sessuali.

Esistono immagini violente così come esistono iconografie della violenza. Il femminismo si è a lungo interrogato sulle profonde contraddizioni che attraversano il campo della storia dell’arte e degli studi visivi: come poter sostenere un dibattito estetico e confrontarsi, allo stesso tempo, con la riproducibilità della cultura dello stupro? In auge sin dagli anni Settanta, l’espressione indica quella cultura dove la violenza, e in particolar modo quella sessuale, diventa un elemento ineluttabile, equiparabile alla morte o al pagamento delle tasse, ed è anzitutto esercitata sul corpo delle donne. Una cultura dove l’abuso viene normalizzato e il consenso delegittimato.

Nel contesto di questi dibattiti, sul finire degli anni ottanta, la studiosa e femminista Teresa de Lauretis ha introdotto la categoria di “tecnologia di genere” come insieme delle tecniche messe in atto da una società per la produzione e la riproduzione delle logiche sessuali. L’autrice recupera il concetto foucaultiano di tecnologia, usato dal filosofo per descrivere le tecniche discorsive e materiali degli artefatti culturali, e lo combina con quello di genere, il grande assente nella produzione dell’autore francese. Il concetto di genere diventa allora la categoria entro cui descrivere gli effetti di una logica gerarchizzante ed escludente precisa del patriarcato: quella della differenza universale tra i sessi. La tecnologia di genere così intesa produce un’opposizione tra uomo e donna tale da cristallizzare l’idea di donna come differenza in sé e impedire, inoltre, il riconoscimento delle differenze all’interno della categoria donna o di tutto ciò che non aderisce al maschile universale (quella che oggi chiamiamo intersezionalità).

Volendo riassumere l’inquietudine che attraversa gli scritti di de Lauretis e recuperare le apprensioni di un’altra studiosa e femminista, Laura Mulvey, che come lei si occupa di cinema e per prima nel 1975 conia il concetto di male gaze, potremmo chiederci: in che modo la costruzione cinematografica della donna diventa una tecnologia capace di (ri)produrre la differenza sessuale insita nel patriarcato e favorire così la cultura dello stupro?

Proviamo a rispondere alla domanda a partire da un film del 2021: Bad Luck Banging or Loony Porn del regista rumeno Radu Jude. L’opera narra la vicenda di Emi Cilibiu, la cui vita viene sconvolta quando un video che la ritrae durante un rapporto sessuale diventa di dominio pubblico attraverso una piattaforma pornografica. Il film ci permette di intravvedere nella vicenda di Emi una tecnologia di genere in atto: in seguito alla diffusione non consensuale della propria intimità, la protagonista si trova ad affrontare non solo le difficoltà psicologiche e sociali che ne derivano, ma anche un vero e proprio processo morale che assume tratti popolari e populisti, dove i genitori dei suoi alunni sono chiamati a votare per decidere se debba essere licenziata dalla scuola in cui insegna. 

La cultura dello stupro sembra disporre di una nuova cassa di risonanza: la vita onlife, ovvero la vita che viviamo nella continua interazione tra la realtà virtuale, online, e analogica, life.

Bad Luck Banging or Loony Porn ha un chiaro intento provocatore e, per mezzo di una parodia sulla società digitale, ci fa riflettere sulle tecnologie di genere ai tempi in cui la cultura dello stupro sembra disporre di una nuova cassa di risonanza: la vita onlife, ovvero la vita che viviamo nella continua interazione tra la realtà virtuale, online, e analogica, life.

Il web 2.0 e le piattaforme digitali diventano nel film di Jude quegli agenti ibridi dove l’abuso continua a essere normalizzato e il consenso delegittimato nel nome di retoriche con cui aggiornare i meccanismi patriarcali di colpevolizzazione della vittima. Poco importa che, come nel caso di Emi, il video sia finito online senza il suo consenso (e per lo più ad opera del marito) e ancora meno importa che la scena documentata sia trascorsa nella legittimità del talamo domestico: la protagonista, declassata da professionista a donna di facili costumi, è rea di essersi allontanata dalle norme che segnano la sua differenza sessuale, quella di donna e insegnante, e a causa della sua colpa, anzitutto morale, merita (forse) il licenziamento.

Bad Luck Banging or Loony Porn, 2021

Il film di Jude mette al centro il problema della diffusione non consensuale di immagini intime e lo inserisce all’interno delle tecnologie di genere che caratterizzano la società contemporanea. Il problema è grave e in continua crescita come ampiamente documentato dal libro Donne tutte puttane: Revenge porn e maschilità egemone di Lucia Bainotti e Silvia Semenzin. Le misure legali finora adottate, però, sono ancora insufficienti a contrastare efficacemente questo reato.

Solo dal 2019, in Italia, è stata introdotta la legge “Codice rosso”, che prevede multe e reclusioni per la diffusione non autorizzata di materiali intimi. Ma la diffusione non consensuale di immagini intime non è solo un problema locale, quanto piuttosto un fenomeno globale, che colpisce un numero impressionante di persone. Secondo una ricerca condotta in Regno Unito, Australia e Nuova Zelanda su un campione di 6109 soggetti di entrambi i sessi, tra i 16 e i 64 anni, circa una persona su tre ha riferito di aver subito il furto e/o la diffusione non autorizzata di propri materiali intimi, o di aver ricevuto minacce in tal senso.

Senza nemmeno la necessità di filmati compromettenti, i deepfake potrebbero essere utilizzati nel peggiore dei casi per il licenziamento di qualcuno e, nella più probabile delle ipotesi, per la perpetrazione di abusi verso soggettività vulnerabili.

A rinvigorire le declinazioni contemporanee della cultura dello stupro sembra concorrere l’aggravante che riguarda la natura automatizzata e artificiale della nostra cultura visiva. Creare immagini intime, oggi, non richiede più la presenza né di un corpo né di una registrazione da parte di una telecamera in un luogo e in un momento specifico. Grazie alla diffusione di algoritmi avanzati come le tecnologie deepfake, diventa possibile generare e manipolare immagini con una precisione sempre maggiore, tale da cancellare ogni segno (o forse sarebbe il caso di dire senso) di contraffazione. 

Senza nemmeno la necessità di filmati compromettenti, i deepfake potrebbero essere utilizzati nel peggiore dei casi per il licenziamento di qualcuno e, nella più probabile delle ipotesi, per la perpetrazione di abusi verso soggettività vulnerabili. I deepfake creano infatti falsificazioni impeccabili che potrebbero condurci tutte, ma è oramai il caso di estenderci verso una forma più inclusiva di tuttз, sotto le morse di un costante stato di minaccia. Come dimostra la stessa ricerca condotta in Regno Unito, Australia e Nuova Zelanda, infatti, anche le collettività LGBTIQ+ e maschili sono vittime, e sempre con maggiore frequenza, del danno causato dalla diffusione non consensuale di immagini intime.

Pussy Riot, Proof of Protest (2022)

Vediamone un caso. Nel 2019, è stata lanciata un’applicazione denominata DeepNude, la quale, pur essendo stata ritirata rapidamente a causa di una grande quantità di critiche, era in grado di elaborare immagini di corpi vestiti e di produrre immagini di corpi femminili nudi contraffatti ma con risultati convincenti. Sebbene DeepNude non sia più oggi disponibile, esistono numerose applicazioni simili in circolazione sulla rete che, con sempre maggiore facilità, consentono di svestire artificialmente le persone, e in particolare le donne.

Di fronte a questi artefatti contemporanei della cultura dello stupro, gli appelli a una “castità digitale”, come l’astensione dal sexting o dalla condivisione di selfie intimi, sono inefficaci. Con l’avvento delle tecnologie deepfake, coloro che desiderano diffondere immagini di noi in situazioni compromettenti non avranno bisogno di acquisire le nostre fotografie private: con pochi click, potranno creare falsi convincenti a partire dalle foto della nostra vita quotidiana pubblicate, per esempio, sui social network. 

Apocalisse? Forse no. 

Il potere delle fotografie e dei video nel creare un senso di intimità potrebbe essere compromesso dalla diffusione dei deepfake, che potrebbero diventare indistinguibili dalle immagini reali. Ciò potrebbe portare ad una diffusa sfiducia nei confronti di tutte le immagini.

Insieme al filosofo Marco Viola, ho indagato il fenomeno dei deepfake e della diffusione non consensuale di immagini intime in un articolo da poco uscito in una rivista dedicata al tema. In breve, nel testo sosteniamo la necessità della diffusione pubblica di un’alfabetizzazione digitale attenta ai fenomeni di manipolazione profonda e automatizzata delle immagini, come quelli che riguardano i deepfake. Dobbiamo prendere coscienza del fatto che, sebbene l’esperienza fotografica e audiovisiva permetta di stabilire un legame con la persona raffigurata creando quel senso di intimità che costituisce un’importante componente del successo dei contenuti intimi, i deepfake non rimandano a nessuna esperienza reale, sebbene la simulino impeccabilmente. Chi diffonde materiale intimo senza consenso lo fa per il piacere nefasto di abusare del potere di violare un’intimità in cui nessuno li ha invitati.

La sensazione di potere e controllo che deriva dall’abusare dell’intimità di qualcuno sembra essere l’aspetto principale che spinge alcuni individui a diffondere materiale intimo senza consenso. E se questa ipotesi risulta corretta, ecco che il potere delle fotografie e dei video nel creare un senso di intimità potrebbe essere compromesso dalla diffusione dei deepfake, che potrebbero diventare indistinguibili dalle immagini reali. Ciò potrebbe portare ad una diffusa sfiducia nei confronti di tutte le immagini. Potremmo dire infatti che, così come è stato con l’iconoclastia religiosa, l’iconoclastia laica nei confronti dei deepfake ne amplificherebbe il potere, ma ne indebolirebbe la potenza.

Ecco perché è importante, dal nostro punto di vista, darci lo spazio e la possibilità di pensare e immaginare un futuro dove, grazie anche a tecnologie come i deepfake, sarà praticamente impossibile distinguere il falso dal vero. A fronte di questa impossibilità, la tradizionale versione forense dell’alfabetizzazione visiva sarà una partita finalmente persa; e questa sconfitta sarà capace di dare inizio a nuovi giochi. Magari al di fuori della cultura dello stupro.

In ottica speculativa, si potrebbe allora auspicare che i deepfake presto ci potranno curare dall’abbaglio iconico che ha condizionato nei secoli i nostri rapporti con le immagini. Ovviamente, non stiamo suggerendo di perpetuare l’abuso attraverso la diffusione non consensuale di immmagini o la depenilazzione di chi commette tali reati. Piuttosto, le tecnologie di genere con cui i deepfake ci mettono a confronto potrebbero rendere operativa la corrispondenza tra immagine e cosa rappresentata.

Come ci ha mostrato il videoartista Harun Farocki, le immagini operative sono quelle immagini che non rappresentano cose del mondo ma piuttosto fanno cose: tracciano, supervisionano, controllano, visualizzano, rilevano, identificano, etc. Sono strumenti che svolgono compiti e funzioni come parte di un’operazione. I deepfake, allora, potrebbero operare disinnescando l’abbaglio di senso a cui la dimensione testimoniale dell’immagine ci ha assuefatto. Così pensate, le immagini, quandanche riproducessero le vestigia della cultura dello stupro, attiverebbero altri tessuti relazionali: ascolterebbero e legittimerebbero il consenso.

Cristina Voto insegna Comunicazione visiva presso l'Università di Torino ed è assegnista di ricerca nel progetto ERC FACETS dove si occupa di semiotica e arte digitale secondo una prospettiva di genere. Attualmente sta svolgendo un periodo di ricerca alla Vrije Universiteit di Amsterdam. È curatrice della Biennale di Immagine in Movimento di Buenos Aires.