I nostri dati, i nostri scopi!

Una conversazione con Helen Hester

Diverse posizioni femministe hanno trattato le donne come vittime passive della tecnologia, intendendo quest’ultima come un progetto di dominio patriarcale, senza prestare la giusta attenzione all’agentività delle donne e alla loro capacità di riappropriarsene. Lo xenofemminismo si presenta come una corrente innovativa, in quanto riconosce il potere emancipatorio (limitato ma reale) della tecnologia e mira a costruire strategie concrete che si adattino alla nostra epoca di virtualizzazione accelerata. La sua proposta è una politica di scala e un transito tra vari livelli di pensiero e di azione.

A partire da alcune di queste premesse, la conversazione affronterà il modo in cui il corpo ha acquisito nuove scale di realtà e abitabilità negli ambienti digitali. Prendendo come punto di partenza la sfera domestica, cercheremo di pensare alle infrastrutture tecniche come alla dimora dei nostri «corpi di dati». Così come la casa è stata il luogo della riproduzione sociale che perpetua i valori normativi, le infrastrutture tecniche generano normatività algoritmiche che perpetuano l’ordine sociale stabilito.

La costruzione e la progettazione di uno spazio (che sia domestico o digitale) costituiscono i limiti e le possibilità di un corpo di muoversi e abitarlo. Come possiamo promuovere l’autonomia dei nostri «corpi di dati» in relazione agli spazi tecnici che abitiamo? In che misura possiamo reimmaginare l’infrastruttura di Internet per riappropriarcene come un bene comune ed evitare la sua verticalità e la sua privatizzazione? Come possiamo generare alleanze e reti che stabiliscano connessioni significative? È possibile trovare un rapporto equilibrato tra le diverse scale di corporeità e abitabilità che vanno dal corpo al cloud?

Se da un lato stiamo rivolgendo una grande attenzione critica alle innovazioni e alle loro potenziali conseguenze, ed è comprensibile, dall’altro stiamo assistendo a un lock-in sempre maggiore per le tecnologie e le interfacce più consolidate – gli spazi digitali di cui parli sono sempre più gli spazi in cui si svolgono le attività fondamentali della vita quotidiana. 

Partendo dalla ricerca di Dolores Hayden sulla storia delle innovazioni domestiche (The Grand Domestic Revolution) e dall’idea di «realismo capitalista» di Mark Fisher, tu parli di «realismo domestico» come «la riluttanza o l’incapacità di reimmaginare gli spazi della riproduzione sociale». «Il realismo domestico è il fenomeno secondo cui la piccola abitazione isolata e individualizzata (e la concomitante privatizzazione del lavoro domestico) diventa talmente accettata e comune che è quasi impossibile immaginare di organizzare la vita in un altro modo». Tu sostieni, però, che lo spazio domestico possa anche essere il luogo da cui far partire progetti emancipatori, poiché questa sfera può essere riconfigurata sia in termini di distribuzione spaziale sia di dinamiche relazionali che stabilisce.

Se facciamo un’analogia tra la casa come il luogo in cui vivono i corpi e le piattaforme digitali (social media, servizi di Google o Amazon) come il luogo in cui vivono i nostri «corpi di dati», possiamo osservare una privatizzazione della progettazione e della gestione degli spazi nei quali si svolgono le nostre attività online. E, a causa del grande potere che possiede l’oligopolio tecnologico rispetto al poco potere che le istituzioni pubbliche hanno in questo ambito, possiamo anche osservare un certo «realismo del cloud», una tendenza a credere che non sia possibile cambiare o riconfigurare questi spazi, oppure costruirne di nuovi.

Come possono aiutarci le tue idee sul realismo domestico a reimmaginare gli spazi digitali che abitiamo? Pensi che lo Stato, oltre a regolare il trattamento e l’uso dei dati da parte di queste aziende, dovrebbe anche creare un’infrastruttura tecnica che dia origine a modi più collettivi di abitare gli spazi virtuali? O dovremmo favorire la generazione collettiva di infrastrutture tecniche autonome o comunitarie?

È interessante che tu faccia il collegamento tra spazi domestici e tecnologie computazionali – il computer è, tra le altre cose, una tecnologia domestica. Abbiamo la tendenza a concentrarci sulle innovazioni generate dal progresso in campi come l’IA, e dimentichiamo che il computer è stato per alcuni anni una tecnologia di riproduzione sociale abbastanza banale (anche se distribuita in modo diseguale). Il computer viene usato in molte attività quotidiane – programmare, comunicare, organizzare – funzioni che fanno parte di quella che potremmo chiamare «assistenza cyborg». Oltre a questo, però, è sempre più utilizzato per le attività più basilari e fondamentali della sopravvivenza quotidiana. Se da un lato stiamo rivolgendo una grande attenzione critica alle innovazioni e alle loro potenziali conseguenze, ed è comprensibile, dall’altro stiamo assistendo a un lock-in sempre maggiore per le tecnologie e le interfacce più consolidate – gli spazi digitali di cui parli sono sempre più gli spazi in cui si svolgono le attività fondamentali della vita quotidiana. Sta diventando sempre più difficile accedere, per esempio, all’assistenza aziendale o governativa senza una mediazione digitale. Se devi fare un bonifico, una denuncia all’assicurazione, verificare un pagamento bancario, informarti su una consegna che non è mai arrivata, prendere appuntamento per una visita medica, programmare l’installazione o la riparazione di una linea telefonica, correggere un errore in una bolletta… Sempre più spesso, negli Stati più ricchi, questi processi richiedono l’accesso a sistemi online, che sono spesso vissuti come tecnologie d’intralcio, poiché presentano delle difficoltà da superare per raggiungere l‘assistenza che ci serve.

Non si tratta soltanto del fatto che all’«utente» – l’essere umano con un bisogno da soddisfare – è richiesto di rapportarsi con interfacce e reti digitali per accedere all’assistenza. Il problema è che anche le decisioni rispetto al fornire o meno assistenza sono sempre più prese e comunicate da sistemi online – il caso del processo decisionale algoritmico riguardante l’ammissibilità ai sussidi statali ne è un esempio. Come sottolinea Precarity Lab, «trasferire alle macchine l’autorità di prendere decisioni sull’idoneità all’assistenza pubblica dalle persone alle fa sembrare impossibile negoziare con chi è responsabile di prendere queste decisioni. La persona abbandonata dallo Stato sociale automatizzato si confronta con un nuovo oggetto, la goffa interfaccia statale, e di conseguenza non è più un soggetto, proprio perché è stata esclusa dai presupposti, dalla conversazione e dalla negoziazione». Non c’è da meravigliarsi che la gente abbia una sensazione di «realismo del cloud» in queste circostanze! Il processo decisionale automatizzato è vissuto fondamentalmente come una privazione di autonomia.

Succede qualcosa di simile nel caso della gestione algoritmica e dei modelli black box di gestione del lavoro – di nuovo, la conoscenza e i mezzi per contestare l’organizzazione delle cose sono mediati tecnologicamente in modo nuovo, facendo percepire i mezzi di contestazione meno accessibili. Negli Stati Uniti alcuni sistemi di gestione algoritmica stanno addirittura mirando a controllare l’auto-organizzazione dei lavoratori, con elementi di sorveglianza antisindacale incorporati. Come nota Callum Cant nella sua ricerca di dottorato, «L’aumento della supervisione sugli esseri umani attraverso tecnologia dell’informazione permette di aumentare sia l’intensità del regime di controllo sia la complessità del processo produttivo». Questo non è un elemento completamente nuovo del management, naturalmente – l’idea che i rappresentanti del capitale o dello Stato siano disponibili a ragionare e a mediare è forse di per sé una fantasia confortante – ma rappresenta uno sviluppo (e probabilmente un aggravamento) delle tendenze esistenti. È una nuova frontiera per i sistemi di controllo, e limita ulteriormente le possibilità di contestazione e di sciopero al lavoro. Ossia: richiede nuove tattiche.

«Il fine ultimo di una politica xenofemminista della tecnologia dovrebbe essere quello di trasformare i sistemi politici e le stesse strutture disciplinari, in modo che l’autonomia non si debba sempre conquistare con l’astuzia e la segretezza (dato che la necessità di una tale conquista, se imposta a un soggetto riluttante, prende la forma di un fardello anziché di un esercizio emancipatorio di libertà)»

E, fatto incoraggiante, vediamo che rispetto alla gestione algoritmica stanno emergendo nuove tecniche di contestazione dei lavoratori, organizzate e non. La ricerca di Cant in sostanza identifica «una capacità strutturale di nuovi approcci all’auto-organizzazione» che emergono in risposta ai regimi contemporanei di controllo, anche nel caso dei lavoratori delle piattaforme. I gruppi di lavoro informali si stanno organizzando attraverso le interfacce digitali, e a volte sono organizzati dalle interfacce digitali – le reti di comunicazione «molti-a-molti» possono essere viste come modi per facilitare la solidarietà su una nuova scala, e si sono già dimostrate particolarmente utili nel promuovere l’emergere della solidarietà in una forza lavoro geograficamente dispersa. (Questo è un punto chiave, dato che le esperienze di lavoro da casa e di aspettativa durante la pandemia aumentano la separazione spaziale dei lavoratori che hanno interessi comuni; ci sono lezioni fondamentali da imparare per diversi tipi di lavoratori, e forse ulteriori opportunità di coordinamento tra settori). Così, i lavoratori delle piattaforme hanno trovato un modo di resistere alla gestione algoritmica, e possiamo identificare sacche di militanza dei lavoratori, strategie e inventiva reale. Questo suggerisce un potenziale orientamento anche per gli utenti delle piattaforme, forse, un orientamento opposto al «realismo del cloud» in cui il futuro e tutte le sue condizioni tecnosociali sono ancora da conquistare.

Il fulcro del discorso è l’idea di internet come infrastruttura: se si pensa in questo modo, il bisogno di meccanismi per assicurare l’accesso e la responsabilità emerge chiaramente. Nelle attuali condizioni sociali, tecniche e politiche credo che sia più probabile che tali meccanismi emergano da e attraverso lo Stato. Non sto parlando di controllare specifici contenuti online, sto pensando più in generale alla fornitura di base e al processo di decodificazione: prendere internet come una tecnologia che attualmente paghiamo e riformularla come un diritto sociale o un servizio pubblico (con tutti i potenziali benefici e le problematiche che ciò implica).

Con questo non intendo in alcun modo sminuire il valore della promozione di infrastrutture autonome: penso che dare la possibilità al maggior numero di persone possibile di impossessarsi dei mezzi di produzione digitale sia un obiettivo ammirevole. Essere in grado di progettare alternative che siano agili e rispondenti ai bisogni di specifiche collettività e comunità è un’operazione enorme, ma come obiettivo favorisce chi è già in grado di avere un approccio pratico per cambiare e intervenire all’interno del paesaggio digitale, chi ha la capacità di guardare sotto il cofano di un particolare sistema tecnico, o i mezzi a disposizione per acquisire e sviluppare questa capacità. Non tutti sono in grado di farlo, non tutti hanno il tempo o le risorse. Come ho scritto nel mio libro, «Il fine ultimo di una politica xenofemminista della tecnologia dovrebbe essere quello di trasformare i sistemi politici e le stesse strutture disciplinari, in modo che l’autonomia non si debba sempre conquistare con l’astuzia e la segretezza (dato che la necessità di una tale conquista, se imposta a un soggetto riluttante, prende la forma di un fardello anziché di un esercizio emancipatorio di libertà)».

Se pensiamo ai dati come a un secondo corpo, potremmo domandarci: i nostri dati hanno una capacità riproduttiva? In qualche modo, sì, poiché danno origine alla generazione e alla nascita di Intelligenze Artificiali. Qualsiasi IA, non importa quanto rudimentale, ha bisogno di grandi quantità di dati per essere addestrata. Una delle applicazioni più estese dell’IA è quella della Smart City; la città costituisce un’altra scala di abitabilità mediata dalle tecnologie digitali.

Abbiamo riscontrato delle similitudini tra la mancanza di autonomia corporea e l’esclusione dal processo decisionale di cui parli in relazione al movimento femminista per la salute delle donne e ciò che sta accadendo ora nell’ambito delle tecnologie digitali. Il rapporto tra le persone che erano incaricate di fornire assistenza sanitaria e le donne che la ricevevano era profondamente diseguale e segnato da questioni di genere; oggi, allo stesso modo, il rapporto tra coloro che sono incaricati di fornire soluzioni tecniche per le città intelligenti e i cittadini a cui si rivolgono è estremamente diseguale e segnato dall’esclusione dal processo decisionale nello sviluppo dell’IA.

I nostri dati hanno una capacità riproduttiva? Quale grado di autonomia abbiamo nei loro confronti? Come soggetti di questi organismi di dati, possiamo arrogarci il diritto a un «aborto» se decidiamo che non vogliamo dare origine allo sviluppo di certi tipi di intelligenza artificiale? Possiamo decidere collettivamente quale modello di città vogliamo e determinare gli scopi per i quali rinunciamo al diritto di riproduzione dei nostri dati?

Ci sono delle immagini e delle idee provocatorie qui, ma dobbiamo essere chiari sulle diverse poste in gioco. Se c’è un «corpo di dati», non è certamente immateriale (il cloud, nonostante il suo nome etereo, non è né fluttuante né disincarnato: è legato all’infrastruttura fisica che lo rende possibile, compresi i corpi delle persone che producono le tecnologie in base a cui funziona e che ottengono le risorse da cui dipende quella produzione, il «wetware» del lavoratore). Tuttavia, il corpo di dati è diversamente materiale, e sarebbe un errore sminuire questa specificità. Non dobbiamo essere superficiali riguardo alla gestazione e alla nascita quando le persone (in particolare le donne nere e indigene) muoiono per mancanza di un’assistenza sanitaria pre, peri- e post-natale adeguata e accessibile; quando abbiamo ancora a che fare con le conseguenze – e, in alcuni casi, la pratica attuale – delle sterilizzazioni involontarie (una recente azione legale collettiva in Canada indica che fino al 2017 nel Saskatchewan le persone indigene sono state costrette, obbligate e portate con l’inganno a sottoporsi a procedure di sterilizzazione); e quando le donne abortiscono o soffrono di infertilità involontaria e malattie del sistema riproduttivo (come il cancro all’utero) come conseguenze della loro esposizione a condizioni di lavoro tossiche. Queste condizioni sono particolarmente diffuse nell’industria elettronica – nella produzione di semiconduttori, per esempio – e nello smaltimento dei rifiuti elettronici. Nelle condizioni attuali, i processi lavorativi che rendono possibile l’esistenza dei nostri corpi di dati stanno anche decimando la salute e la vita delle persone che li svolgono: i corpi metaforici di dati vengono riprodotti a spese della riproduzione dei corpi veri e propri, in carne e ossa.

Quindi, anche se entrambi sono macchiate di sangue – spesso, ma non esclusivamente, sangue femminile – non sono sicura che sia efficace introdurre nel discorso la riproduzione biologica e la riproduzione dei dati in questo modo. Ci si confonde troppo, si omettono dettagli significativi e si rischia un’incomprensione inutile.

Detto questo, comunque, posso capire perché l’idea di autonomia corporea ti è stata utile nel formulare questa domanda. L’idea di un diritto all’autosovranità, l’enfasi sull’agency e sul consenso informato, la resistenza collettiva a forme dirette e indirette di coercizione… sono tutte idee trasferibili, concetti con un’ampia sfera di rilevanza e possibile applicazione. Ognuno di questi concetti potrebbe essere facilmente considerato un principio guida per quella che hai descritto come «l’autonomia del corpo di dati». Il consenso, per esempio, è già un’idea ampiamente usata per discutere cosa succede ai nostri dati e cosa produce il loro utilizzo; quando nel 2017 la House of Representatives degli Stati Uniti ha votato per abrogare le leggi che impediscono agli Internet Service Provider di vendere i dati dei clienti a loro insaputa e senza la loro autorizzazione, la questione è stata intesa precisamente come una questione di consenso.

Ci sono modi diversi (e spesso imperfetti) per aiutare a proteggere i nostri dati e a praticare l’autodifesa digitale: l’uso delle VPN è un esempio ovvio e sempre più diffuso, l’idea di offuscare (o di generare noise virtuale in modo da ostacolare il processo di raccolta dei dati e ridurne la precisione) è un altro. Questi rimarranno probabilmente strumenti importanti anche se ci concentreremo sul reimmaginare e riprogettare sistemi tecnici più emancipatori. La tua domanda, però, mi sembra riguardi l’idea che ci potrebbero essere casi in cui noi – come soggetti politici attivi – scegliamo di condividere i nostri dati, perché vorremmo vedere i sottoprodotti informativi della nostra esistenza digitalizzata utilizzati per costruire un mondo migliore. Ciò implica un approccio più mirato alla raccolta dei dati, che non consista semplicemente nel raccogliere qualsiasi informazione per il gusto di farlo, ma più nel pensare a cosa abbiamo bisogno che i nostri dati facciano, come possono essere utilizzati per noi, per il nostro bene, per il bene delle persone e non per il profitto. Questo potrebbe anche comportare il tentativo di prevedere le potenziali modalità appropriate o improprie di raccolta dei nostri dati, individuando in anticipo non solo le applicazioni positive, ma anche i possibili problemi che la raccolta e l’accesso a questi dati potrebbe provocare, in modo da riflettere con sincerità su questo aspetto e ponderare collettivamente le implicazioni al meglio delle nostre capacità. Le persone dovrebbero essere informate sul tipo di dati che stanno generando e su come questi vengono utilizzati, e dovrebbero avere un interesse e una voce in capitolo nel processo, sia attraverso meccanismi individualizzati di opt-in/opt-out incorporati nell’interfaccia, sia attraverso referendum periodici sui termini generali dell’uso collettivo dei dati, per esempio.

Potremmo scegliere di contribuire con i nostri dati per assicurare il buon funzionamento delle città su una base quotidiana e operativa – fornendo informazioni anonime per aiutare a garantire l’equa distribuzione e l’appropriato indirizzamento delle risorse per la raccolta dei rifiuti, i servizi per l’infanzia, gli alloggi e così via. Potremmo decidere di optare per una condivisione anonima dei dati riguardanti i viaggi sulle reti di trasporto pubblico, per esempio, per consentire la destinazione delle risorse e lo sviluppo delle politiche a riguardo. (Se le persone provenienti da aree meno ricche di una città si spostano più regolarmente attraverso due o più tipi di trasporto pubblico, diciamo – tram, autobus o qualsiasi altra cosa – allora forse le tariffe potrebbero essere riconsiderate in modo più integrato in modo da evitare di penalizzare o far pagare troppo queste persone). Non sono interventi vistosi, ma potenzialmente sono molto utili.

A livello urbano i dati non dovrebbero essere semplicemente condivisi dai residenti, ma se possibile condivisi con i residenti, per creare di una sorta di archivio, che potrebbe essere una risorsa collettiva per lo sviluppo del tipo di infrastrutture tecniche comunitarie che hai menzionato prima, dando alle persone l’accesso alle informazioni che potrebbe consentire la nascita di progetti di emancipazione autonomi. Il ruolo del comune – come scala di amministrazione – potrebbe essere quello di usare le possibilità che il suo ruolo e la sua posizione gli offrono per contribuire a far emergere una cultura dei dati progressista, non semplicemente rispetto alla raccolta di informazioni (facendo rispettare i princìpi di consenso, riservatezza e protezione dal danno, per esempio), ma anche nell’archiviazione, la conservazione, la gestione e la sicurezza. La città potrebbe essere responsabile di rendere i dati accessibili per l’uso pubblico, assicurando: 1) che siano visualizzati in modo da essere comprensibile per diversi gruppi di persone; 2) che siano ricercabili in modi relativamente intuitivi, senza bisogno di software specializzati o di formazione; 3) che i risultati chiave siano tradotti in una prosa chiara e leggibile. Se dovessimo usare la tua analogia dei diritti riproduttivi per il corpo di dati, potremmo descrivere questo processo come il passaggio da Our Bodies, Ourselves a Our Data, Our Purposes!

Lo xenofemminismo è caratterizzato da una visione positiva (anche se non ingenua) delle possibilità insite in ogni tecnologia e della possibilità di reindirizzarla verso fini più giusti. Nel caso delle tecnologie di sorveglianza, ampiamente criticate da autrici come Shoshana Zuboff, è anche possibile immaginare un uso dei big data che non sia focalizzato sui singoli corpi e sui loro comportamenti (per esempio in relazione al consumo), ma che sia orientato a rilevare modelli nei cicli economici o identificare cambiamenti nei processi geofisici come quelli che hanno permesso di prendere coscienza della dimensione del cambiamento climatico antropogenico, che come sottolinea Benjamin Bratton è una conquista epistemica del calcolo su scala planetaria. Queste tecnologie si sono rivelate utili anche per la salute pubblica durante la pandemia, con lo sviluppo delle app di monitoraggio. Quali usi della raccolta di dati di massa potrebbero avere effetti positivi su scala globale?

L’esempio più ovvio, come hai detto tu, è la ricerca sul cambiamento climatico. Ho appreso di recente che, in termini di utilizzo massificato della potenza di calcolo e dei dati, la ricerca sul cambiamento climatico è seconda solo ai test delle bombe nucleari (il che dimostra qualcosa delle nostre priorità, e dei diversi usi ai quali i nostri sistemi tecnici possono essere destinati; a contare davvero qui è la posta in gioco politica e tecnomateriale). È stata creata una massiccia infrastruttura allo scopo di farci comprendere il cambiamento climatico, che ha necessariamente una portata globale. Informazioni come la temperatura media globale non possono essere ottenute semplicemente o immediatamente, andando in un posto e facendo una singola misurazione; ovviamente richiedono un’enorme quantità di dati da tutto il mondo, dati che otteniamo attraverso i satelliti, con le navi, usando ogni sorta di strumento – i molti diversi apparati di un processo tecnologico necessariamente globale. C’è un numero enorme di fattori che devono essere presi in considerazione in ogni misurazione se vogliamo capire come la temperatura sta aumentando a livello globale.

In questo contesto, potremmo vedere la raccolta di dati di massa come uno strumento di quella che Donna Haraway chiama «responso-abilità» cioè, contemporaneamente l’obbligo e la capacità di agire – e come il fondamento della sovranità del sé, o la ricerca di una maggiore conoscenza collettiva come parte integrante del progetto democratico.

L’altro esempio che citi viene dall’ambito sanitario. Quando si parla della raccolta di massa di dati medici, molte persone si mettono istintivamente (e giustamente) sulla difensiva, preoccupandosi soprattutto dei problemi di riservatezza, sorveglianza e controllo che i processi di raccolta dati tecnologicamente mediati comportano. I nostri dati saranno venduti? Queste informazioni sono personalmente identificabili, e a chi saranno rese visibili questi dati sensibili? Rischiamo di chiuderci in un mondo in cui i nostri dati hanno un effetto diretto su aspetti quali i nostri premi assicurativi, il nostro accesso all’assistenza sanitaria, e così via? È cruciale continuare a porci queste domande e fare ogni sforzo per immaginare il peggio; prevenire gli scenari peggiori può essere una forma di accortezza, ed è uno strumento molto importante per cercare di ridurre il danno.

C’è un’altra questione, però. Stiamo già utilizzando un’enorme quantità di dati per aspetti come la diagnosi, la ricerca e lo sviluppo. La ricerca di nuovi farmaci e medicine coinvolge sempre più l’intelligenza artificiale, per esempio, insieme a tutti i dati che richiede. L’attuale pandemia è un caso emblematico: come hai detto tu, uno dei modi in cui (alcuni) paesi sono riusciti a contenere il virus è stato il ricorso ai sistemi di tracciabilità, e trovare un mezzo per integrare i vari sistemi in uso, o per consentire loro di comunicare tra loro quando necessario, potrebbe generare effetti produttivi. La raccolta di dati massificata può avere applicazioni preziose in questo campo – perfino applicazioni in grado di salvare vite – ma per promuovere un approccio realmente rivolto al bene pubblico globale, ci devono essere alcune condizioni: il processo deve essere universalmente sicuro, democratico, responsabile e trasparente. Immaginare di orchestrare la cooperazione politica su scala globale è probabilmente molto più difficile che immaginare i sistemi tecnici che potrebbero essere impiegati. Come sempre, quando abbiamo a che fare con la tecnomaterialità, scopriamo che la tecnica è sociale tanto quanto la società è tecnica.

Toni Navarro (Barcelona, 1996) è un filosofo che si occupa di genere e tecnologia. Attualmente è guest lecturer all’EINA della Universitat Autònoma de Barcelona e ricercatore presso il Vector of Sociotechnical Conceptualization coordinato da Tecnopolítica (IN3/UOC). Ha scritto le prefazioni alle edizioni in spagnolo di Xenofemminismo di Helen Hester (Caja Negra, 2018) e The War of Desire and Technology di Sandy Stone (Holobionte Ediciones, 2020).
Alejandra López Gabrielidis (Mendoza, 1986) è una filosofa che si occupa di arte e tecnologie digitali. Ha insegnato Gender Studies alla Universitat Autònoma de Barcelona, e attualmente insegna Teorie Critiche del Design Interattivo all’ELISAVA ed Estetica e Nuovi Media all’ESDI. Fa parte del gruppo di ricerca Tecnopolítica e del collettivo Vector of Sociotechnical Conceptualization. Ha curato la traduzione dell’edizione in spagnolo di Fenomenologia della fine di Franco "Bifo" Berardi (Caja Negra, 2020).