Datificazione della memoria, realtà algoritmica

Clima, algoritmo e futuri invisibili: il dataset è un cono della memoria?

In Esiste un mondo a venire?, Eduardo Viveiros de Castro e Deborah Danowski si domandano, attraverso l’ausilio delle più recenti elaborazioni teoriche (dai lavori di Meillasaux a quelli di Srnicek e Williams, fino a Latour, Stengers e Chakrabarty) e riferimenti a opere cinematografiche (in particolare Melancholia di Von Trier e Il cavallo di Torino di Bela Tarr) quale possa essere la forma del futuro sotto le stimmate dell’Antropocene. Se il futuro «fa problema», nel senso che si fa fatica a scorgerlo è anzitutto, nell’impostazione dei due pensatori brasiliani, per la questione ecologica: riscaldamento globale, distruzione della biodiversità, scioglimento del permafrost e tutto ciò che ne consegue – in breve tutto ciò che riguarda il difficile rapporto tra l’umano, il suo ambiente e la vivibilità, per l’umano, di questo ambiente – rappresentano, a tutti gli effetti, il problema che una qualsiasi domanda sul futuro incontra come gigantesco ostacolo. Ciò che ne scaturisce è una sostanziale cecità di fronte a ciò che ci attende: non riusciamo a vedere il nostro futuro perché non riusciamo ad illuminarlo. Il futuro è cioè, oggi, un problema di visibilità. Proprio come dice Morton, il riscaldamento globale (iperoggetto par exellence) travalica in maniera radicale la nostra temporalità (oltre che la nostra località): non solo non riusciamo a intravederne la portata nei termini degli effetti che avrà sulle nostre vite ma, in maniera forse più sottile, non riusciamo a cogliere in che maniera il suo futuro, a noi invisibile, influenzi retroattivamente le nostre scelte. C’è un avvenire che noi non vediamo che retroagisce sul nostro presente, di fronte al quale siamo completamente ciechi. Solamente oggi però siamo divenuti consapevoli della nostra totale inconsapevolezza: solo adesso sappiamo che non siamo in grado di prevedere gli effetti che scaturiranno dalle nostre azioni presenti. Questa incapacità di produrre un calcolo a così tante variabili genera un’assenza di visibilità, un buio (che è per l’appunto il futuro) che agisce in maniera potente sul nostro presente: le angosce che la «domanda ecologica» si porta dietro, il ventaglio di pessimismi che l’accompagna (al netto degli atteggiamenti negazionisti), rappresentano forse il dono più prezioso di questa insondabilità. Quello che voglio dire è che l’incapacità di dare forma al futuro, il tasso di imprecisione di ogni nostra pre-visione, retro-agisce in maniera decisiva su quello che è il nostro presente, orientandolo: al di là delle iperstizioni landiane (in cui un futuro immaginato può autoavverarsi influenzando lo sviluppo di un determinato processo o evento), questo margine, questo tasso di oscurità, grava sul nostro presente in maniera determinante. Addirittura potremmo pensare a questo margine, a questo incalcolabile, come l’unico vero spazio all’interno del quale una certa agency è possibile: questo buio assoluto potrebbe assomigliare a quel taglio attraverso cui lasciare entrare un po’ di caos di cui parlavano Deleuze e Guattari in Che cos’è la filosofia?. Il riscaldamento globale, la sua questione, fa si che la portata di questa rivelazione emerga nella sua profondità ontologica, piuttosto che come difetto epistemologico: questo scarto non è qualcosa di ricucibile attraverso l’utilizzo di una strumentazione più idonea. In poche parole, is here to stay.

Questo margine allora, questo buio relativo al futuro che si insinua nel nostro presente, se più che essere un difetto è un carattere costitutivo del nostro essere al mondo, allora non può non essere messo in relazione con un’altra questione – altrettanto spinosa – inerente il futuro e la sua immaginabilità, vale a dire la questione algoritmica. Secondo quest’ottica, il fine ultimo della cosiddetta «governamentalità algoritmica» è costituito non solo dal desiderio di illuminare (far divenire visibile) i recessi più intimi e molecolari del desiderio dei singoli soggetti, ma di determinarne anche l’orientamento delle scelte future, succhiando via qualsiasi forma di agency.

In questo senso andrebbe prima indagato il concetto di visibilità, mettendolo poi in relazione con le tematiche della governamentalità di matrice foucaultiana, per arrivare poi alla governamentalità algoritmica così come articolata da Antoinette Ruvoroy. Solo a quel punto si potrebbe provare ad abbozzare un’analisi di cosa significa oggi essere un soggetto, una comunità, un popolo sotto un regime algoritmico.

Regimi di Luce

Leggendo le trascrizioni dei corsi che Gilles Deleuze dedicò all’opera di Michel Foucault, il tema della «luce», della visibilità, emerge come un elemento costituente delle relazioni di sapere/potere:   che rapporto c’è fra ciò che si vede e la luce che lo «illumina»? Come si articolano i rapporti tra questo visibile e gli enunciati che lo ricoprono? Da cosa è attraversata questa esteriorità che insieme separa e unisce le parole alle cose? Se prendiamo sul serio quest’asse di pensiero deleuzo-foucaultiano, non possiamo fare a meno di notare come la nostra epoca sia attraversata da un fascio di luce estremamente intenso, così intenso da illuminare ogni passo della nostra esistenza: non è forse vero che siamo chiamati ad esporre ogni singolo atto delle nostre giornate, da cosa mangiamo a cosa indossiamo, dai posti che visitiamo ai libri che leggiamo? Quando Foucault divide il campo del sapere in «enunciabile» e «visibile», spiega che, mentre per l’enunciabile esiste un certo «Si» del linguaggio, un modo di darsi del linguaggio all’interno del quale noi siamo presi e di cui non saremmo altro che «funzione», per quanto riguarda le visibilità esiste un certo «regime della luce»: cosa sono Facebook, Instagram, Pinterest, se non dei regimi di luce? In un certo senso questi non sono che dei riflettori che illuminano delle «visibilità» (corpi, spazi, pratiche): di fronte a questi riflettori noi siamo invitati ad esporci, in un patto sociale perverso per cui «sono chiamato a parlare (o ad espormi) solo quando non ho nulla da dire (o nulla da far vedere)», citando lo stesso Deleuze, che così si esprime a proposito di quella che è l’essenza del potere biopolitico. Questo particolare «regime della luce» non illumina però solamente gli spazi fisici che i nostri corpi abitano: un fascio di luce taglia trasversalmente non solo cosa facciamo, ma anche il senso di ciò che facciamo. La datificazione delle nostre esistenze non è nient’altro che un’inedita forma di «illuminazione». Il dato emerge come una messa in luce di un particolare evento: per esistere ha bisogno di un «riflettore» che in qualche modo lo illumini e lo riconosca come significativo. Più che di una trascrizione si tratta perciò di una interrogazione che il fascio di luce (la piattaforma digitale) mette in atto: il dato è in qualche modo l’ombra generata da un evento su di una superficie d’iscrizione, ombra che però esiste solo in funzione del fascio di luce. La somma di tutte queste “ombre” si compone poi in enormi dataset che vengono indagati dagli algoritmi alla ricerca di correlazioni impensabili: ecco che, assieme ad una «visibilità algoritmica», emerge un vero e proprio «senso algoritmico». È questo il punto in cui un enunciato (il dato in quanto tale preso nella maglia delle sue relazioni) viene a ricoprire una visibilità: se da un lato il «regime di luce» Facebook ci fa parlare, ci illumina, dall’altro ci inscrive, mediante la datificazione, dentro un discorso in cui l’individuale (il soggetto che non può essere diviso) diviene un «dividuale» (l’assoggettato che viene costantemente «misurato»)

Se è perciò certo che a contrassegnare il nostro presente sia un regime di grande luminosità, è altrettanto evidente che, mai come oggi, ci si trovi sull’orlo di un futuro radicalmente impensabile, in un certo senso, invisibile: lo sterminato afflusso di dati che le macchine sono (e saranno sempre di più) in grado di raccogliere su ogni tipologia di attività, accoppiato all’affinarsi delle tecniche di data mining e allo sviluppo inarrestabile del machine learning, sembrano generare una quantità di alternative possibili così estesa da risultare ingestibile. Insomma, più che avere dei dubbi sulla «luminosità» del nostro presente e del nostro futuro, ciò che pare in questione è la capacità del nostro sguardo di non rimanere accecato dalle potenzialità che lo sviluppo tecnologico e informatico ci mettono a disposizione. Proprio l’immaginazione del (o di un) futuro sembra essere il tema fondamentale: non a caso Srnicek e Williams, per dare seguito al loro Manifesto, hanno scelto come titolo per il loro libro Inventare il futuro. In un certo senso, la domanda circa il futuro (circa la sua stessa possibilità) è la vera domanda che le macchine (intese come l’apparato algoritmico latu sensu) ci pongono, anche se in maniera silente. Dico che è l’unica poichè è questo forse l’unico interrogativo verso il quale la potenza di calcolo, per quanto sterminata, sembra rimanere tutto sommato impotente: se il principio che sottostà alla svolta del machine learning è un principio «correlazionista», allora l’algoritmo non può che affidarsi al (e perciò ripetere il) passato. In uno scenario ancora peggiore, la potenza algoritmica può essere usata non solo per cancellare qualsiasi possibilità di futuro, ma per normare e controllare qualsiasi aspetto della nostra vita. È questo il timore profondo di Antoinette Ruvoroy quando parla di «governamentalità algoritmica».

Governamentalità Algoritmica: dal controllo al suggerimento

«Governamentalità» è un concetto elaborato da Foucault allo scopo di spiegare e segnare un cambio di paradigma nell’uso e nell’esercizio del potere. Anzitutto va chiarito come il potere, per il filosofo dell’Archeologia del sapere, si costituisca come un «rapporto», una relazione, piuttosto che essere un qualcosa di posseduto da alcuni e subito da altri. Possiamo perciò farci già una prima idea di come il potere funzioni: essendo questo una maglia di relazioni, esso è anzitutto una contrapposizione di forze. Il potere perciò, traducendo un po’ Nietzsche (per quel che riguarda la nozione di forza), un po’ Spinoza (per la teoria degli affetti), consiste da un lato in una certa capacità di agire, dall’altro nella capacità di resistere a questa azione. Entra qui in gioco la nozione di microfisica: se le grandi istituzioni, cui di solito si fa risalire l’origine e la fonte del potere (Stato, Tribunale, Scuola, etc), rappresentano delle entità macro-fisiche, il potere, come inteso da Foucault, ha più a che vedere con una microfisica dei rapporti: la maestra che chiama l’alunno alla cattedra, il secondino che costringe il carcerato a spogliarsi, il poliziotto che per strada ci chiede spiegazioni sul perché stiamo andando in quel luogo, etc. Insomma, il potere è un fatto che riguarda delle micropratiche quotidiane: è a partire da queste micropratiche che i grandi insiemi «molari» come lo Stato possono emergere. Ora, la governamentalità, è per l’appunto l’insieme delle tecniche, dei processi, delle pratiche, che orienta la gestione di tutti questi micropoteri. Deleuze, nel corso incentrato sull’opera di Foucault cui si faceva riferimento in apertura (in particolare nella seconda parte, dedicata al Potere) ci spiega bene come intendere la questione: il potere, ci dice il filosofo dell’Anti-Edipo, è un campo di singolarità; il potere è fatto di punti (punti di pressione, punti in cui si esercita una forza ed una conseguente resistenza), e le grandi istituzioni (lo Stato, la Scuola, il Carcere) sono come delle curve che noi tracciamo in prossimità di questi punti. È chiaro che noi quei punti, quelle singolarità, non li scopriremmo mai senza tracciare quelle curve; d’altro canto però le curve hanno quella forma in virtù di una pre-esistenza, di una indipendenza, di quella distribuzione di singolarità, di quella distribuzione di punti. Deleuze fa ricorso a strumenti di matematica avanzata per rendere conto di questo ragionamento: in topologia, il campo vettoriale su cui si danno i punti singolari (quelli che nella teoria del caos deterministico vengono chiamati «attrattori», di cui i più famosi sono gli attrattori strani che hanno forma di «frattali») preesiste alle «curve di integrazione» che vengono tracciate e che in qualche misura attualizzano i punti singolari. Sull’asse Deleuze/Foucault, in sostanza, possiamo inquadrare la governamentalità come il governo di questa maglia di relazioni, fatta di poteri (e relative resistenze), che però non è sovrapponibile alle grandi istituzioni molari (che invece la ri-traducono su altri piani) perché, in qualche misura, gli scorre sotto.

Per Ruvoroy, quindi, la governamentalità algoritmica è l’insieme di quelle tecniche di governo che, da un lato, inibiscono e normano il nostro stare nel (sempre più datizzato) mondo, dall’altro sono volte a mettere in atto una vera e propria «biopolitica», ossia una politica che abbia come scopo la produzione stessa della vita (e del desiderio) al di là della sua «normalizzazione»:

«Potremmo forse avanzare l’ipotesi che ciò di cui ci “privano” questi dispositivi tecnici, e soprattutto la nostra propensione a sottometterci alla razionalità algoritmica che si trova incorporata in essi, sono le occasioni, e quindi le capacità, di “astrazione” e di “distanziamento” dal “reale calcolato”. Essi però ci privano anche, “anticipati” come siamo e “congestionati” da un ambiente sempre più “intelligente” capace di rendersi immediatamente e persino in anticipo “pertinente” per noi, della nostra attitudine a desiderare e a progettare, dal momento che queste capacità “immaginifiche” sono in procinto di essere sottomesse a macchine automatiche» (La Deleuzianarivista online di filosofia – issn 2421-3098 n. 3 / 2016 – la vita e il numero).

Correlazione vs. Causalità

Nella sua vocazione più strettamente normativa, l’algoritmo diventa una sorta di poliziotto predittivo sull’esempio/distopia dei precog di Minority Report. Del resto, esempi di questo genere sono già ampiamente all’opera: non è raro che dipartimenti di polizia, specialmente negli Stati Uniti, facciano uso di algoritmi che, sulla base di dataset consistenti, indirizzino le pattuglie verso quei luoghi che, alla luce delle correlazioni emerse, risultano essere maggiormente a rischio. Ma non solo questo: possiamo immaginare un futuro distopico nel quale la chiave magnetica di casa non risponde ai comandi se l’ultima rata del mutuo non aveva la giusta copertura; oppure, spingendoci ancora più in là, un sistema di gestione domotica dove l’algoritmo che gestisce i nostri consumi di corrente ci impedirà di guardare la tv fino a notte fonda perché non ce lo possiamo permettere. Insomma: la totale integrazione dei dati, associata ad una potenza di calcolo (quasi) sconfinata, potrebbe portare a delle perversioni inimmaginabili: è notizia di qualche anno fa quella secondo cui una banca Londinese ha scoperto una correlazione tra buoni pagatori e acquirenti di feltrini. È chiaro che queste tipologie di correlazioni che le macchine sono capaci di tirar fuori vanno sottoposte ad un vaglio che le metta al sicuro da quello che viene definito «overfitting», vale a dire un sovra-adattamento: anche in questo caso però le tecniche che verificano il fatto che la macchina stia correlando elementi che in realtà non hanno nulla a che vedere l’uno con l’altro, sono tecniche numeriche basate esclusivamente su correlazioni di portata superiore. In soldoni: se il mio dataset è troppo piccolo, questo farà probabilmente emergere delle correlazioni che sono figlie della limitatezza dei dati in mio possesso, per cui, facendo un confronto con dataset più ampi, questi errori di overfitting verranno automaticamente fuori. I meccanismi di correzione non tengono però in nessun conto l’aspetto «causale» della eventuale correlazione: che io abbia o non abbia acquistato dei feltrini per i piedi del mio tavolino da salotto (magari io quel tavolino non ce l’ho proprio), questo in nessun modo incide su che tipo di pagatore io possa essere. Qui si va a toccare proprio il nocciolo della questione algoritmica che sta tutto nell’inversione tra causalità e correlazione: se infatti la sociologia ha sempre utilizzato la statistica come mezzo per estrarre delle causalità e quindi come strumento per interpretare il mondo, l’algoritmo, muovendosi alla ricerca esclusiva di correlazioni, non si preoccupa in nessun caso dei nessi causali, per rivolgere la sua totale attenzione al funzionamento. Proprio a proposito dell’attenzione per i micropoteri che la governamentalità algoritmica mette in gioco, Dominique Cardon, nel suo Che cosa sognano gli Algoritmi? scrive: «Vista dalla prospettiva degli algoritmi, la società non è più fondata su grandi sistemi di determinazione, ma è una specie di micro-fisica dei comportamenti e delle interazioni, decodificabile grazie a sensori posti a basso livello». In questo senso l’algoritmo propone un vero e proprio rovesciamento del pensiero «essenzialista» caro alla cultura occidentale sin dalla sua fondazione greco-antica: facciamo un altro esempio. Qualche anno fa, una ricercatrice in informatica americana, Latanya Sweeney, cercando il suo nome su Google, si è imbattuta in un suggerimento di ricerca piuttosto preoccupante: il motore di Mountain View le proponeva infatti, tra le varie suggestions, quella del suo nome accoppiato alla parola «carcere» («jail»). Dopo una serie di rapide ricerche l’accademica (di colore) ha scoperto che questo suggerimento compariva molto più spesso di fianco a nomi di persone di colore. Da qui il salto alla conclusione «il motore (e l’algoritmo che lo anima) è razzista». In realtà, il motore di ricerca di Google ha seguito precisamente il percorso inverso, tant’è che scrive ancora Cardon: «Grazie ad una indagine di retro-ingegneria sistematica su un gran numero di richieste, Latanya Sweeney ha mostrato che l’algoritmo non ha bisogno di avere un’intenzione discriminatoria per produrre quel genere di effetti discriminatori. Non contiene norme che gli chiedono di individuare le persone nere e le persone bianche. Si accontenta di lasciar fare alle regolarità statistiche». Cardon lascia intuire che il motore avrebbe semplicemente individuato una correlazione statistica tra «l’esser nero» e avere potenzialmente una fedina penale non immacolata: in realtà è possibile che Google non facesse in nessun modo ricorso all’informazione «colore della pelle» per associare a questo dato il suggerimento «jail». E’ possibile che lo stesso attributo «colore della pelle» fosse a sua volta il risultato di una correlazione statistica: nel senso che Google proponeva il suggerimento «jail» a fianco di nomi di persone di colore non in quanto «persone nere», ma in quanto persone la cui storia (il cui «dataset») in qualche modo presentava a sua volta delle correlazioni statistiche: luoghi di provenienza, gusti culturali, reti di relazioni, scuole frequentate, etc. Vista in questa prospettiva «l’essenza» è descritta non in base ad un attributo («avere la pelle nera») ma piuttosto in base ad un insieme di esperienze raccolte sotto forma di tracce. La potenza discriminatoria, in questo senso, è ancora più intensa: il motore non ti discrimina in quanto “nero”, ma piuttosto in quanto tu sei sempre stato (in un certo senso) oggetto di discriminazione in quanto nero. Il motore ha letteralmente ricostruito il senso profondo del che cosa significa avere la pelle nera nel contesto di una società che discrimina e penalizza le persone che hanno quella specifica caratteristica. L’algoritmo, ragionando «correlazionisticamente» piuttosto che «causalmente», disconosce la causa, ma lascia emergere le pratiche che determinano un certo effetto: c’è, in questa prospettiva, un materialismo difficilmente archiviabile come «mistificatorio». Al contrario: l’esempio, nella sua ipotesi più «ingenua», mostra come in questo caso l’algoritmo abbia lavorato in modo tale da riprodurre uno schema (che è mostruoso) che ha recuperato all’interno del suo dataset, dimostrando la sua assoluta incapacità di produrre e proporre soluzioni con una qualche minima parvenza emancipatoria.

 

Ci sono allora due problemi distinti (i due corni della governamentalità): da un lato c’è l’effettivo controllo che gli algoritmi possono esercitare sulle nostre esistenze, per esempio prendendo decisioni e contromisure basate su correlazioni e anticipazioni; dall’altro c’è l’effetto, questo più sottile, che il «suggerimento algoritmico» può avere sui nostri cervelli: in che modo il gusto viene influenzato da ciò che l’algoritmo mi propina, e di conseguenza come l’algoritmo influenza in un certo qual modo sé stesso (ovvero il suo dataset) influenzando me (che sono un pezzo di quel dataset). A questo proposito sarà opportuno anzitutto fare luce sui meccanismi di funzionamento di uno degli algoritmi più interessanti con cui capita di avere spesso a che fare, cioè quello che gestisce il funzionamento del servizio «Discover Weekly» di Spotify. In secondo luogo, introdurrò il concetto di Cono della memoria, così come elaborato Henry Bergson.

Discover Weekly

Il servizio Discover Weekly di Spotify consiste sostanzialmente in una playlist settimanale, tagliata su misura per il singolo utente, redatta da Spotify in base a una serie di modelli algoritmici di raccomandazione. I modelli utilizzati da Discover Weekly sono 3: uno che possiamo definire «collaborativo», che si basa sulla comparazione degli ascolti tra utenti identificati come simili; uno legato all’analisi dei testi disponibili in rete relativamente ad un determinato genere o artista; uno basato sulla comparazione dei modelli audio. Il primo di questi modelli è in tutto e per tutto simile a quelli su cui si basano i sistemi di raccomandazione di Netflix o Amazon: identificati dei cluster di utenti come simili, si consiglia a ciascuno di questi un libro, un film o un brano che è stato già letto, visto o ascoltato da un altro appartenente al suo stesso cluster. Se moltiplichiamo questo procedimento per il numero impressionante degli utenti (e dei relativi ascolti) di Spotify, avremo una gigantesca operazione matematica che però consente di avere un efficacissimo sistema di raccomandazione. Quel che però contraddistingue e differenzia Discover Weekly dai suoi competitor più immediati sta proprio nell’aggiunta di altri due assi, che vanno ad arricchirne e perfezionare il meccanismo. L’analisi dei testi presenti in rete ha la funzione di scoprire quali siano le connessioni e le relazioni che legano artisti, generi, canzoni tra loro, in modo da ottenere una sorta di «Knowledge Graph» musicale: questo permette a Spotify di avere un quadro che travalica lo scenario descritto dal mero comportamento degli utenti, dandogli la possibilità di prendere in considerazione anche il «discorso» (critico e non) che si genera attorno alla musica. In maniera speculare, l’analisi della nuda materialità della traccia audio (o meglio della sua traduzione numerica), consente di apparentare e quindi di connettere brani musicali tra i quali difficilmente sarebbe potuta sorgere una qualsivoglia correlazione: l’algoritmo può arrivare a consigliarmi un brano appartenente ad una misconosciuta band della provincia di Varsavia solo perché questo brano presenta dei tratti in comune (dal punto di vista strettamente musicale) con alcune canzoni (che magari sono notissime) che sono solito ascoltare. In questo modo Discover Weekly segue un percorso che sembra portare lontano dal pantano delle filter bubbles: se è vero che il sistema procede comunque per correlazioni e «somiglianze», è altrettanto vero che queste somiglianze sono anche delle «variazioni» che, incrociate tra loro, riescono a produrre un carnet di offerta musicale enormemente differenziato.

Quello che vorrei sottolineare è che il problema di una conoscenza algoritmica, vale a dire di una conoscenza del mondo mediata dalle «scelte» raccomandate da un algoritmo, non sta propriamente nella tipologia di filtro che esso impone (da cui la questione delle filter bubbles e della irreversibile polarizzazione, anche politica, del conflitto): è possibile pensare ad un algoritmo, e DW ne è un esempio piuttosto evidente (per quanto possiamo considerarlo «primitivo»), che abbia a cuore l’idea di espandere i propri confini oltre lo steccato delle abitudini e dell’identità precostituita. Potremmo addirittura immaginare servizi informatici che funzionino esattamente al contrario: un software che ad esempio, basandosi sulle nostre pregresse letture e visioni, ci proponga solamente film e libri nei quali non ci saremmo mai imbattuti. Incrociando gli storici di tutti gli utenti potrebbe arrivare a raccomandare solo film e libri visti o letti da utenti perfettamente incompatibili con me: non sarebbe questo uno strumento – per quanto perfettamente inutile – capace di spingere quanto più lontano la retorica della differenziazione e della «tolleranza»?

C’è da sottolineare come la mediazione algoritmica non si esprima in tutta la sua potenza e pervasività se la applichiamo alle mere scelte – diciamo così – estetiche che i soggetti possono compiere: la nostra vita, come ci ricorda L’algoritmo definitivo, è interamente mediata e macchinata da algoritmi che svolgono per noi milioni di piccole funzioni. Non solo, il controllo (o la mediazione) dell’algoritmo è attiva anche a un livello più propriamente collettivo e politico: nel momento in cui politiche industriali, politiche monetarie e politiche economiche fanno affidamento sulle correlazioni che emergono dall’analisi di dataset di sterminate dimensioni, assistiamo al prender forma di un vero e proprio «divenire algoritmico».

Il cono della memoria: un gigantesco dataset

Se mettiamo assieme questa prospettiva con quella relativa alla superficialità della questione delle filter bubbles, ciò che ne consegue è che il nocciolo della questione algoritmica non ha tanto a che vedere con le scelte e la libertà dei singoli, ma con un effetto «sistemico» che si propaga «al di sopra» degli individui: è a questo punto che entra in gioco la nozione di Memoria come elaborata da Bergson. Per il filosofo dello «slancio vitale» il tempo ha una architettura paradossale: esso infatti si scinde in due getti distinti, definiti l’uno come «presente che passa», l’altro come «passato che resta». Questo perché, affinché sia possibile che il tempo scorra (che ci sia «durata»), è necessario che «ciò che dura», ossia la realtà, da un lato si trattenga e dall’altro scorra, passi: è evidente come, per compiersi effettivamente, questa scissione debba essere contemporanea. Il paradosso (rivendicato dal bergsonismo) fondamentale di questa teoria è che il passato e il presente si formano contemporaneamente, per cui, da un lato, il presente non è nient’altro che il momento più contratto di tutto il passato, dall’altro, il passato non è nient’altro che un cono il cui vertice scappa costantemente via. In questo senso la memoria è un cono che ha come suo vertice il presente e come sua base il passato: in realtà il cono può essere diviso in «sezioni», all’interno di ognuna delle quali è presente il passato nella sua interezza, a diversi livelli di contrazione. Se, come si è detto, il vertice del cono è il passato al suo livello di massima contrazione (vale a dire il presente stesso), più ci spostiamo in basso rispetto al vertice, più andiamo a cogliere il passato ad un più profondo livello di dilatazione. Ora, per Bergson, questo passato è «virtuale», nel senso che esso, pur essendo perfettamente reale, non è qualcosa che esiste «attualmente»: per «attualizzare» un ricordo è necessario dapprima installarsi in una regione del passato-virtuale, successivamente, quando questo ricordo si «presentificherà» (vale a dire verrà ad attualizzarsi sotto forma di ricordo-immagine dentro alla coscienza), avremo un qualcosa che esiste attualmente. Questo passato è perciò un «passato che non fu mai presente»: essendosi originato contemporaneamente al presente di cui rappresenta la dimensione passata, questo «Passato virtuale» ha uno statuto speciale, vale a dire che non rappresenta l’archiviazione di un «presente che è stato», ma piuttosto la configurazione virtuale di ciò che è stato. L’aspetto più interessante di questa faccenda della memoria per Bergson ha a che vedere con il fatto che questa, all’interno dello schema e dell’ontologia bergsoniana, rappresenta il cuore della «produzione di novità»: è attraverso l’attivazione di un circuito mnemonico complesso, mediante il richiamo di questo passato virtuale che il flusso di azione/reazione che ha luogo nella «materia-immagine» (questa l’espressione usata da Bergson nel celeberrimo primo capitolo di Materia e Memoria per riferirsi alla realtà come puro piano di immanenza) subisce un contraccolpo, un arresto, che produce un ritardo. Il «centro d’indeterminazione» (la coscienza) produce uno scarto dentro all’inesorabile e necessario procedere della «materia-immagine»: dentro un processo di azione/reazione all’interno del quale questa coppia è assolutamente im-mediata (cioè automatica, priva di qualsiasi mediazione), compare un ritardo, un arresto, che intacca la «necessità» del prodursi dell’azione/reazione. È qui, in effetti, che sorge il tempo: la celebre formula «il tempo è ritardo» non vuol dire null’altro che questo. È nell’arrestarsi dell’azione, nel ritorno di una coscienza su un passato e quindi nell’elaborazione di una reazione «mediata» ad uno stimolo esterno che sta la «produzione di novità», ossia l’instaurarsi di una temporalità. Finché questo non avviene, rimaniamo nel puro regime di un presente perpetuo che non conosce storia, non conosce passato e perciò non conosce futuro.

Il tempo è dunque ritardo e quindi «memoria»: come interpretare questo campo mnemonico, questo cono della memoria? Ci tornano utili i concetti mutuati dalla matematica cui fa sovente riferimento Deleuze: questo cono dobbiamo immaginarcelo come un insieme di punti le cui coordinate non possono essere individuate estrinsecamente rispetto alla loro distribuzione (come se fossimo dentro un piano cartesiano). Citando Ruyer, il cono della memoria è uno spazio di «auto-sorvolo», una superficie assoluta che in qualche modo si auto-affetta: la memoria allora ha come sua caratteristica sostanziale il fatto di non essere una struttura «pesante»: la sua architettura è mobile, la sua configurazione è presa in un incessante divenire.

Ma come funziona la memoria quando il presente pone questioni di cui non siamo capaci di recuperare nessuna traccia? L’incapacità di rispondere alla domanda posta da un futuro sconosciuto è speculare alla novità (non pre-vedibile) che emerge dal sistema attuale-virtuale: la stessa cosa vista una volta dal futuro e l’altra dal passato. L’imprevedibilità del mio (ma anche di quello della natura) concatenare un passato virtuale al presente attuale è quella stessa faglia, quell’assenza di visibilità che incombe su di noi sotto forma di futuro.

Definito per sommi capi il concetto di memoria di Bergson, vien da chiedersi: che cos’è un dataset (il «pezzo» di big data all’interno del quale l’algoritmo svolge il suo lavoro), se non un «passato che non fu mai presente»? Il dato è precisamente la trascrizione, la traccia, di un evento: non è l’evento in quanto tale, ma è piuttosto una maniera di interrogarlo. Questo significa anche che il dato non è prodotto interamente dall’utente di cui pure è la descrizione, ma sta piuttosto a metà tra l’utente è l’interfaccia che interroga e analizza i suoi comportamenti: la questione della proprietà dei dati è una faccenda più complessa di quello che sembra. Ad ogni modo è chiaro come il dato non sia una mera registrazione: Facebook, Google, Spotify decidono arbitrariamente quali sono i parametri di cui è importante tenere traccia, e il dataset andrà a costituirsi proprio sulla base dei dati che emergono da questa parametrizzazione: proprio come nel cono della memoria di Bergson, i dati possono interagire tra di loro indipendentemente dalla distanza che li separa. Le correlazioni possono emergere fra tendenze che a prima vista ci sarebbero parse lontanissime: è il caso di ricordare di nuovo la correlazione tra acquirenti di feltrini per tavolini e buoni pagatori di mutuo scoperta da una banca Londinese. Allo stesso modo, la memoria algoritmica, proprio come la memoria bergsoniana, si auto-affetta: l’operato dell’algoritmo (poniamo: quello di Discover Weekly) influenza la stessa sostanza di cui è composto. Gli ascolti degli utenti (che sono la sostanza dell’indagine che l’algoritmo compie) sono influenzati dai consigli che lo stesso Discover Weekly propina, in un meccanismo di autorafforzamento costante. È chiaro che questo meccanismo si basa sull’afflusso costante di una qualche forma di energia esterna: ogni giorno vengono caricate milioni di canzoni su Spotify, così come vengono indicizzate miliardi di nuove pagine web da Google. Lo scopo, è evidente, è quello di annullare quello spazio di oscurità, di imprevedibilità, per dare finalmente corpo ad una mathesis universalis al servizio del Capitale. Già Lazzarato, una ventina di anni fa, nel suo Videofilosofia, rilevava una correlazione tra tempo (o memoria) bergsoniano e «produzione di novità. Se la potenza che in qualche modo controlla la «produzione del nuovo» è fondamentalmente una potenza di tipo temporale – la «memoria» – da chi è detenuta questa potenza a livello sociale? La risposta di Lazzarato è simile a quella che da Stiegler: il controllo della «memoria virtuale» della società è detenuto dai media. Sono questi infatti a determinare le connessioni che si stabiliscono tra i nostri tempi: sono i media a ricollegare un evento con un altro, sono i media che attualizzano dei ricordi e li fanno entrare dentro a un certo flusso. I concatenamenti che la società mette in atto sono fondamentalmente prodotti dal sistema mediale, che così «racconta» e dà forma al mondo.

Mi sembra evidente come questo ruolo, che Lazzarato vedeva giocato dai media in generale e dalla TV in particolare, sia oggi (ed a maggior ragione nel futuro prossimo) interamente ad appannaggio di coloro i quali sono al comando dell’enorme datification contemporanea: sovvertire questo processo, immaginare una gestione socializzata e creativa del dataset, preservare l’incrinatura che presiede il darsi di ogni a-venire, è l’unica missione possibile per contrastare tanto la normalizzazione del nostro presente quanto la colonizzazione del nostro futuro.