Nuovo Rinascimento Cibernetico

Scienza, negromanzia e tutti gli altri ordigni linguistici capaci di trasformare il mondo

Nel suo profetico e ormai celebre Spillover, David Quammen racconta di come, nel 1916, il premio Nobel per la medicina e scopritore della malaria Ronald Ross presentava in un articolo la sua teoria matematica sulle epidemie. Durante le sue ricerche, Ross aveva spostato via via il suo interesse sempre più verso un’astrazione e una generalizzazione dei modelli matematici utilizzati nello studio, arrivando a formulare una «teoria degli eventi» generale, capace di descrivere e prevedere la diffusione di qualsiasi fenomeno che si diffondesse nella popolazione da un individuo a un altro, «come i pettegolezzi, il panico o le infezioni». Soprattutto in questi mesi di pandemia, nella ricerca e nella divulgazione scientifica è emersa una tendenza simile attorno al controverso concetto di infodemia, tramite il quale, anche grazie agli strumenti della network analysis, si è cercato di costruire modelli matematici capaci di spiegare e prevedere la diffusione di eventi in un grafo, indipendentemente dalla natura degli eventi in sé.

Più in generale, nell’ultimo mezzo secolo questo approccio è stato determinante per l’emersione di una tendenza, se vogliamo affine a quella che viene chiamata scienza della complessità o dei sistemi complessi: una tendenza a studiare fenomeni umani e sociali tramite le tecniche e i linguaggi delle cosiddette «scienze dure». Vale a dire tramite una matematizzazione e una formulazione simbolica astratta, e in quanto tale capace di promettere un’applicazione sempre più generale rispetto al campo in cui era stata inizialmente elaborata. Attorno a questa tendenza sono anche già emersi nei decenni scorsi vari dibattiti interni alla comunità scientifica e accademica, e spesso – come nel caso della Teoria delle Catastrofi di Thom – è stato difficile introdurre nuovi approcci e nuovi paradigmi in ambienti con metodologie già consolidate.

Le implicazioni della codificazione della sfera sociale non riguardano solo la messa in discussione dell’efficacia di questi medesimi metodi o la loro stabilità alla luce dei tanti elementi coesistenti in un sistema complesso, ma implicano una riflessione politica sul loro ruolo nel giustificazionismo delle teorie economiche liberiste e delle imposizioni finanziarie. Ruolo che assumono godendo del mito di oggettività e, appunto, partendo dalla pretesa di neutralità delle scienze formali.

Come conclude Quammen, nel paragrafo dedicato alla matematica delle epidemie, Ross ottenne sicuramente molti risultati efficaci nel contrasto delle malattie infettive, ma forse non all’altezza delle sue aspettative:

Con tutte le sue onorificenze, il suo genio matematico, la sua combattiva ambizione e la sua ossessiva capacità di lavoro, Ronald Ross non riuscì a sconfiggere la malaria, né a progettare una strategia che conducesse alla vittoria finale. Forse avrebbe dovuto capire da solo il perché: la malaria è una malattia davvero complessa, con profonde implicazioni sociali ed economiche, oltre che ecologiche, dunque presenta problemi che un’equazione differenziale a volte non è in grado di cogliere.

Atomi senzienti, leggi sociofisiche, governo del calcolo

Seppur si possa ricondurne l’origine agli anni Trenta con i sociogrammi di Jacob Levi Moreno, è solo alla fine del ventesimo secolo che la network science ha conosciuto un aumento di interesse in applicazioni e ricerche. L’idea alla base è utilizzare la teoria dei grafi, quindi strutture matematiche composte da nodi e link, per rappresentare fenomeni di interazione, quali possono essere relazioni di conoscenza, scambio di informazione (che avvengano tra persone, cellule o server), o rappresentazioni topologiche di sistemi di trasporto. L’avvento della network science, e quindi la sua «intromissione» nei vari campi del sapere dovuta alla sua promessa interdisciplinarità, ha fatto fin da subito arricciare qualche naso, scatenando un dibattito. Da un lato se ne sottolineava la natura di teoria generale che astraeva un essere umano a un nodo mancando di considerare il ruolo della volontà, quindi il ruolo dell’attore sociale. Dall’altro lato c’era chi vedeva in questa scienza un modo per determinare e quantificare gli effetti che le interazioni tra attori sociali apportano anche alla volontà dell’attore stesso, in un processo di individuazione al contempo singolare e collettiva.

Il ruolo della rete, e una presa di posizione più netta rispetto al peso determinante della relazione, sono inoltre le basi della Actor Network Theory di Latour e Callon, ancora una teoria che tratta di attanti, che siano soggetti animati o meno, un fondamento che allargando lo sguardo è caratteristico di un campo disciplinare tanto vasto e variegato al punto che ancora è difficile tracciarne i confini e darne una definizione. Actor Network Theory che in questi tempi si può comunque dimostrare centrale nella comprensione di quel mondo in cui umano e macchinico sono sempre più indistinguibili: la cibernetica.

Dal greco kybernḗtēs, «pilota di navi», per cibernetica si intende un insieme di studi, tra loro anche differenti per metodologie e strumenti, compiuti da autori di varie epoche e origini geografiche, accomunati da una ricerca votata alla formulazione di una teoria dei sistemi sia naturali che artificiali. Uno sforzo teorico dallo spirito fortemente interdisciplinare e spesso antiaccademico nel quale si sono affrontati temi come l’auto-organizzazione dei sistemi complessi, il ruolo dell’informazione e l’intelligenza artificiale.

Tra gli autori più noti – e talvolta persino citato come fondatore della cibernetica – c’è Norbert Wiener, matematico statunitense collaboratore di Claude Shannon. Con Shannon, Wiener ha formulato la teoria dell’informazione, e ha pubblicato testi come Controllo e Comunicazione nell’animale e nella macchina, Introduzione alla cibernetica e Dio & Golem SpA – Cibernetica e religione.

Tra i suoi concetti cardine c’è quello di feedback, il meccanismo di retroazione negativa che consente a un sistema (animale, centralina elettrica, rete neurale artificiale che sia) di autocorreggere un processo secondo una valutazione costante dell’errore e del guadagno. In letteratura e secondo una certa convenzione, quella di Wiener viene considerata in realtà la prima ondata della cibernetica, cosiddetta «di primo ordine», rispetto a una seconda cibernetica,  quella diffusasi negli anni Cinquanta a partire dal lavoro di vari studiosi come il sociologo Beer, lo psichiatra Ashby, biologi come Maturana e Varela, l’inventore del percettrone McCulloch, il fisico Foerster e l’antropologo filosofo Bateson. A differenziare questi due ordini di cibernetica era il maggior interesse per il ruolo storico dello scienziato; la «seconda cibernetica» può essere considerata, quindi, una ricerca volta non solo all’oggetto della ricerca stessa ma anche al soggetto che ricerca. Talvolta si trovano pure riferimenti a una cibernetica del terzo ordine, per identificare le più recenti attenzioni verso il mondo dei sistemi complessi e delle reti, soprattutto per il loro aspetto legato all’ambiente e all’ecologia.

Seppur apparentemente appartenenti a un altro ramo, per premesse e orizzonti, possiamo considerare simili alla cibernetica anche altri studi, come l’approccio frattale all’economia di Mandelbrot e di conseguenza le varie diramazioni dell’econofisica, o la fisica sociale di cui già parlavano Henri de Saint-Simon e il suo allievo August Comte, riferendosi a «una scienza che si occupa di fenomeni sociali, considerati allo stesso modo dei fenomeni astronomici, fisici, chimici e fisiologici». Ma la lista potrebbe addirittura proseguire.

Il concetto di sistema autoregolatore, come abbiamo visto presente fin dagli albori della cibernetica, è stato particolarmente considerato dagli economisti. Friedrich Hayek dichiarò che la cibernetica come disciplina poteva aiutare a comprendere «l’auto-organizzazione dei mercati». Hayek, del resto, era in contatto con studiosi dei sistemi complessi come Prigogine e Bertalanffy, e più volte dichiarò di trovare utili le categorie della cibernetica, anche nella sua nota rielaborazione delle teorie smithiane. Siamo di fronte a un caso storico in cui è evidente che un certo utilizzo della formulazione algebrica della sfera sociale può implicare una sorta di giustificazionismo di teorie politiche come quelle neoliberiste. E del resto, innegabilmente proprio la quantificazione e la datificazione del sociale a cui assistiamo ogni giorno portano con sé una prospettiva di controllo sociale, disumanizzazione, passioni tristi, sfruttamento. E addirittura fu lo stesso Wiener, durante la Grande Guerra, che assistendo all’uso strumentale della macchina bellica nei confronti delle sue teorie sulla comunicazione, diventò un impegnato pacifista.

Alla luce di ciò è non solo legittimo ma necessario chiedersi, quindi, quanto una scienza dei sistemi possa essere sviluppata mantenendosi vigile rispetto ai rischi di oggettivazione e neutralità, costruendo un’apertura verso l’esterno, restando critica verso sé stessa, ed eventualmente quanto questa scienza possa essere utile per un’auto-organizzazione diversa da quella, per esempio, dei mercati finanziari.

Per iniziare ad avvicinarci a una risposta, credo valga la pena soffermarsi su altri due casi storici spesso dimenticati: la cibernetica sovietica di Bogdanov e il progetto cileno Cybersyn.

Tornato di recente in auge per la sua narrativa fantascientifica con le traduzioni di «La stella rossa», «L’ingegner Menni e altri racconti», Aleksandr Bogdanov fu uno dei fondatori del bolscevismo, influente intellettuale, nonché medico pioniere delle trasfusioni di sangue e fondatore di un’organizzazione per la cultura proletaria, il Proletkult.

Protagonista importante della rivoluzione del 1905, Bogdanov era un raffinato teorico del marxismo (sua la prima traduzione in russo del Capitale) ed era interessato alla scienza e all’epistemologia. Tra il 1904 e il 1906 pubblicò in tre volumi Empiriomonismo, nel quale partendo dalle teorie empiriocriticiste di Mach e Avenarius e dagli studi sul linguaggio di Ludwig Noiré, tentava una sintesi dei metodi delle scienze naturali e filosofiche con le teorie marxiste, generando attriti e contrasti con alcune posizioni dello stesso Lenin. Anni dopo, tra il 1912 e il 1917, arrivò la sua opera più originale, la tectologia o Scienza dell’Organizzazione, una formulazione dei principi organizzativi posti a fondamento della struttura di tutti i sistemi, viventi o meno. Guidato da una visione olistica e senza perdere il contatto con la sfera politica, tentò di unificare scienze sociali e fisiche, anticipando di molti anni aspetti che sarebbero emersi con la cibernetica statunitense da Wiener in poi. 

Ambiente, congiunzione, linkage, ingressione, disingressione, margine, crisi, selezione, equilibrio, egressione e degressione sono i concetti chiave della tectologia. Come riporta Wark McKenzie in Molecular Red, dove dedica un intero capitolo al filosofo russo, «prima che i sistemi possano interagire, unirsi o distruggersi a vicenda, viene prima la loro congiunzione. I sistemi si incontrano al margine. Niente è interamente discreto. Questo è il principio base del monismo di Bogdanov». La rivoluzione è una rottura nei margini sociali di classi diverse, l’ebollizione dell’acqua una rottura del margine fisico tra il liquido e l’atmosfera, la propagazione di una cellula vivente la creazione di un margine vitale tra le sue parti che acquistano dipendenza, la morte una rottura del margine vitale…

Nel suo saggio Dall’empiriomonismo alla tectologia, Giulia Rispoli ripercorre la storia e quindi somiglianze e differenze della scienza dell’organizzazione con le altre teorie sistemiche tedesche (Bertalanffy) e cibernetiche statunitensi (Wiener): 

Un primo distacco della Scienza generale dell’Organizzazione di Bogdanov si evidenzia per la completa assenza di un apparato esplicativo assiomatico […], l’intenzione di Bogdanov era tesa alla sistematizzazione della conoscenza mediante un modello intuitivo, facilmente applicabile.

La matematica per Bogdanov era cioè un complesso neutrale utile per interpretare i sistemi come fossero niente di più che la somma delle loro parti. Era quindi evidente da parte sua una mancanza di quella ricerca quasi spasmodica di un formalismo matematico a garanzia della «scientificità» dell’apparato teorico.

Per quanto riguarda i concetti, in Bogdanov non esiste una netta distinzione tra ordine ed entropia, come invece tende a definire la teoria dell’informazione, così come l’equilibrio è in realtà un falso equilibrio, poiché un sistema si troverà in continua fase di attraversamento di vari stati di equilibrio. Nella tectologia non si affronta la descrizione dei sistemi dal punto di vista statico, cioè in quei momenti in cui la struttura è fissa e inscindibile, ma si ricorre a modelli interattivi dei sistemi attraverso i loro scambi: «l’unico tratto essenziale dal punto di vista organizzativo dell’insieme è la nozione relativa al rapporto tra il sistema e il suo ambiente che cambia», scrive Bogdanov.

Non è da dimenticare che le teorie che Bogdanov stava sviluppando puntavano a essere applicate ed esperite sul campo, e furono infatti utilizzate nell’elaborazione degli schemi matematici impiegati per la pianificazione economica dell’URSS negli anni Venti.

Il binomio tra scienza sistemica e pianificazione economica ci porta al secondo caso storico, a mezzo secolo e 14mila km di distanza: Stafford Beer.

Beer nacque a Londra il 25 settembre del 1926. Dopo gli anni da militare in India collaborò con vari enti di ricerca e sviluppo, per poi lavorare come consulente e coltivare il suo interesse per la tecnologia e i sistemi sociali. A metà del 1971, Beer fu contattato da Fernando Flores, un alto membro della Corporazione per lo Sviluppo e la Produzione Cilena (CORFO), organismo dell’appena eletto governo socialista di Salvador Allende. Flores era interessato alle teorie di management di Beer e lo invitò a partecipare alla programmazione economica dello sviluppo cileno.

Allende e il suo governo, insieme a Flores, volevano portare il Cile verso il socialismo attraverso un processo inedito, distante dall’esperienza sovietica come pure da quella cinese. Sia Flores che Beer credevano nella scienza e si erano interessati alla prima cibernetica, convincendosi che potesse essere un vero strumento per l’organizzazione sociale attraverso la tecnologia. 

Flores e Beer arrivarono così con le loro ricerche a formulare l’ambizioso progetto Cybersyn, un computer che grazie all’analisi dati avrebbe dovuto aiutare la pianificazione economica cilena.

Cybersyn consisteva in una camera di controllo (Operation Room) realizzata in un sotterraneo a Santiago: un maxischermo circondato da poltrone ergonomiche dal design futuristico. Il computer era collegato in rete per controllare un network di sensori sparsi sul territorio nazionale e rilevare così dati in tempo reale. Le fabbriche, le miniere e la logistica dovevano fornire informazioni a un centro di raccolta per poterle elaborare e autoregolare i processi. In un articolo sul New Yorker del 2014, Morozov riconduce a Cybersyn le origini socialiste dei big data: «prima di decidere i prezzi, stabilire le quote di produttività o spostare le riserve di petrolio, puoi vedere cosa comporterà la tua decisione».

Una componente del progetto era dedicata a «Cyberfolk», uno strumento per tracciare in tempo reale i sentimenti e le opinioni della popolazione cilena così da poterne tenere conto in sede decisionale. Beer costruì dispositivi simili a voltmetri, che ogni abitante avrebbe dovuto tenere in casa per indicare il suo grado di soddisfazione verso il governo su una certa scala, e inviare così il suo valore alla macchina centrale. Beer, inoltre, sviluppò il cosiddetto Viable System Model (VSM), un modello di struttura organizzativa di un sistema capace di autoriprodursi. Il VSM era composto da vari sottosistemi interagenti, ognuno dei quali mappava una specifica funzione vitale. Il modello viene ancora periodicamente utilizzato nella ricerca dei sistemi complessi e talvolta nella letteratura in ambito manageriale.

Un prototipo della stanza venne realizzato a Santiago a partire dal novembre 1972, per diventare operativo nell’aprile dell’anno successivo. L’8 settembre del 1973 Allende diede l’ordine di spostare la sala dei bottoni direttamente all’interno della Moneda, il palazzo presidenziale. Il trasloco tuttavia non venne mai effettuato, perché dopo appena tre giorni le truppe di Pinochet, sostenute dai servizi segreti statunitensi, posero fine nel sangue all’esperienza del governo cileno di Allende. Un esperimento lasciato in sospeso che lancia ancora all’immaginazione la sfida dell’ucronia.

Abracodeabra: cosa può una formula

Ci siamo finora soffermati su quei casi storici in cui con «spirito scientifico» si è tentato di unificare, tramite un metodo, vari campi del sapere. Possiamo tuttavia trovare ben prima del diciannovesimo secolo altri esempi in cui un pensiero computazionale, nella sua accezione combinatoria, accompagnava la ricerca di una scienza o di un’arte universale.

Nel 1879, per esempio, ristrutturando un tetto dell’Università di Göttingen, alcuni operai scoprirono una misteriosa macchina abbandonata, un manufatto dotato di cilindri d’ottone e manici di quercia che si rivelò essere la calcolatrice universale costruita da Leibniz. Un macchinario capace di compiere tutte le possibili operazioni aritmetiche e l’estrazione di radice.

Il sogno leibniziano, mai realizzato, infatti era quello di costruire una macchina ancora più potente, una macchina per il calcolo universale, vale a dire capace di esprimere in simboli e formule qualsiasi ragionamento logico deduttivo. Partendo da premesse assiomatiche e condivise da tutti, la sua macchina avrebbe potuto risolvere qualsiasi dibattito o controversia semplicemente applicando una serie di regole codificate.

È il suo Dissertatio De Arte Combinatoria del 1666, dove si esplora la sua «arte delle combinazioni», il metodo capace di generare idee e concetti, che lo avrebbe condotto alla «scoperta di tutte le cose». Meccanicismo e olismo, quindi, ancora una volta.

A suscitare questa idea nella testa di Leibniz fu molto probabilmente la lettura delle opere di Raimondo Lullo, filosofo, logico e mistico maiorchino che con la sua Ars Magna del 1308 delineò una forma di analisi e argomentazione basata sulla permutazione di pochi e fondamentali elementi. Anche Lullo, appunto, sognava questa sorta di matematica delle idee, capace di riconoscere il vero dal falso e dedurre qualsiasi possibile scoperta. E il sogno si riconduceva a sua volta alla zairja araba medievale, un processo algoritmico di «magia delle lettere». Scrive Paolo Rossi in Clavis Universalis a proposito di Lullo: 

La scomposizione dei concetti composti in nozioni semplici e riducibili, l’impiego di lettere e di simboli per indicare nozioni semplici, la meccanizzazione delle combinazioni tra i concetti operata per mezzo delle figure mobili; l’idea stessa di un linguaggio artificiale e perfetto è quella di una specie di meccanismo concettuale che si presenta una volta realizzato come assolutamente indipendente dal soggetto umano; questi ed altri caratteri dell’Ars Combinatoria hanno fatto sì che gli storici abbiano considerato la combinatoria all’origine della moderna logica formale. 

Debitore di Lullo è d’altronde Giordano Bruno, che da lui attinse le idee per le ruote mnemoniche e quindi per il suo lavoro sulla mnemotecnica. La scienza delle combinazioni come nuova teoria del linguaggio è stato un topos ricorrente fin dai Ching (verso i quali lo stesso Leibniz mostrava interesse), o ancora dalla Cabala, dal Talmud della tradizione ebraica, gli Arcani dei Tarocchi…

Sebbene si riconosca una matrice comune nella ricerca di un universale tramite la formulazione combinatoria, questi esempi ante litteram di teorie cibernetiche mostrano, a differenza di quelle più recenti citate prima, una più evidente propensione verso il magico.

Per quanto sia impossibile dare una definizione a un concetto di senso comune, poiché la lingua non è un sistema assiomatizzato, possiamo provare a delimitare generalmente il campo che intendiamo in questo caso per magia. Cercando di includere una buona serie di casi a cui si fa riferimento con questo termine, possiamo intendere per «magia» innanzitutto un potere altamente trasformativo del linguaggio, o meglio la capacità di un certo linguaggio, scritto o verbale, di plasmare e modificare la realtà ben oltre le classiche aspettative. 

Inoltre, se confrontiamo la scienza e la magia rispetto alla nostra conoscenza dei meccanismi che intercorrono nella trasformazione del reale, potremmo persino dire che la magia è quel processo di trasformazione che interviene per volontà di un soggetto senza che vi sia particolare o benchè minima conoscenza di come quella trasformazione possa avvenire.

Ritornando ai giorni nostri, e guardando alla smodata fiducia nelle tecnologie di analisi dati e machine learning, potremo quindi riconoscere conseguentemente un approccio «magico» nell’affidarsi alla black box dell’intelligenza artificiale. Questo perché sempre più tendiamo a sviluppare metodi decisionali e predittivi dei quali ignoriamo gli ingranaggi specifici interni. Inoltre, anche alla luce dei ragionamenti precedenti, il formalismo matematico assomiglierà da questo punto di vista sempre più a un linguaggio magico, capace di condensare il reale in virtù della sua forma.

Economisti come Christian Marazzi hanno parlato di una svolta linguistica del Capitale e dei mercati, riferendosi alla smaterializzazione della finanza e alla sua sempre più dipendente connessione con l’evoluzione dell’opinione pubblica, dei sentimenti, della parola (potremmo in effetti chiamarla svolta magica visto che in futuro al Capo del Mondo basterà pronunciare la formula «Facebook fa schifo» per far perdere punti al titolo in borsa).

È questo il nucleo della teoria degli enunciati performativi di Austin – enunciati che coincidono con l’azione stessa, «io prometto», «io scommetto» – che entrano nell’economia quando denaro e linguaggio si mescolano già orientati verso una dinamica futura, e la «scienza» finanziaria si traduce in negromanzia.

E ritornando quindi ai segni matematici e al potere del linguaggio differenziale, c’è proprio una formula, o meglio una coppia di formule, che al momento della loro enunciazione evocarono un incantesimo di scala globale, al quale si riconduce l’inizio della finanza moderna.

Grazie all’interazione con fisici e matematici, negli anni Settanta vari economisti iniziarono ad applicare modelli propri della meccanica, come il modello del moto browniano, per descrivere e prevedere il prezzo delle azioni. In quegli anni la fauna di prodotti finanziari si era arricchita notevolmente, a partire da quando nell’autunno del 1968 si era stipulato il primo contratto in cui era presente un cosiddetto derivato, un prodotto finanziario il cui valore «deriva» da un altro asset finanziario detto sottostante. Come stabilire e indovinare il prezzo di queste azioni era un dilemma che stava mostrando la complessità sempre maggiore nel colosso finanziario. A dare una risposta al problema furono Fischer Black e Myron Scholes, che nel 1973 pubblicarono un loro modello per attribuire il giusto prezzo alle opzioni, mettendo in sicurezza sul piano matematico, e così giustificando, il mercato finanziario. Ma, come ripercorre Gallino nel suo Finanzcapitalismo, «i sistemi che studiavano e di cui predicevano i movimenti erano stati costruiti da loro stessi». Applicato alle opzioni sin dalla sua pubblicazione nel ’73, il modello sembrò deviare in misura considerevole dai dati previsti per almeno due anni. Tra l’estate del 1976 e quella del 1978 arrivò tuttavia a prevedere i prezzi dei contratti con deviazioni non superiori al 2 per cento. I traders, conoscendo il modello, utilizzavano le sue previsioni per decidere quali scambi effettuare, offrendo e acquistando contratti a prezzi che fossero più vicini possibili a quelli che il modello indicava si sarebbero dovuti determinare. In sostanza i traders avevano realizzato ex post la veridicità della formula prendendola per vera, «il modello non aveva descritto la realtà di un mercato: l’aveva creata». Se vuoi chiamala magia, se vuoi iperstizione. Non a caso Black e Scholes ricevettero il Premio Nobel per l’Economia solo nel 1997, decenni dopo la pubblicazione della propria formula.

Gallino continua osservando che ogni performatività comporta una contro-performatività: se una teoria risulta vera non perché descrive la realtà indipendentemente da sé ma perché tramite un sistema di attori genera una realtà compatibile con quella modellizzata, la realtà diventa fortemente dipendente da questi attori e dalla fiducia che hanno nel modello stesso, e quando questa fiducia va in frantumi i risultati sono quelli a cui abbiamo potuto assistere nelle crisi di inizio millennio.

La formula magica di Black-Scholes

Algofobia e svolta psichedelica

«Quello che possiamo sentire oggi è che l’invasione degli automatismi tecnici ha penetrato e tende a paralizzare la capacità di vivere l’affettività in maniera felice», ci avvisava Bifo Berardi nel suo panel al Wired Next Fest 2020

Questo non significa che gli automatismi, l’algoritmo, la tecnologia, siano cattivi in sé… il problema è che l’algoritmo, poveretto, lo chiamiamo sempre in causa come se fosse un animale cattivo. Non è un animale e non è cattivo, è un prodotto della mente umana, è un’astrazione che muove astrazioni e concretezza. Il problema è in questo processo: chi, cosa, quale è, per così dire, il generatore di tutti i mutamenti e tutti gli automatismi? Se quel generatore è l’ossessione della crescita economica infinita andiamo a finire malissimo. Se il maestro generale, il grande cervello, è la felicità umana, allora agli algoritmi potremmo ricominciare a volere bene. Oggi siamo nel pieno di questo collasso, di questa paralisi, di questa soglia, è una soglia questa: la pandemia è un collasso e una paralisi.

C’è senza dubbio, come è evidente anche dalle criticità sollevate rispetto alle teorie sistemiche quando varcano la soglia della sfera sociale, un timore rispetto all’intromissione del calcolo nella vita umana, una passione negativa, forse addirittura una pulsione di morte, verso l’algoritmo, il numero in quanto fine della peculiarità individuale e soggettiva. Al tempo stesso, quasi paradossalmente, nell’enfasi degli albori delle scienze olistiche, c’è una tensione all’infinito, all’ignoto, alla ricerca di un’essenza. Tuttavia, per ragioni storiche, forse questa direzione ha collimato con una razionalizzazione dovuta alla prepotenza che il linguaggio formale ha assunto all’interno del sapere scientifico.

Ma se per Max Weber il disincantamento è la scomparsa dal mondo di ciò che è misterioso e incalcolabile, può essere possibile quindi elaborare una teoria dell’organizzazione capace di reincantare il mondo?

Per provare ad abbozzare una risposta è bene partire da alcune considerazioni. Innanzitutto, a fare da denominatore comune tra un certo olismo e una geometrizzazione dell’umano è la dispersione del soggetto nell’ambiente, caratteristica che nel loro Run. Forma, vita, ricombinazione Franco Berardi e Alessandro Sarti associano anche al pensiero psichedelico: «dal surrealismo fino alla musica acida, la cultura psichedelica ha cercato di ricostruire l’emergere della forma dall’interno dell’organico stesso». E ancora, proprio ripensando ai dibattiti interni alle scienze cibernetiche o alle teorie di rete, è bene considerare che «la psichedelia ci dice che la coscienza è secrezione di materia neuronale capace di proiettare mondi coi quali interagiamo». 

Dissoluzione dell’io, dell’attore, nel modello complesso, quindi.

Da questa condizione i processi narrativi ricombinanti dell’OULIPO, come la geometrizzazione della natura delle estetiche frattali, ci portano a rivedere una possibile algoritmizzazione della vita come approccio alla scoperta dei processi, più che una forma di sovradeterminazione scientista. Tra gli autori che più hanno rimarcato le affinità tra pensiero cibernetico e stati alterati di coscienza c’è sicuramente Timothy Leary, che nel suo visionario Caos e Cibercultura non manca di tracciare anche la linea rossa con il pensiero magico, ma anche un autore come Gregory Bateson ha spesso rimarcato l’importanza delle sue esperienze con l’LSD nell’approccio alla sua visione sistemica della filosofia della mente.

Se consideriamo, poi, come attributo della categoria del magico anche il suo aspetto di esperienzialità diretta di un mondo nascosto, possiamo considerare la sua attiguità con quello che è il pensiero psichedelico, inteso come rapido mutamento della percezione del mondo, senza che vi sia necessariamente un’elaborazione razionale del cambio di paradigma. 

La posta in gioco reale diventa a questo punto non tanto l’elaborazione di una modellizzazione più efficiente, quanto invece la sottrazione dalle mani dell’efficienza della ricerca di una visione d’insieme, capace di trovare il proprio linguaggio di espressione più idoneo a raccontare e al tempo stesso di conservare la complessità, proponendo un ruolo del soggetto nell’ambiente in questi tempi di disastro ecologico, eventualmente cercando prospettive e direzioni oltre le porte della percezione.