Ipermusica Manifesto

Qual è il ritmo degli iperoggetti? Come tradurre in suono quanto non è umanamente concepibile? Appunti e ipotesi per una musica neurodiversa, capace di processare i sensi in maniera complessa e a volte impossibile

Leggere Iperoggetti di Timothy Morton è senza dubbio un’esperienza trasformativa. Non solo per i temi che tratta e le riflessioni a cui induce il lettore, ma anche per lo stile – visionario, lisergico – con cui è scritto. L’esperienza è ancora più coinvolgente se si è musicisti. Questo perché nella sezione L’età dell’asimmetria Morton illustra vari esempi di musiche che a suo dire rappresentano degli iperoggetti. Qualsiasi lettore – ma a maggior ragione un musicista contemporaneo che sia interessato a produrre qualcosa di innovativo – può rimanere sconcertato dal vedere esempi così distanti quali – per citarne solo due – La Monte Young e i My Bloody Valentine rappresentare forme di iperoggetti musicali (o ipermusica, in breve).

Nel suo libro, Morton tratteggia le cinque caratteristiche fondamentali degli iperoggetti: la viscosità, la non-località, l’ondulazione temporale, il phasing e l’interoggettività. Tuttavia fallisce nell’applicare queste caratterizzazioni in maniera analitica agli esempi musicali che menziona, per cui si ha la netta sensazione che il giudizio di Morton derivi dalla sua propria – e unica – esperienza soggettiva. Il che può essere deludente, soprattutto per chi volesse tentare di crearla, una ipermusica.

In una nostra recente chiacchierata, nell’ambito del progetto di interviste di dTHEd, Riccardo Papacci, autore de Elettronica Hi-Tech – Introduzione alla musica del futuro illustra questa situazione:

«Leggendo le descrizioni iperboliche di Morton si è spesso tentati di immaginare una musica che sia caratterizzata da potenza e impeto. Lo stesso Morton sembra sfiorare questa suggestione quando cita My Bloody Valentine, Eliane Radigue, Wolves In The Throne Room, tutti artisti che a loro modo mettono in luce una personale prospettiva di imponenza. Probabilmente però, questo è giusto solo in parte. L’iperoggetto è infatti usato da Morton a mo’ di strumento concettuale in riferimento a entità spaziali e temporali che non sono alla portata dell’essere umano. La tentazione di pensare la potenza deriverebbe quindi da questa vastità indefinita che l’iperoggetto porta nella sua essenza.

Una hypermusic davvero autentica, almeno da quel punto di vista, dovrebbe essere qualcosa di indecifrabile dall’orecchio umano. Viene da sé che, qualora si riuscisse a performarla, il suo grado di godibilità sarebbe quantomeno discutibile. Si è costretti quindi a ricorrere a una hypermusic più – per così dire – “espressionista”. Probabilmente chi nei primi anni Settanta ha avuto la fortuna di ascoltare i primi lavori del minimalismo americano si è inconsapevolmente trovato al cospetto di una vera e propria ipermusica, se si considera quanto fondamentale fosse la dilatazione del tempo in quel genere.

Quindi, per essere analitici, si dovrebbe lavorare su spazio e tempo? Non necessariamente, ma credo sia fondamentale avere la pretesa di creare nuove forme, soprattutto sfruttando la tecnologia di cui si dispone.»

A conti fatti Morton sembrerebbe l’unico al mondo a poter decretare quale musica rappresenti una forma di iperoggetto. Eppure le sue cinque caratteristiche appaiono abbastanza oggettive. La sfida allora è tentare di lavorare a una musica che in qualche maniera rappresenti o si ispiri a queste proprietà. La domanda diventa dunque: è possibile? E se sì, cosa significa creare una musica che sia viscosa, non-locale, interoggettiva, soggetta a ondulazione temporale e phasing? Sono domande che forse non hanno risposte definitive, ma è proprio il tentativo di fornire risposte a quesiti così bizzarri che ci ha indotti a seguire un territorio di ricerca particolare. E sfruttando la tecnologia a oggi disponibile, abbiamo provato a creare qualcosa di nuovo.

dTHEd

Non-località

Come concepire una «non-località» in musica? Come creare una forma di «atemporalità» del suono, quando il suono è così intimamente legato al tempo? Una musica che idealmente possa esistere sempre, pur non esistendo in un dato istante? Una musica che sia estremamente estesa nel tempo e nello spazio? Questi sono alcuni dei temi su ci si può interrogare, partendo dalle parole Morton.

Si entra dunque nel territorio della metafisica del suono, materia di un altro libro le cui considerazioni si sono rivelate di grande ispirazione per il lavoro di dTHEd, il saggio di Vincenzo Santarcangelo e Elvira Di Bona: Il Suono, l’esperienza uditiva e i suoi oggetti

Nel loro libro, Di Bona e Santarcangelo ripercorrono in maniera puntuale le teorie più importanti sulla metafisica del suono. Per Strawson ed altri filosofi, i suoni sono chiaramente localizzati nel tempo (si veda ad esempio lo scambio di opinioni fra Strawson ed Evans sul cosiddetto No Space World, trattato dettagliatamente ne Il Suono). Un suono non può «sparire» dalla scena senza «morire». Non pensiamo – o non possiamo concepire – che un suono sia semplicemente uscito dal nostro orizzonte per un determinato lasso temporale. O il suono esiste, o non esiste. Una non-località sonora sembrerebbe quindi un’assurdità, una contraddizione in termini. 

A meno che non si immagini dei suoni eterni

Il saggio di Di Bona e Santarcangelo ricorre spesso ad una disanalogia importante, quella fra uditivo e visivo, tuttavia non menziona un fatto fondamentale: la nostra esperienza di vita è condizionata dall’essere sempre letteralmente immersi in campi elettromagnetici. Non ugualmente in campi di onde sonore. Le onde sonore non sono pervasive.

L’idea di creare un’installazione acustica che perduri per il maggior tempo possibile, che trascenda il concetto stesso di tempo e idealmente possa suonare per sempre, può fornire una prima rappresentazione di non-località temporale sonora. Una musica eterna o immortale. Una specie di sole sonoro

Nella Dream House di La Monte Young e Marian Zazeela

Ambienti infiniti

Un esempio emblematico che si muove in questa direzione è la famosa abitazione sonora di La Monte Young e Marian Zazeela, The Dream House: un locale, un ambiente, dove il suono non cessa mai, ed è in costante relazione con un’installazione di luci, attraverso opportuni rapporti di frequenze. 

«We can think of the Dream House as a way in which we can find another environment that can influence our lives. Imagine generations being born in the Dream House, children born there, knowing almost nothing else, or they can go outside if they want, they can do whatever they please. But the fact that they were born in the Dream House, that they lived there for lifetimes, and their parents lived there and their grandparents lived there. It would allow a new way of thought processing and it would allow people to transcend beyond the kind of life that we live.» (La Monte Young, A Conversation with La Monte Young, Marian Zazeela and Jung Hee Choi)

Una domanda che sorge spontanea nel riflettere su un ambiente come questo è: in che senso può essere considerato «infinito»? Il semplice suonare senza tregua di per sé non appare poi così speciale. Un loop sonoro di 2 secondi adeguatamente alimentato può continuare a emettere il suo canto finché il meccanismo che lo sostiene non viene interrotto (o si rompe). Forse non la considereremmo musica. Questo esempio ci porta a riflettere sul fatto che per avvicinarsi davvero a un’idea di musica eterna (ipermusica?), il nostro intelletto fa appello anche alla necessità che vi siano delle variazioni. E queste variazioni… possono essere infinite? È molto probabile che, dati i mezzi a disposizione a suo tempo, La Monte Young non avrebbe potuto costruire un sistema in grado di produrre variazioni senza tregua, producendo musica originale per sempre. 

Esistono tali esempi oggi? 

Una prima risposta, prettamente ecologica, è rappresentata dalle cosiddette sculture sonore, installazioni costruite per interagire con agenti atmosferici (vento, pioggia, mare, ecc.), producendo suoni e/o note. Questo tipo di installazione, oltre a essere completamente site-specific, è in balia degli elementi naturali e quindi può anche non produrre nessun suono udibile per molto tempo. Rappresenta però un’evoluzione interessante del famoso quesito di Berkley sull’albero che cade in mezzo alla foresta senza nessuno che lo possa sentire. Adesso abbiamo anche le sculture sonore in mezzo alla foresta… suonano anche se non c’è nessuno?

La natura non è solo un incessante movimento di forze atmosferiche che può azionare meccanismi sonori, ma è anche fonte costante di dati numerici. Pressione locale, temperatura, umidità, livello degli oceani, quantità di CO2 nell’atmosfera, ecc. sono tutti dati che monitoriamo ogni secondo che passa. E che possono essere sonificati. 

John Luther Adams, The Place Where You Go Listen

The Place Where You Go to Listen è un’installazione audiovisiva permanente del compositore americano John Luther Adams, situata all’interno del Museum of the North in Alaska, in cui i dati relativi all’ecosistema circostante vengono costantemente tradotti in suoni. Il sistema è estremamente complesso poiché agisce su molteplici livelli: il ciclo giorno/notte – entrambi associati a un «coro», il primo diurno (di tonalità maggiori) e il secondo notturno (di tonalità minori), le posizioni del sole e della luna –  l’orbita di quest’ultima è delicatamente marcata da un glissando periodico (che dura esattamente quanto il periodo lunare); se il cielo è terso, le armonie si sviluppano su 4 ottave, mentre se è coperto solo su 2; l’attività geosismica aziona delle percussioni mentre le fluttuazioni del campo magnetico sono associate alle Aurora Bells, i suoni più brillanti dell’installazione; e via dicendo.

Esattamente come l’interoggettivià del riscaldamento globale fa sì che possa essere misurato solo indirettamente, così The Place Where You Go to Listen resituisce una musica a partire da sorgenti quasi inconoscibili, che trascendono le nostre facoltà sensoriali. Per dirlo con le parole di Francesco Bergamo, autore de Il Disegno del Paesaggio Sonoro

«ll visitatore si trova a fare esperienza di un esterno, per molti aspetti inconoscibile, dall’interno di un modello che lo rappresenta. L’installazione di John Luther Adams avvicina il punto d’ascolto del visitatore a qualcosa di simile all’orecchio impossibile, assoluto e disincarnato, che Gilles Deleuze desiderava. Rende udibili processi che non sono di per sé accessibili al sensorio umano.»

The Place Where You Go to Listen produce una musica cangiante, sempre diversa, che non solo testimonia l’attività in tempo reale di una porzione del nostro pianeta, ma dà voce a come tale attività si estremizza nel corso del tempo, sonificando – forse involontariamente – proprio gli effetti dell’iperoggetto par excellence: il cambiamento climatico.

Infine, l’esempio forse più attuale di musica «infinita» è quella che che sfrutta l’apprendimento di reti neurali per generare output senza tregua. Esistono già moltissimi siti e app che offrono la possibilità di creare musica con l’ausilio del machine learning. E per quanto rudimentali possano sembrare i risultati odierni, non è difficile immaginare un futuro prossimo in cui le intelligenze artificiali saranno la fonte principale di ciò che ascoltiamo, potenzialmente, senza sosta. Esperimenti come questo del MIT, in cui vengono sonificate strutture molecolari – anche con l’ausilio dell’intelligenza artificiale–, fanno intravedere un futuro in cui ciascuno di noi potrebbe ascoltare un’ipermusica iperpersonalizzata: letteralmente cucita addosso in base alla propria biologia individuale.

Piove per sempre

Ancora prima di aver immaginato installazioni come quella di Adams o che l’intelligenza artificiale fosse una realtà concreta, una risposta già veniva formulata teoricamente dalla musica generativa. Il termine, popolarizzato da Brian Eno, è utilizzato per identificare una musica che sia sempre diversa, in continuo mutamento e potenzialmente perduri all’infinito (rimandiamo qui alla lettura di A Year with Swollen Appendices). 

L’esempio della musica generativa ci interessa più degli altri perché si pone eminentemente al di fuori di ambienti ecologici. Come Morton auspica un’ecologia senza natura, così forse l’ipermusica è tale poiché nega l’ecologia. O ancor più: è tale in quanto si colloca al di fuori della musica stessa.

I paralleli fra musica generativa e musica creata con reti neurali sono evidenti e si sovrappongono (si confrontino ad esempio le app: Reflection, Bloom:10 Worlds, Refraktions, Impro-AI). Questo perché il termine «musica generativa» non indica una formula rigida, un processo predefinito, ma si concentra sul risultato. E ha origini precise.

Nella sua splendida presentazione online, Tero Parviainen ripercorre le tappe che da It’s Gonna Rain di Steve Reich hanno portato Brian Eno a sviluppare uno dei dischi più importanti della seconda metà del Novecento, Ambient 1: Music for Airports, e successivamente lo hanno avvicinato alle idee base della musica generativa, passando per The Game of Life di Conway, fino alle sue app. 

Sia It’s Gonna Rain che Music for Airports utilizzano un sistema meccanico generativo per creare la composizione. Reich utilizza due bobine che vanno a velocità leggermente diverse, mentre Eno, partendo dall’intuizione di Reich, utilizza sette loop molto lunghi, che sono fra loro in rapporti incommensurabili:

«Music for Airports, at least one of the pieces on there, is structurally very, very simple. There are sung notes, sung by three women and myself. One of the notes repeats every 23 1/2 seconds. It is in fact a long loop running around a series of tubular aluminum chairs in Conny Plank’s studio. The next lowest loop repeats every 25 7/8 seconds or something like that. The third one every 29 15/16 seconds or something. What I mean is they all repeat in cycles that are called incommensurable — they are not likely to come back into sync again.» (Brian Eno, Generative Music)

Brian Eno, Music for Airports

C’è chi si è fatto i conti e dice che i loop di Eno in realtà in sync ci tornano, ma dopo circa 27 giorni. Tuttavia, la natura squisitamente analogica dei loop a nastro permette di realizzare rapporti davvero incommensurabili, poiché il taglio dei nastri produce quasi sicuramente sempre lunghezze irrazionali (ad esempio, è possibile creare un loop lungo pi greco secondi – ci vuole molta fortuna, ma è teoricamente nel novero delle possibilità). Questa meravigliosa caratteristica, nel mondo digitale – e in particolare nel mondo degli step sequencer – si può solo approssimare, come vedremo più avanti. E fa sì che la probabilità che i loop fatti con bobine tornino davvero in sync sia pressoché nulla.

«The thing about pieces like this is that they are actually of almost infinite length. They simply don’t reconfigure the same way again. This is music for free in a sense. The considerations that are important, then, become questions of how the system works and most important of all, what you feed into the system.» (Brian Eno, Generative Music)

Eno, come suo solito, coglie un aspetto fondamentale della questione: il fulcro della composizione a questo punto non è più sulla scrittura, bensì sul sistema generativo scelto e su cosa si decide di dargli in pasto. Se si riflette sul potenziale di questa tecnica per produrre musica originale che non può essere messa su spartito, appare quasi paradossale che non sia stata applicata pressoché ovunque. Non sono poi così tante le composizioni che sfruttano questo sistema. Eno ovviamente ne ha fatto ampio utilizzo.

Terry Riley, In C

Metodi e prodotti

Il metodo utilizzato da Eno per i suoi lavori di ambient music è interpretabile come una serie di regole, ovvero un algoritmo, relativamente semplice:

  1. Parti al tempo t = 0 sec 🡪 suona una nota ogni 23,5 secondi 
  2. Parti al tempo t = 5 sec 🡪 suona un’altra nota ogni 25,875 secondi 
  3. Ecc.

Questa serie di regole può essere ovviamente applicata a qualsiasi gruppo di suoni, producendo ogni volta un’opera musicale diversa, ma sempre identica a se stessa

L’idea di musica algoritmica non è certo nuova e non richiede un computer per essere messa in pratica. Né Reich con It’s Gonna Rain, né Eno con Music for Airports, avevano un computer sotto mano. Il punto è il metodo generativo, cioè l’insieme di regole che definisce un particolare processo e che determina un risultato. Una caratteristica del tipo di metodi generativi descritti fin qui è quella di creare opere statiche. I prodotti nascono da un processo generativo, ma non sono generativi essi stessi. 

Come è possibile creare prodotti generativi, ovvero prodotti che, pur seguendo tutti lo stesso processo, risultino sempre diversi? Introducendo nella procedura la possibilità di effettuare decisioni diverse in tempo reale (vedi alla voce: John Cage, Cornelius Cardew, musica aleatoria, ecc.). Questo può essere attuato impiegando il caso (algoritmi che contengono al loro interno funzioni random, un tiro di dadi, ecc.), o facendo sì che gli esecutori abbiano la flessibilità necessaria per cambiare la composizione in corso d’opera, pur rimanendo fedeli alle istruzioni iniziali.

Avere la possibilità di rispondere diversamente allo stesso set di regole, produce un’opera generativa.

L’esempio più lampante di quest’ultimo caso è senza dubbio In C di Terry Riley. 

L’opera presenta 53 brevissimi loop (cellule) su uno spartito, e una serie di istruzioni su come devono essere eseguiti. Non vi sono prescrizioni sugli strumenti da usare, sulla durata, sul tempo, sul numero di ripetizioni che ciascuno strumento deve eseguire, ecc. Le regole sono dinamiche e sfruttano la discrezionalità degli esecutori. In C, di fatto, possiede un’architettura aperta e non ha bisogno di un direttore d’orchestra (il movimento in avanti avviene mediante il reciproco ascolto delle varie cellule: «performers should stay within 2 or 3 patterns of each other»). 

Questa distinzione fra metodo e prodotto generativo è perfettamente illustrata nella presentazione di Tero:

It’s Gonna Rain / Music for Airports sono creati con metodi generativi, ma non sono prodotti generativi, in quanto perfettamente deterministici: ogni volta che vengono riprodotti, a patto del corretto funzionamento delle bobine, si sente sempre la stessa cosa. Una partitura che ha un inizio, una durata prestabilita e una fine. Sempre uguali.

In C invece è un prodotto generativo, in quanto è figlio di regole specifiche che permettono un margine di flessibilità tale per cui non esistono due versioni uguali dell’opera. Chiunque può usare le istruzioni (la procedura) per dare vita a un’esecuzione unica e irripetibile. (Si consiglia la lettura di questo articolo, che esplora in maniera formale l’universo di possibilità fornite dalle regole di In C.)

Ipotizzando una situazione in cui In C venga eseguita ogni giorno in diversi posti del mondo, avremmo forse un esempio di ipermusica completa: non-locale (distribuita massivamente nello spazio e nel tempo), che manifesta phasing (sempre diversa ma con lo stesso DNA – si confronti questa versione con questa o questa), viscosa (i 53 brevi loop dello spartito di In C sono un ottimo esempio di earworm), in ondulazione temporale (lo spazio-tempo è completamente sovvertito in quest’esecuzione globale) e interoggettivo (In C prende forma proprio attraverso le inter-relazioni fra i diversi loop dello spartito, l’informazione deriva da questo processo e non dai loop in sé). 

Una simile situazione trascenderebbe i nostri limiti cognitivi, così come fanno gli iperoggetti.

Mille anni, in un minuto

Utilizzando un approccio più classico all’ipermusica non-locale, l’esempio forse più riuscito di dilatazione temporale programmata è The Longplayer di Jem Finer, ex membro dei Pogues. 

Descritta molto in breve, The Longplayer non è altro che una composizione fatta con campane tibetane, che dura esattamente mille anni. Ha iniziato a suonare a mezzanotte del 31 dicembre 1999 e terminerà il suo ciclo (posto che ci arrivi viva) a mezzanotte del 31 dicembre 2999. Poi ricomincerà a suonare da capo, identica a se stessa. A differenza della musica generata da reti neurali, o da prodotti generativi, qui siamo in un campo algoritmico puramente deterministico.

Guardando i suoi appunti è palese che Finer abbia pensato subito a un polimetro (anche detto multimetro), composto da suoni diversi che viaggiano in parallelo, su battute di lunghezze in numeri primi. (Per chi fosse interessato a ripassare la differenza fra polimetro e poliritmo, qui un video didascalico/percussivo.)

Il principio che sta alla base del ragionamento iniziale è semplicissimo (in realtà poi l’algoritmo di Finer è più articolato, poiché utilizza traslazioni incrementali di inizio battuta). È nota la proprietà che il minimo comune multiplo di un insieme di numeri primi si ottiene solo con la moltiplicazione di tutti i numeri dell’insieme. 

Allora prendendo anche solo 9 «strumenti», ognuno che suona una melodia diversa sul proprio metro (il primo strumento su un metro da 3, poi uno da 5, uno da 7, ecc.) e ipotizzando tutte le note della durata di un secondo, la «canzone» che deriverà come sovrapposizione delle singole melodie si ripeterà solo dopo 3*5*7*11*13*17*19*23*29 = 3.234.846.615 secondi, ovvero poco più di 37.440 giorni, cioè circa 102 anni e mezzo! Basta aggiungere un altro moltiplicatore/strumento e arrivare a mille anni è facilissimo. Il tutto con pochissimi strumenti e pochissime melodie individuali, delle quali la più lunga dura poco meno di un minuto.

Ecco così che 1000 anni sono contenuti, pre-esistono, all’interno di una manciata di melodie, tutte di pochi secondi.

Jem Finer, Longplayer

 «Longplayer is composed in such a way that the character of its music changes from day to day and — though it is beyond the reach of any one person’s experience — from century to century. It works in a way somewhat akin to a system of planets, which are aligned only once every thousand years, and whose orbits meanwhile move in and out of phase with each other in constantly shifting configurations. In a similar way, Longplayer is predetermined from beginning to end — its movements are calculable, but are occurring on a scale so vast as to be all but unknowable.»  (Jem Finer, Composition in time)

Da confrontare con le parole di Morton sugli iperoggetti: 

«L’intensità della traccia estetica dell’iperoggetto sembra irreale proprio in virtù della sua luminosità; la sua intensità fa sembrare le entità più piccole: persone, paesi, persino continenti, diventano un’illusione o una microscopica macchia colorata su una vasta superficie scura.» (Timothy Morton, Iperoggetti)

O anche: 

 «Gli iperoggetti si allungano nel tempo fino a raggiungere un’estensione così vasta che diventano quasi impossibili da cogliere concettualmente.» (Timothy Morton, Iperoggetti)

Nella sua semplicità e tremenda profondità, The Longplayer è l’opera che forse meglio illustra l’idea da cui siamo partiti noi per la creazione degli iperritmi contenuti in hyperbeatz vol. 1. (Finer non è l’unico che si è posto il problema di creare un’opera deterministica di durata molto vasta. L’altro esempio famoso è il lavoro di Brian Eno January 07003: Bell Studies for the Clock of the Long Now. In quest’opera Eno lavora su sequenze diverse di colpi di campane da far risuonare a mezzogiorno di ogni giorno, per i prossimi 10.000 anni. Per fare ciò, ricorre al calcolo combinatorio (il numero di combinazioni possibili con n campane diverse è dato dal fattoriale di n: n! Ad esempio 5! = 5 x 4 x 3 x 2 x 1 = 120). Entrambi i metodi, quello di Finer (minimo comune multiplo di numeri primi) e quello di Eno (fattoriale) producono valori giganteschi nel giro di pochi numeri: 10! = 3.628.800 sequenze. Se suonate 1 al giorno, queste sequenze vanno avanti per quasi 10.000 anni senza ripetersi. Da confrontare con la moltiplicazione dei primi 9 numeri primi che fornisce 3.234.846.615. Ovviamente anche quest’opera può essere – ed è stata – riformulata come algoritmo. Chiunque può suonare quando vuole la sequenza di un particolare giorno, attraverso questo sito. Qui un articolo interessante sul progetto.)

Un estratto da hyperbeatz vol. 1 dei dTHEd

L’ipermusica (forse) non è musica

È da notare questa affermazione sul background teorico di The Longplayer

«While Longplayer is most often described as a 1000 year long musical composition, the preoccupations that led to its conception were not of a musical nature; they concerned time, as it is experienced and as it is understood from the perspectives of philosophy, physics and cosmology. At extremes of scale, time has always appeared to me as baffling, both in the transience of its passing on quantum mechanical levels and in the unfathomable expanses of geological and cosmological time, in which a human lifetime is reduced to no more than a blip.» (Jem Finer, Conceptual background)

Come per The Dream House, It’s Gonna Rain, e altri casi illustri di opere minimaliste, l’ipermusica di Finer non ha granché a che fare con la musica in sé, ma è più che altro una riflessione filosofica sulla natura del tempo, sulla percezione, sul significato culturale della musica, della sua fruizione e di come questi mutano nel corso della storia dell’umanità. Esattamente come gli iperoggetti bucano l’orizzonte concettuale che dà un senso alle nostre azioni, un’ipermusica deve in qualche maniera azzerare il senso stesso della nostra fruizione locale, temporanea, dei suoni. 

La questione principale di The Longplayer non è sonora, ma è di sopravvivenza. Come possiamo fare in modo che l’opera arrivi intatta al 2999? Poiché la musica di The Longplayer è già interamente finita, sebbene non eseguita, la sua sopravvivenza per permetterne l’esecuzione diventa il suo più grande problema. Inoltre l’opera introduce una simpatica variante del quesito di Berkeley: come possiamo essere sicuri che The Longplayer stia effettivamente suonando ora

Le risposte a questi due quesiti sono idealmente fornite da The Longplayer Trust – una società creata col solo scopo di rendere l’opera sostenibile (economicamente e fisicamente) e traghettarla in fondo al primo ciclo di 1000 anni senza interruzioni. Chiunque, mediante la loro app o via streaming sul loro sito, può collegarsi e ascoltare una porzione dell’opera che – se tutto va bene – si ripeterà uguale fra 1000 anni. Con buona pace dei dilemmi del vescovo empirista. E chiunque può donare alla causa. 

The Longplayer rappresenta quindi un’epopea, un’impresa titanica in cui l’umano – tutti gli umani – sfidano il tempo, la filosofia, la percezione, l’ingegneria, ecc. Ma c’è di più: la sfida è anche antropocentrica. The Longplayer dovrà vedersela anche contro l’inquinamento, il riscaldamento globale, i terremoti, gli incendi, i conflitti, e così via. La musica è forse del tutto sparita da questo quadro.

Il progetto dTHEd parte anch’esso da un concetto astratto, non-musicale: è uno studio teorico sulla percezione neurotipica del ritmo. Uno degli obiettivi era creare dei pattern ritmici deterministici che fossero insuonabili da un essere umano (ipercomplessi) ma anche non concepibili/anticipabili mentalmente. Che non potessero essere «contenuti» nemmeno al livello cognitivo. Così come Finer afferma che The Longplayer è al di là della portata dell’esperienza di qualsiasi persona, dTHEd afferma che gli iperritmi vanno al di là di ciò che è neurotipicamente eseguibile e concepibile.

Ed esattamente come The Longplayer, un iperritmo teoricamente può durare migliaia di giorni prima di ritornare alla battuta iniziale. 

Rapporti complessi 

Anni fa ci imbattemmo in un video estremamente inusuale. Partendo dalla famosa quinta perfetta di Pitagora che in nuce contiene l’idea della Just Intonation, passando per il teorema di Dirichlet sull’approssimazione di numeri reali mediante opportuni razionali, il video mette in relazione un teorema fondamentale di topologia matematica e la nostra percezione musicale:

Nel video si illustra come esistano delle frazioni che, solo guardandole, intuitivamente già sappiamo che suoneranno bene. Ovvero che l’accordo corrispondente fra frequenze in quel rapporto sarà più armonioso di un quello prodotto fra frequenze che sono in rapporti più strani. Ad esempio, frequenze che sono in rapporti di: 3/2 (una quinta giusta), 4/3 (una quarta) o 8/5 (una sesta maggiore) a occhio sappiamo essere più armoniose di frequenze che sono in un rapporto come 211/198. Non serve sentirlo per saperlo. Ma perché?

L’argomento è esposto utilizzando dei pattern ritmici, dei clock. Poiché le sinusoidi (frequenze pure) sono periodiche, possono essere trattate come segnali ripetitivi, percussivi. È facile intuire che il cervello riesce ad «agganciare» la ripetizione di un pattern semplice (4 cicli vs 3 cicli, si riprendono dopo 12 cicli) mentre probabilmente non riesce a farlo con un pattern complesso (1093 cicli vs 826 cicli, si riprendono dopo… fatevi pure il calcolo). 

È per questo che un simile rapporto fra note ci suona disarmonico. O un beat privo di senso ritmico. 

«After all, maybe someone with a particularly acute musical sense, would be able to hear and find pleasure in the pattern resulting from more complicated fractions, like 23/21 or 35/43, as well as numbers closely approximating those fractions. […] Suppose there is a musical savant, who finds pleasure in all pairs of notes, whose frequencies have a rational ratio, even the super-complicated ratios that you and I would find cacophonous… Isn’t the case that she would find all ratios (…) harmonious? Even the irrational ones? After all, for any given real number, you can always find a rational number arbitrarily close to it…» (3Blue1Brown, Music and Measure Theory)

Pattern ipercomplessi, irrazionali, che risultino armoniosi per… dei savant? Neurodiversi? Ecco. Questa è un’idea forte.

Ma… è possibile creare pattern ritmici con colpi che cadono vicino a numeri irrazionali, trascendenti? La risposta è: certo. Se invece di usare dei suoni ambient Eno avesse registrato delle percussioni, l’incommensurabilità delle lunghezze dei nastri avrebbe messo questi colpi in rapporti irrazionali, creando degli iperritmi.

La cosa è anche approssimabile con gli step-sequencer tipicamente utilizzati in musica elettronica, i quali lavorando con numeri interi, sono confinati nel mondo dei numeri razionali. Questo perché il teorema di Dirichlet ci assicura che per ogni numero irrazionale, esistono infiniti numeri razionali che approssimano quel valore. Ad esempio, la semplice frazione 22/7 approssima il pi greco con una differenza dell’ordine di 0,001 – cioè i due numeri sono estremamente vicini

«Autism», dell’artista extratone Diabarha

Capacità intrinseca, limiti

I nostri sensi sono limitati dalla nostra neurobiologia. Essi producono quella che definiamo «esperienza» di vita sintetizzando/mediando molteplici stimoli: gerarchizzando, classificando, semplificando e approssimando secondo quella che è stata la nostra evoluzione biologica di millenni. L’esempio ben conosciuto: 24 fotogrammi al secondo (frame per seconds, fps) – una sequenza di immagini statiche, che se riprodotte in ordine coerente a quella velocità, producono l’illusione del moto ai nostri occhi. Tuttavia, se il movimento reale avviene a una velocità/frequenza molto maggiore di 24 fps, è possibile che venga «catturato» in una sequenza per cui, quando riprodotto, mostrerà un movimento opposto a quello reale. È il cosiddetto wagon-wheel effect, dovuto all’aliasing temporale. Non solo vediamo movimento da una sequenza di immagini statiche, ma lo vediamo svolgersi in verso opposto a quello reale! Il nostro cervello trae informazioni dagli stimoli che riceve e formula decisioni, come può; come ha imparato a fare, per sopravvivere.

Si può argomentare che l’udito sia un senso più raffinato della vista, e per sondare analoghi limiti è necessario raggiungere ordini di grandezze ben diversi. Il genere musicale extratone è un esempio di come si può produrre un effetto simile tramite singoli colpi ripetuti. Portando i beat per minute (BPM) oltre 1000, l’orecchio non riesce più a percepire il silenzio fra i singoli colpi, ma inizia a udire una nota emergere dal pattern. Il cosiddetto extra-tono.

Ma aumentare la velocità è solo uno dei modi che esistono per sfidare la percezione. Nel suo libro Il Quark e il Giaguaro, Murray Gell-Mann illustra un fatto relativamente ovvio, che è sempre bene tenere a mente: ogni sistema ha una sua capacità intrinseca di gestione dei dati. Lavorando sotto il limite, con l’aumentare dei dati, aumenta il livello di informazione del sistema. Più dati si introducono, più informazione è contenuta nel sistema. Semplice. Ma una volta oltrepassato il limite massimo, il sistema non riesce a gestire altri dati. Per cui, passato un certo limite, introducendo ulteriori dati, la quantità di informazione sintetizzata/contenuta nel sistema inizia a diminuire

È possibile usare un simile stratagemma in termini musicali? A che pro?

Griglie che mentono

It is hard to tell a lie in rhythm. (Justin London, Hearing in Time, p.64)

Nel suo splendido libro Hearing in Time, Justin London ripercorre lo stato dell’arte degli studi sulla percezione del ritmo e formula le sue personali condizioni per definire un «ritmo ben formato» (Well Formedness Conditions). Il libro è di una densità specifica pazzesca, impossibile da riassumere, ma alcuni concetti sono fondamentali per capire l’idea che sta dietro alla ricerca dei ritmi contenuti in hyperbeatz vol. 1

London sostanzialmente spiega come e perché (secondo ciò che conosciamo oggi) avviene la sincronizzazione ritmica. Entrainment, in inglese. Servono pochissimi secondi di ascolto di un ritmo semplice per agganciarlo mentalmente e poterlo anticipare, prevedere. Un po’ più di tempo per pattern complessi o poliritmi. Ma è comunque una cosa quasi istantanea, soprattutto se il ritmo che stiamo ascoltando è costruito su stilemi che appartengono al nostro bagaglio culturale. Tutti ci siamo ritrovati a «battere il piedino» involontariamente. Cosa sta accadendo in quel momento?

London separa due concetti ben distinti: ritmo e metro; noi useremo la parola «griglia» per non confondere il lettore con l’uso abituale della parola «metro» in musica, che si riferisce alle battute 4/4, 6/8, ecc. e che abbiamo usato anche noi prima. 

Il ritmo rappresenta la struttura degli stimoli acustici reali, i suoni emessi dalle sorgenti, che si collocano nello scorrere del tempo e raggiungono il nostro orecchio; la superficie sonora. La griglia invece è qualcosa di astratto, che deriva dalla percezione e cognizione individuale. È la nostra personale rielaborazione degli stimoli. La griglia dipende dalla nostra neurobiologia, dai nostri meccanismi sensomotori. È il risultato di un comportamento attentivo, anticipatorio. L’esistenza della griglia è il motivo per cui una sincope produce un effetto estraniante, un «inciampo» uditivo, poiché lo stimolo acustico reale si posiziona al di fuori della nostra griglia mentale, senza nessun preavviso.

«Agganciare» un ritmo in sostanza significa creare una griglia mentale mentre questo sta suonando e con essa generare una serie di picchi attentivi che corrispondono all’anticipazione di eventi sonori, basati su invarianti temporali dell’immediato passato. Quando i picchi attentivi sono soddisfatti dall’arrivo dello stimolo, si crea quell’effetto dopaminico che solo la musica, il ritmo, possono donarci. La griglia permette di sincronizzare i nostri processi biologici con gli stimoli sonori. Ma, come abbiamo ricordato, la nostra biologia ha dei limiti. Per cui il nostro entrainment si muove all’interno di confini percettivi e cognitivi ben precisi, e attinge costantemente dal contesto culturale in cui veniamo cresciuti, dalle nostre esperienze musicali. 

Al di fuori di questi confini, esistono quindi griglie impossibili, poiché non sono generabili dalla nostra neurofisiologia neurotipica, esattamente come esistono lingue impossibili, di cui non possediamo naturalmente i Language Acquisition Devices (LAD). Siccome sia i LAD sia l’entrainment ritmico sembrerebbero meccanismi innati, derivanti dalla neurobiologia del cervello neurotipico, ci si potrebbe chiedere se le condizioni di well-formedness di London non rappresentino una proto-grammatica neurotipica del ritmo. 

Tornando a Gell-Mann e alla capacità intrinseca di un sistema, se un pattern ritmico è di una complessità tale da oltrepassare il limite cognitivo neurotipico – o usa regole al di fuori di un’ipotetica grammatica naturale – ci si può ritrovare in una situazione in cui il cervello è costretto a semplificare perché non riesce a collocare tutti gli stimoli e quindi a prevederli. Il cervello non sa cosa «agganciare» quando crea la sua griglia. O meglio, non riesce a creare una griglia. Questo, teoricamente, potrebbe produrre uno scollamento, una dispercezione, fra ciò che viene effettivamente emesso dalla sorgente e quello che viene riconcepito mentalmente in un affannoso rincorrere degli stimoli. Troppi dati: l’informazione diminuisce.

Pur non essendo facilmente dimostrabile, al livello teorico è dunque possibile che mentre si ascolta un iperritmo, il cervello neurotipico lo modifichi temporaneamente per renderlo più fruibile, decodificabile. Ciò che pensa di stare ascoltando non è ciò che sta suonando. È forse questo un esempio di chimera uditiva? O rappresenta solo uno dei tanti modi con cui il cervello neurotipico filtra, categorizza, gerarchizza e ci «illude» – come per i 24 fps –, regalandoci il nostro senso di realtà? 

Su un disco l’effetto di un brano contenente ritmi simili ovviamente diminuisce ad ogni successivo riascolto, poiché sopravviene la memoria. Il che induce a pensare che la percezione di un ritmo con queste caratteristiche sia più simile alla percezione di una melodia, poiché non avviene mai un vero entrainment ritmico, se non al livello della pulsazione fondamentale (che è nascosta, mai palesata), mentre, una volta imparato, è forse possibile «cantarlo». È dunque un’esperienza in parte fuori dal ritmo, quella degli iperritmi. Un’esperienza che costringe a modificare l’oggetto sonoro per poterlo gestire. 

Andrea Moro, autore de Le Lingue Impossibili, racconta che, prendendo parte ad esperimenti che utilizzano tecniche di neuroimaging, lui e i suoi gruppi di ricerca hanno mostrato che «se si insegnano lingue che non hanno strutture ricorsive, il cervello le riconosce e non attiva le reti neuronali tipiche per il linguaggio umano.» Similarmente si potrebbero tentare esperimenti di neuroimaging associati all’ascolto di iperritmi per vedere se, analogamente a quello che accade negli esperimenti di Moro, musicisti (e non) a cui viene fatto ascoltare un pattern «sgrammaticato», potrebbero attivare aree neuronali diverse rispetto a quelle tipiche dell’entrainment ritmico.

Dedicated to all neurodiverse individuals

Ritmi (per) neurodiversi: iperritmi

Non esistono molti studi sulla neurobiologia della percezione del ritmo, ancor meno fatti con neuroimaging, ma da ciò che si è visto finora, i cosiddetti gangli della base giocano un ruolo fondamentale (si veda ad esempio qui e qui). Queste scoperte stanno aprendo un campo di ricerca nel mondo della musicoterapia, nella riabilitazione motoria e nel trattamento di disordini neurologici quali Parkinson, ecc. Da un punto di vista più astratto, è interessante notare che la neurodiversità è spesso associata ad un’alterazione proprio dei gangli basali. È anche frequente la difficoltà di molti neurodiversi con il linguaggio – situazioni in cui i LAD non sembrerebbero essere presenti o funzionare in maniera ottimale. Seguendo questa linea di pensiero, ci si potrebbe chiedere – proprio come il savant di prima – se per i neurodiversi le grammatiche impossibili e i ritmi sgrammaticati non rappresentino invece un qualcosa di possibile, o addirittura naturale.

Questa è chiaramente solo un’ipotesi, ma è lecito immaginare che per un neurodiverso l’entrainment ritmico possa avvenire molto diversamente da come avviene per i neurotipici. Se questa premessa è vera, è anche lecito immaginare che un beat che formi una griglia sgrammaticata, apparentemente fuori tempo, fatta di colpi vicino a numeri irrazionali/trascendenti – un iperritmo – possa essere percepito come regolare, o addirittura rilassante da un neurodiverso. Mentre per i neurotipici è un trip ansiogeno, una sincope incessante che non permette alcun entrainment e genera solo disorientamento. Non è un caso se alcuni individui neurodiversi sono ipercinetici: il mondo sensoriale può essere più gestibile per loro se filtrato attraverso il costante e imprevedibile movimento.  

La difficoltà epistemiologica di questi discorsi risiede nel fatto che, a differenza dei neurotipici, i neurodiversi sono tutti davvero estremamente diversi tra loro. Per cui qualsiasi considerazione è gioco forza ad personam. Ma non fa male tentare un approccio al ritmo e alla musica che prenda queste ipotesi in analisi, perché permette di lavorare su paradigmi davvero inediti.

Gli iperritmi dunque cosa sono? Sono forse ritmi (per) neurodiversi? Ritmi impossibili? È difficile dare una risposta precisa. Senza dubbio per noi sono stati il pretesto per ragionare sui limiti fisiologici e cognitivi di individui neurotipici. Ma rappresentano anche il tentativo di produrre sugli stessi individui neurotipici una sovrastimolazione sensoriale simile a quella vissuta costantemente dai neurodiversi.

Siamo partiti con la sfida di tradurre in musica una delle caratteristiche degli iperoggetti (la non-località); abbiamo appreso come i metodi generativi possano produrre sistemi altamente complessi; l’esempio di Finer ci ha indicato come creare misure vastissime con numeri primi; incorporare la complessità disarmonica di frazioni vicine agli irrazionali ci ha permesso (forse) di creare griglie e grammatiche del ritmo impossibili, superando le possibilità cognitive ed esecutive dei neurotipici; infine siamo approdati a una rappresentazione delle alterazioni percettive dei neurodiversi. Così nascono i nostri hyperbeatz.

D’altra parte, chi scrive qui è convinto che la neurodiversità sia essa stessa un iperoggetto: il cerchio per noi si chiude in maniera precisa. Non a caso, il nostro disco contiene queste parole a cui siamo molto legati: 

«Inspired by alternative sensory processing and hyperobjects. Dedicated to all neurodiverse individuals.» (dTHEd, hyperbeatz vol. 1) 

Buon ascolto.