Bbbeetthhoovveeenn

Nel 2002 il compositore scandinavo Leif Inge ha realizzato digitalmente una espansione temporale della Nona Sinfonia di Beethoven portandola alla durata di 24 ore, senza distorsioni o variazioni di altezza. Considerando che la durata normale della Nona si aggira intorno ai 67 minuti (ma dipende dal direttore: può anche superare i 70′ e arrivare fino a 77’16” nella versione di Kubelik del ’74), si tratta di una espansione di circa 21.5 volte.

Il titolo del brano così ottenuto è 9 Beet Stretch e suona come un continuum sonoro in lenta evoluzione, ma non così lenta da non permettere di percepire cambiamenti in tempi ragionevoli (qualche minuto al massimo, ma generalmente in tempi più brevi). Ovviamente, con questi tempi, la melodia si perde completamente e il tutto si trasforma in una sequenza di accordi, ma è interessante notare come il senso drammatico dell’armonia in gran parte rimanga.

Gli attacchi delle note sono tutti molto graduali perché non si tratta di una esecuzione rallentata, ma di uno stretching del segnale audio, quindi un attacco che in originale dura 1/10 di secondo, nella versione espansa dura 2.15 secondi. La versione utilizzata è una registrazione Naxos diretta da Béla Drahos con la Nicolaus Esterházy Sinfonia e Coro (Naxos 8.553478).

Lo stream si può ascoltare via internet dal sito di riferimento avviando il player. La trasmissione inizia all’ora in cui il sole tramonta a Vienna il 26 Marzo (le 18:16 CET), giorno e ora della morte di Beethoven, e continua 24/7. Di conseguenza, nelle giornate di ora solare, i quattro movimenti hanno i seguenti tempi di inizio (CET = central europe time, cioè il nostro fuso orario)

  • CET 18:16 movement 1 – duration 5½ hours
  • CET 23:43 movement 2 – duration 5 hours
  • CET 04:48 movement 3 – duration 5 hours
  • CET 09:24 movement 4 – duration 8½ hours

Nel periodo di ora legale, dovete aggiungere un’ora.

Reverberation as music

Un cantante all’interno del Battistero di S. Giovanni a Pisa, in Piazza dei Miracoli (quella della famose torre) utilizza le qualità acustiche del luogo per trasformare una melodia monofonica in armonia.

Il Battistero ha un riverbero di circa 15 secondi che fa risuonare ogni nota per un tempo sufficiente ad sovrapporne altre. In tal modo il riverbero assume un significato strutturale nella composizione. Ovviamente questo è solo una dimostrazione dell’acustica del Battistero, ma, come potrete sentire seguendo i link ai post collegati sotto a “potrebbero interessarti anche…), a volte vengono scritti dei brani per sfruttare le qualità di certe architetture.

Un brano scritto proprio per il Battistero di Pisa è Voci della Terra e del Cielo di Ian Costabile che si può ascoltare su You Tube. Esiste anche un brano elettroacustico progettato per il Battistero: SiderisVox di Leonardo Tarabella, eseguito nel 2006. Ne trovate testimonianza qui. Purtroppo non sono riuscito a trovare un estratto audio.

Alcune precisazioni sulle note al video: il turista pensa che quel cantante sia entrato per caso, ma non sa che queste dimostrazioni sono frequenti. In certi periodi dell’anno se ne fa una ogni mezz’ora (nelle pagina di questo video, su You Tube ne trovate parecchie). Inoltre chiama l’effetto “eco”, quando ovviamente si tratta di riverbero.

Suguru Goto in Tokyo 2016

Una testimonianza dal tour giapponese di Suguru Goto del 2016. Il video, ripreso a Tokyo, è un collage di tre brani con musica di Suguru Goto, mentre la parte grafica è stata curata da tre diversi artisti, Patrick Defasten, Lucio Arese e Antoine Schmitt.

I brani sono:

  • Body Jack, Suguru Goto music, Patrick Defasten graphics
  • CsO, Suguru Goto music, Antoine Schmitt graphics
  • Continuum, Suguru Goto music, Lucio Arese graphics

Come al solito mancano info dettagliate, ma si vede che tutti i brani potrebbero essere generati con uno dei classici software che accoppiano audio e video, come Max/Jitter o PD/GEM. O, almeno, volendo fare una cosa di questo tipo, userei uno di questi oppure metterei in comunicazione Max/PD e Processing. Tuttavia qui, trattandosi di collaborazioni live (a tratti si vede che ci sono due esecutori), è anche possibile che uno generi il suono e l’altro la grafica in modo indipendente (cioè senza comunicazione fra i due software), interagendo esattamente come due normali esecutori.

Nei primi due brani la parte grafica è totalmente generata dal computer. Quella del secondo si basa sulle particles e sa molto di Jitter. Tecnicamente, fra i primi due, sembra il più semplice da realizzare (NB: non voglio dire che sia un difetto, anzi. Il risultato è molto accattivante).

Il primo, invece, esibisce una notevole quantità di oggetti riuniti in una configurazione toroidale, che poi esplodono in altre forme. Le rotazioni non sono un problema perché non sono gli oggetti a muoversi, ma la telecamera virtuale (il “punto di vista”). Però la quantità di oggetti e la loro disposizione suggerisce qualche tipo di software specializzato.

Nel terzo, invece, si vedono muoversi delle forme quasi organiche, che ricordano le meduse ed è più difficile capire se abbiamo a che fare con una grafica totalmente computerizzata o con l’elaborazione di una qualche ripresa.

Show on Vimeo

Suguru Goto on wikipedia