David Wessel

WesselPer ricordare David Wessel, scomparso il 13 Ottobre a 73 anni, mettiamo alcune testimonianze.

Per primo, il suo brano del 1977, Anthony.

In realtà Wessel è sempre stato un ricercatore più che un compositore, difatti la sua produzione musicale è rara. Anthony è un tipico brano costruito con fasce sonore in dissolvenza incrociata ed è stato uno dei primi pezzi realizzati con le macchine per la sintesi in tempo reale costruite da Peppino Di Giugno all’IRCAM.

Quella utilizzata qui è la 4A del 1975, uno dei primi modelli, il primo ad andare oltre lo stadio di prototipo. Si trattava di un processore capace di generare in tempo reale fino a 256 oscillatori digitali in wavetable (cioè con forma d’onda memorizzata e quindi con contenuto armonico definito dall’utente) con relativo inviluppo di ampiezza. Nonostante il fatto che gli oscillatori non si potessero connettere fra loro, era un passo avanti notevole per quegli anni perché, con i sistemi analogici dell’epoca, era già difficile arrivare a 10 oscillatori (per maggiori particolari vedi le voci 4A e Giuseppe Di Giugno sul blog di Alex Di Nunzio).

Se da punto di vista quantitativo la 4A era un grande passo avanti, la qualità del suono era limitata dal fatto che non si potevano realizzare dei metodi di sintesi a spettro sonoro variabile (per es. con filtri o modulazione di frequenza), se non ricorrendo all’additiva. In Anthony, Wessel aggira questo limite evitando una caratterizzazione melodica del materiale sonoro, affidandosi, invece, a grandi cluster in lenta mutazione armonica.

Att.ne: il brano inizia molto piano. Inoltre con gli altoparlantini del computer ne sentite metà.

Un secondo contributo video riguarda l’attività di David Wessel come ricercatore interessato principalmente all’interazione uomo – macchina, tanto che nel 1985 aveva fondato all’IRCAM un dipartimento di ricerca dedicato allo sviluppo di software musicale interattivo.

Qui viene mostrato lo SLAB, uno dispositivo di controllo composto da una serie di touch pad sensibili alla posizione e alla pressione. Ogni pad trasmette al computer informazioni relative alla posizione xy del dito che lo preme e alla pressione esercitata. Il flusso di dati è ethernet, non MIDI, per cui le misure sono accurate e la risposta è veloce (questa storia del superamento del MIDI ce la porteremo dietro per la vita; per citare Philip Dick, la cavalletta ci opprime). Maggiori dati tecnici sullo SLAB, qui. Per gli impazienti, nel video la performance inizia a 2:40.

FaceOSC

FaceOSC è un tool per Mac che consente di usare l’espressione facciale rilevata da una webcam come MIDI controller. È stato realizzato da Kyle McDonald e si appoggia sul sistema Osculator, nato per collegare vari tipi di controllers a programmi audio e video.

A mio avviso, queste cose sono solo “giochini”, però lo segnalo perché non dubito che qualcuno che ci crede più di me saprà trovare una qualche applicazione interessante.

Ecco quanto riferisce l’autore, con i link da cui scaricare i software (FaceOSC e Osculator), nonché un breve video

FaceOSC is a tool for prototyping face-based interaction. It’s built on non-commercial open source FaceTracker code from Jason Saragih.

FaceOSC comes as an example app with the ofxFaceTracker addon for openFrameworks. You can download an OSX/Win binary at github.

OSCulator is an excellent program for routing OSC and MIDI. Download it at osculator.net/

Some of the “face gestures” (or metrics) are more stable than others. Lighting can also have a huge influence on the stability of your values: even lighting from the front coupled with a dark background can give the best results.

Other demos on Youtube

Korg Nano

Un trio di controller USB prodotti da Korg, utili, piccoli e abbastanza economici (€ 59 ciascuno).

  • Il nanoKONTROL ha 9 slider MIDI (controlli continui), altrettanti potenziometri, 18 pulsanti e una sezione di transport.
  • Il nanoPAD possiede 12 pad sensibili alla dinamica, ognuno capace anche di inviare fino a 8 messaggi MIDI (note o controlli). Inoltre ha un touchpad X-Y.
  • nanoKEY, infine, è una tastiera con 25 tasti, valocity sensitive, 8va mobile, pitch bender e modulation wheel.

Disponibili nei due colori visibili in foto.

Theremin come controller

Pochi sanno che la Moog ha un canale su You Tube. E non molti sanno che Moog è anche uno dei più grandi produttori di Theremin. L’ultimo modello è l’Etherwave Plus.

Recentemente Moog ha esteso l’area di utilizzo dell’Etherwave Plus, impiegandolo come controller di una apparecchiatura analogica. In questo video lo si vede controllare il filtro di una Moog guitar con l’effetto di agire sul timbro di quest’ultima.

Dal punto di vista di un elettronico, il giochino è banale perché una tensione è una tensione, da qualsiasi parte venga e da qualsiasi cosa sia generata, tuttavia mostra chiaramente come il mondo dei controller audio potrebbe essere esteso in molti modi.

The Seven Wonders of the Ancient World

“The Seven Wonders of the Ancient World” by David A. Jaffe is a piano concerto performed by a percussionist. It is the premier work for a new hybrid acoustic instrument, the “Radio-Drum-driven Disklavier,” which allows the gestural vocabulary of a percussionist to speak with the voice of an acoustic grand piano. The sound of this new instrument is massive and grand, even monumental, giving a new sense to the word “pianistic”, and is further extended by a unique ensemble of acoustic plucked string and percussion instruments. All sound is entirely acoustic and performed as it would be in a concert setting–there are no loudspeakers, electronic sound or over-dubbing.

Commissioned by a National Endowment for the Arts Collaborative Fellowship, it involved a collaboration between composer David A. Jaffe and percussionist Andrew Schloss. The two worked as Resident Artists at the Banff Centre for the Arts in 1992-1993, where they developed the new instrument and refined the solo part. The work was released on CD in October, 1996 on the Well-Tempered productions label. The premiere live performance was January 20, 1998 by the San Francisco Contemporary Music Players at the Yerba Buena Theatre in San Francisco.

This clip an excerpt from movement 5, “The Temple of Artemis.” the Mother Goddess (Ephesus, Turkey; 360 B.C.) Artemis, known also as Dianna, was the most revered and powerful goddess of Asia. Her sacred house at Ephasus inspired Philon to write, some 300 years later, “He who has laid eyes on it once will be convinced that the world of the immortal gods has moved from the heaven to earth.” The music serves as the climactic center-piece of the entire work, and is an unbridled ecstatic celebration of this goddess of wild animals to the Greeks, and of all Nature and motherhood to peoples farther East. It depicts a gradually-coalescing religious procession, focused on the carrying of the cult statue, and suggests the collisions of cultural influences that resulted as such pilgrims encountered one another, while migrating West. The musical cultural references are draw from around the world, ranging from jazz to popular music to folk musics from Ireland, Mexico, Spain and the American Appalachians, suggesting the vastness of Artemis’ influence and the rapidly-changing cosmology of the time.[Author’s notes]

Varie note sul brano sul sito di Jaffe.

New Musical Instruments: Audiopad

Audiopad has been developed by two MIT graduate students (James Patten and Ben Recht). It is one of the most interesting and futuristic musical controller ever seen in action.
Audiopad itself has its sound sample library and can play music and apply digital processing at the same time but can also control a real time synthesis software like MAX/MSP running on external computer or even a set of MIDI synthesizers.
Basically Audiopad is composed by a tabletop surface (a sort of big horizontal screen) on which different symbols and musical data are displayed. On the tabletop there are objects the performer can move. Audiopad generate music looking at the motion of that objects and their position with respect to the displayed symbols.
Depending on the software, the symbols type and their meaning can be different and so is the interaction with objects. Example: symbols can represent instruments and an object can be a melody. Moving the object on a symbol means that the performer assign that melody to that instrument. Another object can be a microphone, so moving the microphone near/far a melody or instrument raise/lower it’s volume.
Moreover the tabletop display is not static but can change when the performer moves the object on certain symbols opening new ways to the performer action.
Audiopad is very different from traditional computer interaction (the desk, monitor, keyboard and mouse model). The best way to understand it’s nature is seeing in action.
Unfortunately Audiopad is not currently for sale. The only musical interface that moves in that direction is Lemur (we’ll speak about later), but it’s only a programming touch-screen, a single step with respect to Audiopad complexity.