Rainer Bürcks Werk Flautando
Annäherung an Werk, Komponisten und Philosophie

von Miriam Arnold


Einleitung

„Flautando“ - für Flöte und Computer [für Miriam Arnold] - wurde 1998 von Miriam Arnold nach ca neunmonatiger Zusammenarbeit zwischen der Interpretin und dem Komponisten Rainer Bürck uraufgeführt. Es handelt sich hierbei um ein Werk für Instrument - in diesem Fall Querflöte - und Live-Elektronik.

In der folgenden Arbeit soll der Komponist und seine Schaffensphilosophie, seine konkrete Vorgehensweise in „Flautando“, die technischen Möglichkeiten und schließlich die Einbindung des Interpreten in das Werk näher betrachtet werden.



Philosophie des Komponierens

Ausgangspunkt und Zentrum der Arbeit von Rainer Bürck ist der Klang. So wie sich "klassische" Stücke aus Themen entwickeln, so entwickeln sich seine Stücke aus Klängen.

Strukturen sind nicht a priori fixierbar, sondern an ein Medium gebunden, das sie strukturiert. Zum Beispiel gibt es kein „Denken an sich“. Das Denken vollzieht sich jeweils in einem Medium. Begriffliches Denken ist an die Sprache gebunden. Philosophisches Denken etwa ist ohne die Sprache nicht möglich. Es ist nicht so, dass am Anfang das (philosophische) Denken steht, das sich dann in der sprachlichen Formulierung lediglich artikuliert oder konkretisiert. Im Gegenteil: Denken vollzieht sich erst in der sprachlichen Artikulierung und Ausformung.

„Das lax Gesagte ist schlecht gedacht“. (Theodor W. Adorno) . Somit kann es keine Gedanken an sich geben, die nur schlecht ausgedrückt werden. Ganz im Sinne Hegels: der Gedanke ist nur so tief, wie er sich auch sprachlich ausdifferenziert, artikuliert. Es gibt keine „Tiefe an sich“, sondern nur eine Tiefe in Bezug auf begriffliche Differenziertheit. So kann ein Gedanke nicht tiefer sein als seine begrifflich differenzierte Artikulation.

Doch es gibt nicht nur begriffliches Denken, sondern auch eine Art „musikalisches Denken“, das sich im Medium der Musik vollzieht. Und wie im begrifflichen (etwa philosophischen) Denken das Denken an ein Medium, an eine materiale Basis gebunden ist, so ist dies auch im Bereich der Musik der Fall. Und wie es verschiedene Sprachen gibt, die jeweils ein etwas anderes Denken erzeugen und ermöglichen, so gilt dies auch für die Musik.

Für Rainer Bürck gibt es also keine a priori existierenden musikalischen Strukturen und Formen. Sie sind vielmehr an eine bestimmte musikalische Sprache, an eine bestimmte kompositorische Tradition, gebunden. Wenn in vergangenen Zeiten etwa Komponisten wie W.A. Mozart am Schreibtisch eine Klaviersonate schrieben, so war dies möglich, weil sie sehr viel Erfahrung mit der musikalischen Sprache ihrer Zeit hatten und sich auch ohne Zuhilfenahme des Klaviers die notierten musikalischen Strukturen deshalb vorstellen konnten.

Musikalische Vorstellungen sind gegeben durch die sinnliche Voraberfahrung mit dem jeweiligen Material. Im Gegensatz zu der durch Plato gegründeten idealistischen Philosophie, nach der die sinnlich erfahrbare Welt nur unvollkommene und zweitrangige Abbilder a priori existierender Urbilder sind, wurde durch die empirische Philosophie [Hume, Hobbes] und die Naturwissenschaften die Existenz derartiger Urbilder in Frage gestellt. Dabei stellte sich heraus, dass sämtliche menschlichen Begriffe und das Denken auf Erfahrungen basieren und an eine materiale Basis gebunden sind.

Wenn man eine Sprache lernen will, kann man sich am Anfang nicht frei in der Sprache bewegen. Die Sätze müssen mühevoll konstruiert werden. Erst nach sehr viel Übung und Erfahrung kann man freier über eine Sprache verfügen.

In der Musikgeschichte gab es immer eine einer Epoche zugrunde liegende musikalische Sprache. Die Komponisten waren so in dieser Sprache „zuhause“, dass sie freier mit den vorgegebenen Strukturen umgehen konnten. Jedoch waren dies keine "Ideen an sich", sondern beruhten auf ausführlichen Erfahrungen mit der Sprache „Musik“.

In der neueren Zeit, ab dem 20. Jahrhundert, gab es eine zunehmende Individualisierung der musikalischen Sprache. Vor allem durch die Erfahrungen mit dem zweiten Weltkrieg, entstand das Bedürfnis, sich radikal von jeglicher Tradition loszulösen. Stockhausen beispielsweise wollte eine neue Art des Komponierens schaffen und dabei sicher stellen, dass diese von den „Fesseln“ der Klassik/Romantik losgelöst sei. Um sich jedoch davon lösen zu können, mussten neue Verfahrensweisen geschaffen werden, bei denen bewusst auf das Komponieren nach Vorstellungen verzichtet wurde.

Die serielle Technik wurde als abstrakte Verfahrensweise entwickelt, musikalische Strukturen zu schaffen, von denen sich der Komponist das resultierende Klangergebnis nicht vorstellen konnte. Die Erfahrung mit diesen Ergebnissen bildete die Grundlage für neue, von der Tradition befreite Vorstellungen. Mit der Zeit änderte sich dieser pragmatische, experimentelle Ansatz der seriellen Technik und wurde bei Stockhausen zunehmend metaphysisch: die einem Werk zugrunde liegende Proportionenreihe fungierte bei ihm als a priori existierende „Urzelle“, welche das gesamte Werk generieren und dessen Einheit gewährleisten sollte. Diese seriellen Strukturen waren für den Zuhörer jedoch sinnlich nicht nachvollziehbar, sondern bildeten quasi eine metaphysische Welt der Ideen jenseits der sinnlich erfahrbaren Wahrnehmung des Werkes.

Rainer Bürck setzt in seiner Kompositionsauffassung auf das „Erfahrbare“, auf das Erlebnis von Klangwelten und Dramaturgien. Das Werk soll durch das bloße Hören nachvollziehbar sein.



Vorgehensweise und Kompositionsprozess:

Da es für Rainer Bürck keine vorab feststehenden musikalischen Formen gibt, entsteht mit jeder Komposition durch das Klangmaterial [als materiale Basis] eine neue eigene Form, eine neue musikalische Sprache. Erster Arbeitsschritt ist es deswegen, die materiale Erfahrungsbasis herzustellen, auf der sich musikalische Ideen, Strukturen, Formen entwickeln können. Dies geschieht durch Sammeln des Materials (Aufnahmen von Klängen, Studium der Spieltechniken des jeweiligen Instruments), mit denen im Anschluss ausgiebig experimentiert wird - ähnlich einem bildenden Künstler, der auch vom benutzten Material und dessen Eigenschaften abhängig ist. Malt er in Aquarell oder Ölfarben? Macht er seine Skulptur aus Holz, Stein, Wachs oder Bronze?

So verhalten sich etwa die Klangmaterialien einer Geige völlig anders als die einer Flöte oder eines Klaviers. Zusätzlich gehen in die ästhetischen Entscheidungsprozesse bei der Auswahl des Klangmaterials und deren Verarbeitung auch allgemeine musikalische Erfahrungen mit ein. Die Empfindlichkeit gegenüber dem Mickey-Mouse-Effekt zum Beispiel resultiert aus entsprechenden Erfahrungen und aus dem Bedürfnis, Klischeebildungen zu vermeiden.

Rainer Bürck betrachtet die Einbeziehung der Elektronik bei Stücken für Instrumente und Elektronik als klangliche und spieltechnische Erweiterung des jeweiligen Instruments. Als Klangmaterial werden ausschließlich Klänge des jeweiligen Instruments verwendet. Des weiteren wird durch das vom Komponisten entwickelte MIDI Processing Program eine spieltechnische Erweiterung geschaffen, worauf an späterer Stelle näher eingegangen wird.

Das Entstehen eines solchen Werkes ist stets abhängig von einer engen Zusammenarbeit zwischen Komponist und dem jeweiligen Interpreten, so dass der Entstehungsprozess einher geht mit dem gemeinsamen kreativen Schaffen neuer Klangeindrücke und ~erlebnisse.

So steht am Anfang jeder Komposition in diesem Bereich das Experimentieren mit dem jeweiligen Instrument, wobei Rainer Bürck sich dabei als Betrachter der Möglichkeiten, die der Interpret auf seinem Instrument zur Klangerzeugung findet, sieht. Hierbei interessieren ihn neben „althergebrachten“ üblichen Klängen besonders die das traditionelle Klangspektrum erweiternde Klänge und Geräusche. Das entstehende Werk wird so dem Interpreten und seinen Spielarten quasi auf den Leib geschneidert und bindet den ausführenden Interpreten in den Schaffensprozess mit ein.

Für „Flautando“ wurde in Zusammenarbeit mit der Interpretin eine große Anzahl von Querflötenklängen und ~geräuschen aufgenommen und in einem (Roland S-760) Sampler gespeichert. Manche dieser Klänge wurden elektronisch bearbeitet, bevor sie im Sampler gespeichert wurden (z.B. auf verschiedene Weise gefiltert). Auch unveränderte Klänge erweitern das Klangspektrum des Instruments dadurch, dass man die gesampelten Klänge in Tonhöhen abspielen kann, die ein Instrumentalisten durch die natürliche Beschränktheit des Instruments live so nicht spielen kann. So kann etwa ein Klang mehrere Oktaven tiefer abgespielt werden, wodurch sich ein neues Klangerlebnis einstellt: er erklingt „langsamer“ – in einer Art Zeitlupeneffekt. Umgekehrt erreicht man mit dem Höherabspielen [außerhalb des instrumentalen Frequenzwerts] eine Komprimierung der inneren Abläufe. Da jedoch gerade dieses Verfahren die Gefahr des „Mickey-Mouse“-Effekts birgt, muss der Komponist sorgfältig ausloten, wie weit er diese technischen Möglichkeiten ausreizen kann. Ein einzelner Klang kann durch das Abspielen in verschiedenen Geschwindigkeiten völlig unterschiedliche Charaktere erzeugen und in verschiedenen musikalischen Kontexten verwendet werden.



Eintauchen in „Flautando“- technische Aspekte

Zum technischen Aufbau ist folgendes darzustellen:
Das Spiel des Instrumentalisten wird über ein Mikrofon aufgenommen und in einem Mischpult vorverstärkt. Dieses vorverstärkte Signal wird einerseits an die Lautsprecheranlage geschickt, andererseits an einen sogenannten Voice to MIDI Converter, welcher das Spiel des Instrumentalisten in MIDI-Daten [note on, note off, pitch bending] umwandelt. Diese MIDI-Daten werden an einen Computer übertragen und dort durch das vom Komponisten entwickelten MIDI Processing Program bearbeitet und anschließend an den Sampler weitergeleitet, wo sie die das dort vorab gespeicherte Klangmaterial ansteuern und zum Klingen bringen.

In einem Stück für Instrument und Elektronik - wie „Flautando“ - gibt es drei unabhängige Ebenen:

Erste Ebene: das Spiel des Instrumentalisten, das durch das MIDI Interface in entsprechende MIDI-Daten verwandelt wird (also die Informationen darüber, welcher Ton und wie laut dieser gespielt wurde)

Zweite Ebene: das MIDI Processing Program, das die durch den Interpreten erzeugten MIDI-Daten auf verschiedene Weise bearbeitet

Dritte Ebene: der Sampler, in welchem die Klänge gespeichert sind.

Im Folgenden soll speziell auf die zweite Ebene eingegangen werden und das Computerprogramm mit den verschiedenen technischen Bearbeitungsmöglichkeiten erläutert werden.

Für die Bearbeitung der MIDI-Daten gibt es vier grundlegende Modi:

1. synchron: alle eingehenden MIDI-Daten werden ohne Zeitverzögerung synchron wieder aus dem Programm ausgegeben. Dabei können verschiedene Parameter festgelegt werden
a) wie viele Töne ein einziger, ins Programm eingespeister Ton erzeugt
b) in welchem Ambitus um den gespielten Ton herum die ausgehenden Töne liegen sollen.

Alle Parameter sind hierbei als Zufallsbereiche definiert. Die Parameter können dadurch fixiert werden, dass man das Minimum und das Maximum des Zufallsbereichs festlegt. Einige Beispiele seien kurz erläutert:

Parameter „Anzahl der Töne“:

Ein einziger eingehender Ton soll 3 (=min) bis 5 (= max) Töne erzeugen. Der Zufallsgenerator des Computers bestimmt dann bei jedem Ereignis eine Zufallszahl aus diesem Bereich. In diesem Beispiel erzeugt ein einzelner eingehender Ton entweder 3 oder 4 oder 5 Töne, die im Synchronmodus dann alle gleichzeitig ausgegeben werden, also als Akkord. In den anderen Modi werden sie zeitverzögert ausgegeben.

Soll die Anzahl der auszugebenden Töne genau fixiert werden, dann müssen die Werte für das Minimum und Maximum gleichgesetzt werden. Somit erzeugt jeder eingehende Ton beispielsweise genau 3 Töne.

Parameter „Tonhöhe“:

Was die Tonhöhen anbelangt, so wird festgelegt, in welchem Zufallsintervall um den gespielten Ton herum die ausgehenden Töne liegen sollen. Ist die Tonhöhe des eingehenden Tons gegeben und sei die zum Beispiel x, so ist der Bereich der ausgehenden Tonhöhen gegeben durch den Zufallsbereich
[x -min, x + max]. Dieser Zufallsbereich kann wiederum größer oder kleiner sein. Wird er auf 0 gesetzt, so haben die ausgehenden Töne dieselbe Tonhöhe wie der eingehende.

2. Repetitionen
3. Skalen
4. Zufallstongruppen (ungerichtet).

Bei diesen Modi werden die Töne zeitverzögert - asynchron- ausgegeben . Die zeitliche Verzögerung wird wiederum als Zufallsbereich festgelegt. Die Zeiteinheit dafür ist 1/40 sec. Der Delay-Wert 3 bedeutet also 3/40 sec. Zum Beispiel der Bereich 3 (= min) und 12 (=max) bedeutet, dass die zeitliche Verzögerung im Bereich zwischen 3/40 sec und 12/40 sec liegt.

Für die Delay-Werte gibt es zwei verschiedene durch das Programm bestimmbare Modi: a) periodisch und b) aperiodisch. Ist der Delay-Modus "periodisch" gewählt, dann bedeutet das, dass das Programm zwar einen Zufallswert für die Delayzeit bestimmt, diese Delay-Zeit dann aber für die ganze Gruppe der ausgehenden Töne gilt. Ist der Delay-Modus aber auf "aperiodisch" eingestellt, so werden die ausgehenden Töne im Zufallszeitbereich [min, max] nach dem Eintreffen des Tones ausgegeben, und zwar irgendwann in diesem Bereich. Das bedeutet, dass die zeitliche Verzögerung aperiodisch ist; die Gruppe erklingt also „unregelmäßig“.

Die Modi 2 bis 4 unterscheiden sich dadurch, auf welche Weise sie Tonhöhen modifizieren.

Repetitionen:

Man nehme einen Ton als „Eingang“. Das Programm wählt nun, wie viele Töne dadurch ausgelöst werden. Dann bestimmt es die Tonhöhe, die beispielsweise durch den Bereich [3, 3] gegeben ist. Das heißt, die ausgehenden Tonhöhen liegen im Bereich [x-3, x+3], also plus/minus eine kleine Terz um die eingehende Tonhöhe herum. Da es sich in diesem Modus aber um Repetitionen handeln soll, kann die Tonhöhe nicht für alle (beispielsweise 5) Töne verschieden sein, sondern sie muss für die ganze Gruppe gleich sein. Die einmal gewählte Tonhöhe gilt also für die ganze Gruppe. Spielt man denselben Ton erneut, so kann die Tonhöhe der Repetitionen natürlich wieder anders sein, aber sie ist für die ganze Gruppe der Repetitionen gleich. Will erreicht werden, dass die Repetitionen immer dieselbe Tonhöhe wie der eingehende Ton haben, so muss man den Tonhöhenbereich auf [0, 0] setzen.

Skalen:

Hier erzeugt der definierte Tonhöhenbereich Skalen, die aufwärts oder abwärts gerichtet sind. Will man Skalen aufwärts haben, so muss man den Tonhöhenbereich so setzen: [0, max]. Das Programm wählt dann nach jedem ausgehenden Ton ein Intervall, den der nächste Ton vom vorhergehenden aus haben soll, indem es dieses Intervall aus dem Bereich [0, max] zur letzten Tonhöhe hinzuaddiert. Will man Skalen abwärts, so setzt man den Tonhöhenbereich [min, 0]. So wird für jeden Ton die neue Tonhöhe dadurch bestimmt, dass von der vorhergehenden Tonhöhe ein Wert aus dem Bereich [min, 0] abgezogen wird.

Zufallsgruppen:

In diesem Modus wird die Tonhöhe für jeden Ton beliebig aus dem Intervall
[x - min, x + max] gewählt, wobei x die Tonhöhe des eingehenden Tons ist und [min, max] der Tonhöhenbereich.

All diese Parameter (und noch einige andere) der einzelnen MIDI-Prozeduren werden immer als Zufallsbereiche festgelegt. Will man jedoch einen ganz bestimmten Wert bekommen, dann muss das Minimum und Maximum des Zufallsbereichs gleichgesetzt werden. Auf diese Weise können bis zu 100 verschiedene MIDI-Prozeduren mit verschiedenen Modi und verschiedenen Parameterwerten definiert werden.

Das MIDI Processing Program erlaubt sogar, die Parameter dynamisch zu definieren; also Parametereinstellungen, die sich in der Zeit ändern. Beispielsweise soll die Zahl der Repetitionen allmählich vom Bereich [3, 5] in den Bereich [8,10] übergehen und die Delayzeit vom Bereich [10, 20] in den Bereich [3, 10]. Man definiert dann jeweils eine MIDI-Prozedur mit den einen Parameterwerten und eine andere MIDI-Prozedur mit den anderen Werten. Diese beiden (oder auch bis zu 10) Prozeduren können dann in einem sog. "Process Path" angelegt werden. Man legt dort eine Reihenfolge von MIDI-Prozeduren fest (durch ihre jeweiligen Nummern) und definiert die Zeit (in sec) für die Interpolation zwischen den Werten der Ausgangsprozedur und denen der Zielprozedur.

Das MIDI Processing Program erlaubt es, eingehende MIDI-Daten auf 4 Ebenen simultan und unabhängig voneinander zu bearbeiten, was eine große Komplexität der elektronischen Texturen ermöglicht.

Der Spieler schaltet in „Flautando“ mittels eines Fußpedals während des Stücks durch verschiedene Programmnummern [siehe Partitur- diese beschränkt sich auf die Flötenstimme und die jeweils anzuwählenden Programmnummern]. Das Schalten durch die Nummern bedeutet aber noch kein Auslösen von Aktionen. Auf diesen besonderen Punkt wird später noch eingegangen, da er deutlich macht, wie stark der Interpret an der Gestaltung der Aufführung bei diesem Stück mit Live-Elektronik beteiligt wird.

Bei jeder Programmnummer kann im MIDI Processing Program für jede der 4 Ebenen festgelegt werden, welche MIDI-Prozeduren auf die eingehenden MIDI-Daten angewendet werden sollen. Für jede Programmnummer und jede Ebene wird jeweils definiert, auf welchen MIDI-Kanälen die MIDI-Daten jeweils aus dem Programm ausgehen sollen.

Im Sampler ist jedem MIDI-Kanal ein bestimmter Klang zugeordnet, womit die verschiedenen Ebenen jeweils über verschiedene MIDI-Kanäle verschiedene Klänge ansteuern können. Jede Programmnummer des MIDI Processing Programs wählt über „Program Change“-Daten im Sampler eine bestimmte Konstellation von Klängen aus. Die Zuordnung der MIDI-Kanäle zu Klängen im Sampler ist also nicht für alle Zeiten gleich, sondern mit dem Anwählen jeder Programmnummer des MIDI Processing Programs werden im Sampler den einzelnen MIDI-Kanälen die entsprechenden Klänge neu zugeordnet.

Im Falle von „Flautando“ wird, wie oben eingehend erläutert, das Spiel des Interpreten über Mikrofon aufgenommen, an einen Voice-to-MIDI Converter geschickt und dort in MIDI Daten umgewandelt. Durch die mögliche Vervielfältigung der Töne im MIDI Programm ist die Gefahr einer MIDI-Rückkopplung gegeben.

Beispiel: ein gespielter Ton soll Repetitionen erzeugen, und zwar pro eingehenden Ton 5 Stück. Spielt der Interpret einen Ton in das Mikrophon, so werden also 5 Töne erzeugt, die über Lautsprecher abgespielt werden und dadurch wieder in das Mikrophon gelangen. Jeder dieser Töne erzeugt nun wiederum 5 Töne, was in der zweiten Generation bereits 25 Töne ausmacht. Der sogenannte Schneeballeffekt tritt ein. Um dies zu vermeiden, wurde das Programm für „Flautando“ so modifiziert, dass die durch das Spiel erzeugten MIDI-Daten nur dann durch das Computerprogramm bearbeitet werden, wenn ein bestimmtes Pedal gedrückt ist. Auf diese Weise kann der Interpret die Dichte der elektronischen Klänge steuern.

Ein weiteres Problem galt es bei der Realisation der Komposition mit Querflöte zu lösen: der Voice-to-MIDI Converter wandelt das, was er über Mikrofon empfängt, in MIDI-Daten um. Dazu muss er zunächst die Tonhöhe des eingehenden Signals bestimmen. Was geschieht aber, wenn dieses eingehende Signal gar keine bestimmte erkennbare Tonhöhe hat, also ein Geräusch ist, wie zum Beispiel am Anfang von „Flautando“ [Atemgeräusche]?

Da solch ein Geräusch keine klar definierbare Tonhöhe hat, ist die Tonhöhe, die der Converter bestimmt, völlig unkalkulierbar. Es kann sein, dass er eine sehr hohe Tonhöhe bestimmt, eine mittlere oder eine sehr tiefe. Das Rauschen (Atmen), das am Anfang von „Flautando“ nach dem ersten attackierenden Flöten-Einsatz vom Sampler kommt, soll aber sehr tief sein und darf unter keinen Umständen in mittlerer oder gar hoher Lage abgespielt werden. Deshalb wurde ins MIDI Processing Program ein Filter eingebaut. Man kann für jede Programmnummer bestimmen, in welchem Tonhöhenbereich die eingehenden MIDI-Signale liegen sollen. Dasselbe gilt für den Lautstärkenbereich. Liegt das vom Converter an das Computerprogramm gehende MIDI-Signal außerhalb dieses Bereichs, so bestimmt das Computerprogramm selbst eine Tonhöhe bzw. einen Lautstärkenwert, die/der in dem festgelegten Filterbereich liegt. Damit ist sichergestellt, dass die den Sampler kontrollierenden Tonhöhen und Lautstärken nie aus dem Bereich fallen können, den sie haben sollen.

Das MIDI Processing Program wird von Rainer Bürck als Erweiterung der Möglichkeiten verwendet und gehört somit entscheidend zum Kompositionsprozess hinzu, sorgt es doch für eine deutliche Ausweitung des instrumentalen klanglichen Materials. Durch die Verknüpfung der verschiedenen Elemente der drei Ebenen (Spielaktionen des Interpreten, Bearbeitung der durch das Spiel ausgelösten MIDI-Daten im Computerprogramm, Klangauswahl im Sampler) erweitert sich der Kreis der Möglichkeiten weiter und bietet einen großen Bereich an Klangbeispielen, aus dem der Komponist dann seine Dramaturgie schaffen kann. Dieses Zusammenwirken der drei Ebenen bedarf einer langen Experimentierzeit, während dieser sich nach und nach die Vorstellung vom Stück bildet. Die Stimmigkeit im Hinblick auf die Gesamtdramaturgie steht dabei im Mittelpunkt.

Als Beispiel für das Entstehen einer Idee aus dem Experimentieren mit dem Material sei der „Orgelpunkt“ [Programm-Nr. 36] genannt. Der zugrunde liegende Klang besteht aus Aktion mit schnellen verschiedenen staccato-Tönen. Dieser Klang hatte eine ausgeprägt rhythmische Struktur, fast regelmäßig pulsierend. Durch das Abspielen dieses Klanges auf verschiedenen Tonhöhen ergaben sich unterschiedliche Tempi dieses Rhythmus'. Auf verschiedenen Tonhöhen gleichzeitig abgespielt ergab das einen Akkord mit einer internen polyrhythmischen Struktur. Durch das Loopen dieses Klangs war es möglich, den Klang beliebig lange zu halten; so entstand die Orgelpunktidee. In der Live-Umsetzung ist dieser Teil besonders spannend, da der Spieler den Orgelpunkt durch sein Live-spiel auslöst und es nie vorhersehbar ist, welche MIDI-daten in dem Moment erfasst und bearbeitet werden. So ist der Orgelpunktteil jedes Mal anders in Dichte und Tonhöhe.



Schlussbemerkung

In „Flautando“ werden also sowohl vorab gespeicherte, modifizierte und festgelegte Klänge, als auch live-gespielte verwendet. Es könnte argumentiert werden, dass diese Komposition einem Stück mit Zuspielband nicht unähnlich ist. Es handelt sich bei „Flautando“ aber deswegen um ein Stück für Instrument und Live-Elektronik, da die elektronische Klangwelt ausschließlich durch das Spiel und die Aktionen des Interpreten live gesteuert wird und gerade nicht, wie etwa bei einem Zuspielband, starr und unabhängig vom Interpreten abläuft.

In der Partitur, deren Notation Rainer Bürck in Zusammenarbeit mit Miriam Arnold entwickelt hat, kann der Interpret die live-Aktionen ablesen. Dort gibt es Zeitfelder mit Angaben zur jeweiligen Dauer, in denen der Interpret bestimmte Spieltechniken verwenden soll, die dann zusammen mit der Elektronik aus dem Computer ein bestimmtes Klangerlebnis produzieren. Dabei ist Rainer Bürck nicht auf einzelne Sekunden festgelegt; es obliegt der musikalischen Empfindung des Interpreten, gewisse Teile in der Aufführung zeitlich auszudehnen oder zu verkürzen.

Dadurch erhält der Instrumentalist Mitgestaltungsrechte am Stück, Freiheiten, die jedem Interpreten auch in klassischer Musik in gewissem Maße durch agogische und dynamische Mittel auch gegeben sind.
Ein weiterer Kritikpunkt mag sein, dass das Zufallsprinzip im Programm oft zum Einsatz kommt. Man könnte zu dem vorschnellen Schluss kommen, das Stück sei ja ganz und gar zufällig, man könne als Interpret „machen, was man will“, und niemandem würde es auffallen.

Es handelt sich bei der Anwendung des Zufalls in seinem Computerprogramm jedoch nicht darum, dass irgendetwas passieren soll, sondern um sehr gelenkten Zufall in genau festgelegten Grenzen. Diese Zufallsintervalle sollen möglichst organische Abweichungen ergeben. Und so ist insgesamt der Charakter in jedem Teil des Stücks sehr genau festgelegt. Wie auch ein Pianist nicht zweimal beispielsweise exakt dieselbe Liszt-Etüde interpretieren kann, so gibt es auch in „Flautando“ von Aufführung zu Aufführung Abweichungen von der CD-Version, die aber deswegen nicht das Werk als solches unkenntlich machen.

Die Identität von „Flautando“ ist immer gegeben durch die „komponierte“ Zusammensetzung der Klänge, durch die Kombination der verschiedenen Modi und festgelegten Programmteile, und schließlich durch die zeitliche Gesamtgestaltung, die auch aus der Partitur ersichtlich wird.

Geht es Rainer Bürck um eine absolute Fixierung der musikalischen Abläufe und Klänge, vergleichbar der Anfertigung eines Bildes durch einen Maler, so komponiert er reine Tonbandstücke. Bei der Live-Elektronik faszinieren ihn eine gewisse Unabsehbarkeit und die persönliche Dreingabe des Instrumentalisten.

Aus der Sicht des Interpreten soll abschließend darauf eingegangen werden, welche Motivation für die Autorin vorhanden ist, Musik für Instrument und Live-Elektronik aufzuführen.

In der Verknüpfung von Computer und Instrument liegt eine Bereicherung für jeden Interpreten in vielen musikalischen Gesichtspunkten: zum einen werden instrumentale Grenzen überwunden, klangliche Beschränktheit verschwindet, zum anderen wird dem Musiker eine interpretatorische Freiheit eingeräumt, die ihm die Möglichkeit bietet, selbst noch stärker am Werk teilzunehmen, einen persönlicheren Bezug zu entwickeln. Der Interpret ist nicht nur Ausführender vorgegebener Aktionen, sondern aktiver Mitgestalter am Erlebnis für den Zuschauer. Darüber hinaus kann ein mono-linearer Instrumentalist quasi einen Dialog mit „sich selbst“ führen, mehrstimmig mit seinen eigenen Klängen musizieren.

„Flautando“ von Rainer Bürck ist ein gelungener Weg, Klangwelten zu erzeugen und fühlbar zu machen und bietet durch die Zusammenarbeit die Möglichkeit, den musikalischen Horizont zu vergrößern und für zeitgenössische Musik im allgemeinen weiter zu öffnen.


Miriam Arnold, Dezember 2003