- 164 -Enders, Bernd (Hrsg.): KlangArt-Kongreß 1993: Neue Musiktechnologie II 
  Erste Seite (3) Vorherige Seite (163)Nächste Seite (165) Letzte Seite (381)      Suchen  Nur aktuelle Seite durchsuchen Gesamtes Dokument durchsuchen     Aktuelle Seite drucken Hilfe 


wird bei der Generierung musikalischer Strukturen intensiv genutzt. Die direkte Kopplung von Sprache und MIDI-Ausgabe ermöglicht es, die errechneten Ergebnisse eines Kompositionsprozesses klanglich sofort überprüfen zu können.



2.2 MRL (music representation language), ein High-level-MIDI-Interface


Es gibt unterschiedliche Strategien, MIDI-Funktionen in eine Programmiersprache zu integrieren. In den meisten Fällen wird ein direkter Zugriff auf den MIDI-Port realisiert. Die Umsetzung der eher deklarativen musikalischen Notationsweise in das ereignisorientierte Ausgabeformat von MIDI muß dann einschließlich der Zeitsynchronisation explizit programmiert werden.

Vgl. z.B. Bernd Enders / Wolfgang Klemme, Das MIDI- und SOUND-Buch, München 1988; Wolfgang M. Stroh, Midi-Experimente und Algorithmisches Komponieren - eine Anleitung zum kreativen Programmieren und Komponieren am Computer, Berlin 1990. In: midi-pädagogische

 schriftenreihe, Heft 3 u. Heft 6.


Auf der anderen Seite gibt es musikorientierte Programmiersprachen, die es gestatten, an der üblichen musikalischen Notationsweise orientiert Programmstrukturen zu codieren, die dann vom Interpreter oder Compiler dieser Sprache in MIDI-Ereignisse umgewandelt werden.

Z.B. enthält die Autorensprache CAMI-Talk, die zur Programmierung des Computerkollegs

 Musik verwendet wird, Befehle, die eine Codierung von Melodien zur Soundausgabe und zur

 Notendarstellung auf dem Bildschirm in einer Weise erlaubt, die der sprachlichen Beschreibung

 von Noten entspricht, der Ausdruck ”s1 4´def#gah´´c#d' erzeugt eine D-Dur-Tonleiter im

 Violinschlüssel; vgl. Bernd Enders, Lehr- und Lernprogramme in der Musik,

 in: Helmut Schaffrath (Hrsg.), Computer in der Musik, Stuttgart 1991, S. 105-130.


Beide Strategien haben gravierende Nachteile. Im ersten Falle ist eine effiziente Programmiersprache mit Realtime-Fähigkeiten notwendig, um die Zeitsynchronisation sicherstellen zu können. Zudem fallen umfangreiche Implementationsprobleme in den unteren Schichten der MIDI-Programmierung an. Im zweiten Fall sieht die Programmierumgebung dieser kleinen Sprachen häufig sehr mager aus, insbesondere, wenn es um Teilprobleme (wie z.B. Regelinterpretation oder Wissenbasisverwaltung) geht, die nicht direkt mit der Organisation musikalischer Strukturen zu tun haben. Es gibt einige Ansätze, die beides verbinden, d.h. eine bereits relativ abstrakte Programmiersprache zur Repräsentation musikalischer Strukturen in eine gut ausgebaute existierende Programmiersprache integrieren.

Vgl. z.B. die Beschreibung der Kompositionssprache LOCO in: Hans Timmermanns, MIDI, Musik und Computer, Aachen 1990, S. 265 ff.


Dieser letzte Weg wird auch hier beschritten.

Die Schnittstelle zwischen G_LOG und der Repräsentationssprache MRL für musikalische Strukturen ist das vordefinierte Prädikat "sound", das als Argument die Beschreibung einer musikalischen Struktur als lineare Liste nimmt und diese in MIDI-


Erste Seite (3) Vorherige Seite (163)Nächste Seite (165) Letzte Seite (381)      Suchen  Nur aktuelle Seite durchsuchen Gesamtes Dokument durchsuchen     Aktuelle Seite drucken Hilfe 
- 164 -Enders, Bernd (Hrsg.): KlangArt-Kongreß 1993: Neue Musiktechnologie II