- 126 -Weyde, Tillman: Lern- und wissensbasierte Analyse von Rhythmen 
  Erste Seite (i) Vorherige Seite (125)Nächste Seite (127) Letzte Seite (247)      Suchen  Nur aktuelle Seite durchsuchen Gesamtes Dokument durchsuchen     Aktuelle Seite drucken Hilfe 

verhält sich Roberts’ Modell bezüglich einiger Parameter so wie menschliche Hörer, insbesondere bezüglich der zeitlichen Nähe und bevorzugter Gruppen-Dauern.

Die Segmentierung und Klassifikation erfolgen dynamisch während der Präsentation der Eingabe. Dabei werden erlernte Patterns nicht durch neue verdrängt; Stabilität und Plastizität des Systems behindern einander nicht. Das Lernen erfolgt unüberwacht. Dies entspricht dem Lernen durch den Menschen insofern, als für das Lernen von Mustern aus Melodien häufig keine Beurteilungen verfügbar sind, sondern das Gelernte kann nur anhand weiterer Sequenzen bestätigt oder verworfen werden. Kinder lernen z.B. Lieder nicht durch Analyse ihrer Struktur, sondern durch Hören, Nach- und Mitsingen.

Die Möglichkeit überwachten Lernens wäre allerdings sowohl für praktische Anwendungen als auch für experimentelle Untersuchungen sinnvoll. Roberts beschreibt in seiner Arbeit die Modellbildung und die Anpassung des Systems an das gewünschte Verhalten. Dabei werden Netzstruktur, Verarbeitung und Lernen zum Teil umfangreich verändert. Die Frage, welche Modifikationen und Parametereinstellungen für die Analyse von Rhythmen sinnvoll und geeignet sind, ist zwar interessant, für die Erweiterung und Anpassung an eine Anwendungsumgebung ist dieses Verfahren aber noch nicht gut geeignet. Jede Erweiterung, beispielsweise um weitere Parameter der Noten wie Dauer oder Lautstärke, macht neue Anpassungen nötig, und ein automatisches Lernen dieser Anpassungen ist nicht vorgesehen. Roberts’ Arbeit erforscht daher vor allem die Leistungsfähigkeit der SONNET1-Architektur, ist aber weniger für die Anwendung geeignet.

6.4.3.  Paradigmatische Analyse

Ein Ansatz zur Automatisierung der paradigmatischen Analyse stammt von Anagnostopoulou und Westermann.34

Sie behandeln den Aspekt der Klassifikation und setzen dabei eine Segmentierung bereits voraus. Die Klassifikation erfolgt durch einen Clustering der Segmente, wofür der Growing Neural Gas Algorithmus verwendet wird. Das Ziel ist es, dem Musiker bzw. Musikwissenschaftler Unterstützung bei der Analyse zu geben, um Inkonsistenzen zu vermeiden. Ähnliche Verfahren benutzt auch Hörnel35 , der verschiedene Algorithmen verwendet, um Motive zu klassifizieren. Der Ward-Algorithmus wurde bereits von Steinbeck zur Klassifikation von Melodien benutzt.36

Das von Anagnostopoulou und Westermann beschriebene Verfahren sieht vor, daß ein Experte die Analyse vornimmt, dann das Ergebnis beurteilt und bei Fehlklassifikationen ein weiteres Merkmal hinzufügt, das eine Unterscheidung fälschlich zusammengefaßter Motive ermöglicht. Da sowohl die Segmentierung vorgegeben werden muß, als auch die Ergebnisse ständig von einem Experten kontrolliert werden müssen, ist dieses Verfahren für Anwendungsprogramme nicht geeignet. Der Ansatz ist aber interessant, da das Wiedererkennen von Motiven ein entscheidender Faktor der Strukturierung ist, der Berücksichtigung verdient.


Erste Seite (i) Vorherige Seite (125)Nächste Seite (127) Letzte Seite (247)      Suchen  Nur aktuelle Seite durchsuchen Gesamtes Dokument durchsuchen     Aktuelle Seite drucken Hilfe 
- 126 -Weyde, Tillman: Lern- und wissensbasierte Analyse von Rhythmen