Ein weiterer Parameter ist die Zahl der zu erzeugenden relativen Beispiele pro
absolutem Beispiel. Da nicht bei jeder Iteration für jedes absolute Beispiel ein relatives
Beispiel erzeugt wird, entstehen unterschiedlich viele relative Beispiele pro absolutem
Beispiel. Dadurch kann ein Ungleichgewicht des Einflusses der absoluten Beispiele
beim Training entstehen. Insbesondere, wenn sich in Beispielen mit nur leicht
unterschiedlichen Sequenzen die Interpretationen stark unterscheiden, kann es
dazu kommen, daß sehr viele relative Beispiele erzeugt werden. A priori sind
alle Beispiele gleich zu gewichten, zumindest ist hier bisher kein Verfahren
zur Gewichtung von Beispielen vorgesehen. Daher sollte hier eine Begrenzung
vorgenommen werden. Diese Begrenzung ist im ISSM so implementiert, daß
nach jeder Iteration bei der Generierung relativer Beispiele geprüft wird, ob
eine einstellbare maximale Anzahl überschritten wurde und ggf. das älteste
Beispiel entfernt wird (First-In-First-Out Prinzip). Dadurch wird bei längeren
Trainingsläufen erreicht, daß für die Mehrzahl der absoluten Beispiele die gleiche
Anzahl relativer Beispiele erzeugt wird. Hier haben sich Werte zwischen 5 und 10
bewährt. Bei kleineren Werten oszilliert das Training, bei größeren Werten wird die
maximale Anzahl nur für wenige Beispiele erreicht und das Ungleichgewicht nicht
behoben.
12.5. Interpretation der GewichteIm folgenden soll versucht werden, die Gewichtswerte, die als Ergebnis des Trainings entstanden sind, zu interpretieren. Es werden nur die Ergebnisse für den Vergleichsmodus betrachtet. Man kann Gewichte, die für verschiedene Anwendungsfälle geeignet sind, durch gemischte Trainingsmengen erhalten, was allerdings für große Trainingsmengen noch nicht erprobt wurde. Die Gewichte sind natürlich von der verwendeten Repräsentation der Eingabewerte abhängig. Daher sind die absoluten Werte nicht unbedingt ein zuverlässiger Indikator, man kann aber relative Tendenzen erkennen. Diese lassen sich allerdings nicht als Erkenntnisse über musikalische Wahrnehmung und Kognition verallgemeinern, da die Trainingsmengen zu klein waren und die Versuchspersonen nicht repräsentativ ausgewählt wurden. Die Ergebnisse des Trainings für den Vergleichsmodus mit verschiedenen Fehlermaßen und Aktivierungsfunktionen sind in Abbildung 12.7 dargestellt. Man erkennt, daß es bei einigen Gewichten eine relativ große Streuung gibt, während in manchen Bereichen eine klare Tendenz erkennbar ist. So haben alle vier Varianten den maximalen Wert für die Verbindung CGroupQual-CIntrQual, während die Gewichte von CInputSegment und CTaskSegment kleiner sind. D.h. die Ähnlichkeitsbewertung der Motive geht stärker ein als die Segmentierungsbewertung. Innerhalb der Regeln für Motivähnlichkeit sind die Regeln für die Einsatzzeiten (GLate, GEarly) am stärksten gewichtet, gefolgt von den strukturellen Bewertungen (GInsertion, GDeletion, GAddition, GSubtraction). Falls diese Relation sich verallgemeinern ließe, wäre das Verändern der Notenstruktur für das Wiedererkennen nicht so schwerwiegend wie das Verändern der zeitlichen Struktur. Dies ist überraschend, denn das Weglassen von Noten ist ja eine erhebliche Veränderung eines Motivs. Es entspricht allerdings der praktischen Erfahrung, daß rhythmisch |