12. LernenFür alle im vorigen Abschnitt beschriebenen Anwendungsmodi kann das ISSM anhand von Beispielen trainiert werden. Für Klassifizierung und Segmentierung wurden Ergebnisse bereits im letzten Abschnitt vorgestellt. In diesem Abschnitt sollen für den Vergleichsmodus anhand von Versuchsergebnissen die Lernverfahren, Netzarchitekturen, Systemparameter und möglichen Interpretationen der gelernten Gewichte behandelt werden. 12.1. Effektivität der LernverfahrenAls Lernverfahren wurden Standard-Backpropagation mit Momentum und RPROP eingesetzt. Dabei zeigte sich, daß RPROP auch bei fuzzy-logischen neuronalen Netzen deutlich effektiver ist. Dies war nach den Ergebnissen anderer Untersuchungen für MLPs zu erwarten.1 Ein Vergleich des Trainingserfolgs von Backpropagation mit Momentum und RPROP mit dem ISSM ist in Abbildung 12.1 dargestellt. Dabei wurden die gleiche Trainingsmenge und gleiche Einstellungen der Parameter für das iterative Training verwendet. Der Unterschied von 34 zu 1761 Zyklen zeigt die dramatische Effektivitätssteigerung durch RPROP. Weiterhin ist problematisch, daß es mit Standard-Backpropagation nicht zuverlässig
möglich ist, ein relatives Trainingsbeispiel bei semilinearer Aktivierung auf einen Fehler
von 0 zu trainieren. Da mit kleinerem Fehler auch die Gewichtsänderungen kleiner
werden und man den Zielwert im allgemeinen nicht genau erreicht, kann bei kleinen
Lernraten der Fall eintreten, daß der Fehler zwar klein, aber nicht 0 wird. Große
Lernraten schaffen nur bedingt Abhilfe, da sie zu einer Oszillation führen können, die
den Trainingserfolg ganz verhindert. Man kann zwar einen etwas höheren
|