etwas verbessert. Die Verwendung von Neuronen mit Bias bewirkt dagegen eine Verschlechterung der Ergebnisse. 12.3. Aktivierung und FehlerfunktionVerschiedene Interpretationen der Lernaufgabe führen zu unterschiedlichen Fehlerfunktionen, wie in Abschnitt 10.2.3 beschrieben. Für die Beispiele im vorigen Abschnitt wurde der ursprüngliche Ansatz mit der semilinearen Aktivierungsfunktion und der Quadratsumme als Fehlermaß verwendet. Als Alternative wurde auch eine sigmoide Aktivierungsfunktion des Komparatorneurons mit Quadratsumme als Fehlermaß verwendet, wie von Braun vorgeschlagen4 , die jedoch keine guten Trainingserfolge lieferte. Problematisch ist, daß in die Ableitung der Fehlerfunktion nach der Netzeingabe die Ableitung der Ausgabefunktion als Faktor mit dem Term oK(1 -oK) eingeht. Dadurch wird die Ableitung der Fehlerfunktion nach der Aktivierung des Komparatorneurons in der Nähe von 1 sehr klein und der Trainingseffekt für Beispiele mit Aktivierungen nahe 1 – also solchen, die deutlich falsch bewertet werden – ist gering. Dieses Problem ist auch in anderen Zusammenhängen aufgetreten, und es wurden verschiedene Lösungen vorgeschlagen. Es ist möglich, eine Konstante zu der Ableitung zu addieren, was die Lernleistung etwas verbessert. Man kann auch die Ableitung der Aktivierungsfunktion durch eine Konstante ersetzen. Damit entfernt man sich allerdings relativ weit von der Minimierung der |