vom
Weg die jeweils zur größten Aktivierung des Ausgabeneurons führende Aktivierung des
Eingabeneurons angenommen. Der Wert von oout kann dabei größer werden,
als es auch im ungünstigsten Fall für oout möglich ist, da ein Eingabeneuron
tatsächlich bei einem Datensatz natürlich nur einen Aktivierungswert hat. Die
Genauigkeit dieser Abschätzung reicht dennoch aus, um die Effizienz der Auswahl mit
Branch-and-Bound deutlich zu erhöhen, und sie läßt sich mit geringem Aufwand
berechnen.
10.2. TrainingDurch das Training soll das System anhand von Beispielen optimiert werden, die von einem Experten stammen, so daß ein möglichst übereinstimmendes Verhalten des Experten und des Systems erreicht wird. Um die Trainingsmethoden neuronaler Netze im ISSM einzusetzen, sind einige Anpassungen und Erweiterungen des Backpropagation-Verfahrens nötig.
10.2.1. Backpropagation mit dem q-OperatorUm fuzzy-logische neuronale Netze mit Backpropagation zu trainieren, muß die
Ableitung der Operatoren bestimmt werden, die von der bei üblicherweise verwendeten
gewichteten Summe abweichen. Ist der Exponent q
wobei xk1,...,xkn die Neuronen bezeichnen, von denen eine Verbindung zum Neuron xj existiert. Für ein Neuron xi und ein Gewicht wij von xi nach xj interessiert zunächst die Ableitung der Netzeingabe netj(p) nach der Eingabe oi(p)wij, die xj über die Verbindung von xi erhält:
Für die Ableitung von netj(p) nach dem Gewicht wij muß mit der inneren Ableitung oi(p) multipliziert werden. Analog muß für die Ableitung nach oi(p) mit wij multipliziert werden. Damit gilt
|