5.1.4. Aspekte der Modellbildung mit neuronalen Netzen
Biologische Plausibilität
Das MLP ist als Modell biologischer Nervennetze nur bedingt geeignet, denn es weist zu
diesen eine Reihe von Unterschieden auf. So ist die übliche Anzahl von Neuronen in
einem künstlichen neuronalen Netz (ca. 101 - 103) viel kleiner als bei natürlichen
Nervennetzen (die Anzahl von Nervenzellen bei Menschen liegt bei ca. 1011), auch die
Anzahl der Verbindungen ist viel geringer. Eine Verbindung wird im MLP nur durch das
Gewicht bestimmt, während in biologischen Synapsen mehrere Faktoren eine Rolle
spielen. Das Lernen durch Backpropagation ist neurophysiologisch nicht plausibel, da es
keinen Hinweis auf eine Rückwärtspropagation von Informationen in Synapsen gibt.
Weiterhin vereinfacht die Darstellung der Aktivierung durch eine reelle Zahl stark
gegenüber der Impulskodierung in biologischen Neuronen. Insgesamt werden die
zeitlichen Aspekte der Funktion von Nervenzellen in künstlichen neuronalen Netzen
vernachlässigt.
Es gibt auch biologisch motivierte Modelle neuronaler Netze, die diese Aspekte
besser modellieren. Diese sind in der Anwendung aber bisher von geringerer
Bedeutung. Obwohl sie dem biologischen Vorbild nur teilweise entsprechen, werden
künstliche neuronale Netze, wie sie hier beschrieben sind, in vielen Anwendungen
benutzt. Der Grund dafür liegt darin, daß man sich bei der Anwendung neuronaler
Netze nicht hauptsächlich für die Nähe zum biologischen Vorbild interessiert,
sondern eher für die Leistungsfähigkeit als Lernmodell im jeweiligen Kontext; man
benutzt neuronale Netze als eine generische Methode des maschinellen Lernens.
Vielfach werden neuronale Netze heute als statistisches Modell gesehen, wie im
Bayesschen Ansatz der wahrscheinlichkeitstheoretischen Interpretation neuronaler
Netze.17
Lokale und verteilte Repräsentation
Die verteilte Repräsentation von Informationen im Netz ist eine Eigenschaft, die
neuronale Netze von anderen Ansätzen der Informationsverarbeitung unterscheidet. Es
läßt sich im allgemeinen keine unmittelbare Beziehung zwischen den Werten der
Aktivierung oder der Gewichte in einem neuronalen Netz und irgendwelchen
gedanklichen oder physischen Objekten herstellen. Man spricht bei neuronalen
Netzen daher oft von subsymbolischer Informationsverarbeitung im Gegensatz zu
herkömmlichen Techniken der Logik und der Künstlichen Intelligenz, die auf Symbolen
für gedankliche oder physische Objekte operieren. Neuronale Netze haben sich bei der
Modellierung von Prozessen, deren zugrundeliegende Funktionsweise man nicht kennt,
als sehr leistungsfähig erwiesen. Sie sind unempfindlich gegen fehlerhafte und
unvollständige Eingaben und zeigen sog. graceful degradation, d.h. die Leistung des
Netzes wird in den Bereichen, für die es nicht trainiert wurde, graduell schlechter und
bricht nicht abrupt zusammen, wie es bei regelbasierten Systemen häufig der Fall
ist.