- 88 -Weyde, Tillman: Lern- und wissensbasierte Analyse von Rhythmen 
  Erste Seite (i) Vorherige Seite (87)Nächste Seite (89) Letzte Seite (247)      Suchen  Nur aktuelle Seite durchsuchen Gesamtes Dokument durchsuchen     Aktuelle Seite drucken Hilfe 

5.1.4.  Aspekte der Modellbildung mit neuronalen Netzen

Biologische Plausibilität

Das MLP ist als Modell biologischer Nervennetze nur bedingt geeignet, denn es weist zu diesen eine Reihe von Unterschieden auf. So ist die übliche Anzahl von Neuronen in einem künstlichen neuronalen Netz (ca. 101 - 103) viel kleiner als bei natürlichen Nervennetzen (die Anzahl von Nervenzellen bei Menschen liegt bei ca. 1011), auch die Anzahl der Verbindungen ist viel geringer. Eine Verbindung wird im MLP nur durch das Gewicht bestimmt, während in biologischen Synapsen mehrere Faktoren eine Rolle spielen. Das Lernen durch Backpropagation ist neurophysiologisch nicht plausibel, da es keinen Hinweis auf eine Rückwärtspropagation von Informationen in Synapsen gibt. Weiterhin vereinfacht die Darstellung der Aktivierung durch eine reelle Zahl stark gegenüber der Impulskodierung in biologischen Neuronen. Insgesamt werden die zeitlichen Aspekte der Funktion von Nervenzellen in künstlichen neuronalen Netzen vernachlässigt.

Es gibt auch biologisch motivierte Modelle neuronaler Netze, die diese Aspekte besser modellieren. Diese sind in der Anwendung aber bisher von geringerer Bedeutung. Obwohl sie dem biologischen Vorbild nur teilweise entsprechen, werden künstliche neuronale Netze, wie sie hier beschrieben sind, in vielen Anwendungen benutzt. Der Grund dafür liegt darin, daß man sich bei der Anwendung neuronaler Netze nicht hauptsächlich für die Nähe zum biologischen Vorbild interessiert, sondern eher für die Leistungsfähigkeit als Lernmodell im jeweiligen Kontext; man benutzt neuronale Netze als eine generische Methode des maschinellen Lernens. Vielfach werden neuronale Netze heute als statistisches Modell gesehen, wie im Bayesschen Ansatz der wahrscheinlichkeitstheoretischen Interpretation neuronaler Netze.17

Lokale und verteilte Repräsentation

Die verteilte Repräsentation von Informationen im Netz ist eine Eigenschaft, die neuronale Netze von anderen Ansätzen der Informationsverarbeitung unterscheidet. Es läßt sich im allgemeinen keine unmittelbare Beziehung zwischen den Werten der Aktivierung oder der Gewichte in einem neuronalen Netz und irgendwelchen gedanklichen oder physischen Objekten herstellen. Man spricht bei neuronalen Netzen daher oft von subsymbolischer Informationsverarbeitung im Gegensatz zu herkömmlichen Techniken der Logik und der Künstlichen Intelligenz, die auf Symbolen für gedankliche oder physische Objekte operieren. Neuronale Netze haben sich bei der Modellierung von Prozessen, deren zugrundeliegende Funktionsweise man nicht kennt, als sehr leistungsfähig erwiesen. Sie sind unempfindlich gegen fehlerhafte und unvollständige Eingaben und zeigen sog. graceful degradation, d.h. die Leistung des Netzes wird in den Bereichen, für die es nicht trainiert wurde, graduell schlechter und bricht nicht abrupt zusammen, wie es bei regelbasierten Systemen häufig der Fall ist.


Erste Seite (i) Vorherige Seite (87)Nächste Seite (89) Letzte Seite (247)      Suchen  Nur aktuelle Seite durchsuchen Gesamtes Dokument durchsuchen     Aktuelle Seite drucken Hilfe 
- 88 -Weyde, Tillman: Lern- und wissensbasierte Analyse von Rhythmen