- 80 -Weyde, Tillman: Lern- und wissensbasierte Analyse von Rhythmen 
  Erste Seite (i) Vorherige Seite (79)Nächste Seite (81) Letzte Seite (247)      Suchen  Nur aktuelle Seite durchsuchen Gesamtes Dokument durchsuchen     Aktuelle Seite drucken Hilfe 

Auf der Grundlage des McCulloch/Pitts-Modells und der Hebbschen Lernregel wurden Ende der fünfziger Jahre die ersten Implementationen lernender neuronaler Netze entwickelt. Frank Rosenblatt und seine Mitarbeiter am Massachusetts Institute of Technology stellten 1958 das Perceptron vor.6 Das Perceptron besteht aus einer Reihe von Eingabe-Neuronen, die mit einem Ausgabe-Neuron verbunden sind. Als Aktivierungsfunktion der Neuronen des Perceptrons wird eine Schwellenwertfunktion f verwendet:
 {
 f(net) = 1 net > 0
 0 sonst.
(5.1)

Ein Perceptron entspricht bezüglich des Lernverfahrens einem einzelnen Neuron, denn die Eingabeneuronen dienen lediglich der Diskretisierung der Eingabe. Sie lassen sich als Vorverarbeitung interpretieren und werden durch das Lernverfahren nicht verändert. Das Perceptron (von engl. perception = Wahrnehmung) sollte Mustererkennung in der menschlichen Wahrnehmung simulieren. Die Eingaben repräsentieren Signale von Rezeptorzellen der Retina. Das Perceptron bewertet anhand der gelernten Gewichte, ob das Bild auf der Retina einem bestimmten Muster entspricht.

Ein weiteres Modell ist das 1960 von Bernard Widrow und Marcian Hoff vorgestellte Adaline,7

das eine lineare Aktivierungsfunktion benutzt und Ausgaben von -1 und 1 verwendet. Adaline stand zunächst für ADAptive LInear NEuron, später – als Neuronenmodelle kritischer gesehen wurden – für ADAptive LINear Element.

Die Lernverfahren für das Adaline und das Perceptron basieren auf demselben Prinzip, der sog. Delta-Regel. Dabei stellt der Perceptron-Lernalgorithmus einen Spezialfall dar. Die Delta-Regel besagt, daß für ein Lernbeispiel mit Eingabevektor i = (i0,...,in) und gewünschter Ausgabe t die Gewichtsänderung Dwj des Gewichts wj folgendermaßen berechnet wird:
Dw = - j(f (net(e))- t)e.
 j j j
(5.2)

Die Konstante j heißt Lernrate und wird meist zwischen 0 und 1 gewählt. Die Delta-Regel entspricht insofern der Hebbschen Lernregel, als das Gewicht wj dann erhöht wird, wenn die Eingabe ej und die Ausgabe t groß sind. Die gewünschte Ausgabe-Aktivierung t wird allerdings in diesen Modellen von außen gesetzt und ihr Zustandekommen nicht im Modell abgebildet, was Fragen bezüglich der neurophysiologischen Plausibilität aufwirft.

Das Perceptron kann anhand seiner Gewichts- und Schwellenwerteinstellungen Muster klassifizieren. Rosenblatt zeigte mit dem Perceptron-Konvergenzsatz, daß das Perceptron alle Funktionen, die es repräsentieren kann, auch erlernen kann.8

Da das Perceptron aber nur aus einer Verarbeitungseinheit besteht, sind die Berechnungsmöglichkeiten des Perceptrons begrenzt. Marvin Minsky und Seymour Papert

Erste Seite (i) Vorherige Seite (79)Nächste Seite (81) Letzte Seite (247)      Suchen  Nur aktuelle Seite durchsuchen Gesamtes Dokument durchsuchen     Aktuelle Seite drucken Hilfe 
- 80 -Weyde, Tillman: Lern- und wissensbasierte Analyse von Rhythmen