- 83 -Weyde, Tillman: Lern- und wissensbasierte Analyse von Rhythmen 
  Erste Seite (i) Vorherige Seite (82)Nächste Seite (84) Letzte Seite (247)      Suchen  Nur aktuelle Seite durchsuchen Gesamtes Dokument durchsuchen     Aktuelle Seite drucken Hilfe 

verwendet. Einen anderen Ansatz stellen die von Cohen und Carpenter eingeführten masking fields und die darauf basierenden Architekturen ART (Adaptive Resonance Theory), ARTMAP und SONNET dar.12 Diese Architekturen benutzen ein unüberwachtes Lernverfahren und bestehen im wesentlichen aus zwei Schichten: Einer Eingabeschicht und einer Klassifikationsschicht. Sowohl Aktivierung als auch Lernen beruhen auf dem Wettbewerb der Zellen in der Klassifikationsschicht. Durch inhibitorische Verbindungen zwischen den Klassifikationszellen wird erreicht, daß sich eine Gewinner-Zelle herausstellt, für die die Übereinstimmung mit dem Eingabe-Muster im Vigilance-Test geprüft wird. Erreicht sie einen vorgegebenen Wert, wird das Muster dem Neuron zugeordnet, sonst wird für das Muster ein neues Klassifikations-Neuron verwendet. Die Verbindungen zwischen Eingabe- und Klassifikationsschicht werden nach einer Zuordnung angepaßt, so daß das zugeordnete Neuron auf die entsprechenden Muster stärker anspricht. Diese Architekturen modellieren die Dynamik der Gedächtnisbildung. Sie führen dabei eine Kategorisierung von Mustern auf der Basis der durch den Vigilance-Test definierten Ähnlichkeit durch und können auch für Segmentierung verwendet werden. Allerdings kann dieser Prozeß nicht beeinflußt werden, da es sich um ein unüberwachtes Lernverfahren handelt. Weiterhin ist die Prüfung der Ähnlichkeit undifferenziert in Bezug auf die komplexen Eigenschaften der Muster. Diese Modelle sind insgesamt vorwiegend als Umsetzung theoretischer Überlegungen zu Gedächtnisprozessen zu sehen. Insbesondere die fehlende Möglichkeit, das Verhalten des Systems durch Wissen oder Beispiele zu steuern, macht diese Architekturen für die praktische Anwendung weniger geeignet.

5.1.2.  Backpropagation

Error-Backpropagation ist das am weitesten verbreitete Lernverfahren für vorwärtsgerichtete neuronale Netze und stellt eine verallgemeinerte Form der Delta-Regel für mehrschichtige Netze dar. Ziel ist es, die Gewichte eines MLP anhand einer Menge von Beispielen so zu optimieren, daß das Netz die gewünschten Ausgaben liefert. Dazu verwendet man eine Trainingsmenge von Beispielen, bestehend aus Eingaben und gewünschten Ausgaben:

Definition 5.1.4 Seien v1,...,vm k-dimensionale Vektoren und t1,...,tm l-dimensionale Vektoren. Dann heißt die Menge P = {(vi,ti)|1 < i < m} Trainingsmenge eines Neuronalen Netzes mit k Eingabe-Neuronen und l Ausgabe-Neuronen.

Da durch die Trainingsmenge der Zielwert der Ausgabe vorgegeben ist, handelt es sich um ein überwachtes Lernverfahren. Für eine Trainingsmenge und gegebene Netzstruktur vergleicht man die Aktivierung der Ausgabe-Neuronen mit der gewünschten Ausgabe und bestimmt daraus einen Fehlerwert. Die am häufigsten


Erste Seite (i) Vorherige Seite (82)Nächste Seite (84) Letzte Seite (247)      Suchen  Nur aktuelle Seite durchsuchen Gesamtes Dokument durchsuchen     Aktuelle Seite drucken Hilfe 
- 83 -Weyde, Tillman: Lern- und wissensbasierte Analyse von Rhythmen