verwendet. Einen
anderen Ansatz stellen die von Cohen und Carpenter eingeführten
masking fields und die darauf
basierenden Architekturen ART (Adaptive Resonance Theory), ARTMAP und SONNET
dar.
12
Diese Architekturen benutzen ein unüberwachtes Lernverfahren und bestehen im
wesentlichen aus zwei Schichten: Einer Eingabeschicht und einer Klassifikationsschicht.
Sowohl Aktivierung als auch Lernen beruhen auf dem Wettbewerb der Zellen in
der Klassifikationsschicht. Durch inhibitorische Verbindungen zwischen den
Klassifikationszellen wird erreicht, daß sich eine Gewinner-Zelle herausstellt, für die die
Übereinstimmung mit dem Eingabe-Muster im
Vigilance-Test geprüft wird.
Erreicht sie einen vorgegebenen Wert, wird das Muster dem Neuron zugeordnet,
sonst wird für das Muster ein neues Klassifikations-Neuron verwendet. Die
Verbindungen zwischen Eingabe- und Klassifikationsschicht werden nach einer
Zuordnung angepaßt, so daß das zugeordnete Neuron auf die entsprechenden
Muster stärker anspricht. Diese Architekturen modellieren die Dynamik der
Gedächtnisbildung. Sie führen dabei eine Kategorisierung von Mustern auf der
Basis der durch den Vigilance-Test definierten Ähnlichkeit durch und können
auch für Segmentierung verwendet werden. Allerdings kann dieser Prozeß nicht
beeinflußt werden, da es sich um ein unüberwachtes Lernverfahren handelt.
Weiterhin ist die Prüfung der Ähnlichkeit undifferenziert in Bezug auf die komplexen
Eigenschaften der Muster. Diese Modelle sind insgesamt vorwiegend als Umsetzung
theoretischer Überlegungen zu Gedächtnisprozessen zu sehen. Insbesondere die
fehlende Möglichkeit, das Verhalten des Systems durch Wissen oder Beispiele
zu steuern, macht diese Architekturen für die praktische Anwendung weniger
geeignet.
5.1.2. Backpropagation
Error-Backpropagation ist das am weitesten verbreitete Lernverfahren für
vorwärtsgerichtete neuronale Netze und stellt eine verallgemeinerte Form der
Delta-Regel für mehrschichtige Netze dar. Ziel ist es, die Gewichte eines MLP anhand
einer Menge von Beispielen so zu optimieren, daß das Netz die gewünschten Ausgaben
liefert. Dazu verwendet man eine Trainingsmenge von Beispielen, bestehend aus
Eingaben und gewünschten Ausgaben:
Definition 5.1.4 Seien
v1,...,vm k-dimensionale Vektoren und t1,...,tm l-dimensionale Vektoren. Dann
heißt die Menge P = {(vi,ti)|1 < i < m} Trainingsmenge eines Neuronalen
Netzes mit k Eingabe-Neuronen und l Ausgabe-Neuronen.
Da durch die Trainingsmenge der Zielwert der Ausgabe vorgegeben ist, handelt es sich
um ein überwachtes Lernverfahren. Für eine Trainingsmenge und gegebene
Netzstruktur vergleicht man die Aktivierung der Ausgabe-Neuronen mit der
gewünschten Ausgabe und bestimmt daraus einen Fehlerwert. Die am häufigsten