Theorie und Anwendung einer Perceptron-Lernregel mit Dilatationen und Translationen zum Training von Hopfield-Netzen höherer Ordnung - Jörg Raddatz - E-Book

Theorie und Anwendung einer Perceptron-Lernregel mit Dilatationen und Translationen zum Training von Hopfield-Netzen höherer Ordnung E-Book

Jörg Raddatz

0,0
39,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Ein klassisches Anwendungsgebiet für rekursive neuronale Netze stellen die sogenannten Assoziativspeicher dar. Sie gehören zu einem der Hauptforschungsgebiete im Bereich des Designs künstlicher neuronaler Netze. Eine Besonderheit von Assoziativ- oder inhaltsorientierten Speichern { im Gegensatz zu klassischen adressorientierten Speicherkonzepten { ist, dass ähnliche Adressen zu gleicher oder zumindest ähnlicher Information führen sollen. Durch dieses Konzept wird eine gewisse Fehlertoleranz geschaffen. Eine allgemeine Einführung zur Thematik der Assoziativspeicher findet sich z. B. bei Kamp und Hasler [14]. Untersucht wurden neuronale Assoziativspeicher u.a. von Grossberg [10], Anderson [1], Kohonen [15, 16], Cohen und Grossberg [6], Kosko [17, 18], Hassoun [11], Wang, Cruz und Mulligan [35, 36], Srinivasan und Chia [33], Shanmukh und Venkatesh [31], Zhang, Xu und Kwong [37], Leung [26, 27], Wang, Zhuang und Xing [34, 38], sowie Sommer und Palm [32]. Die gerade genannten Arbeiten befassen sich im wesentlichen mit dem allgemeinsten Fall von neuronalen Assoziativspeichern, den heteroassoziativen Netzen. In der vorliegenden Arbeit wollen wir uns speziell den autoassoziativen Speichern im Sinne von Hopfield [12, 13] widmen. Die Standardaufgabe eines solchen autoassoziativen Hopfield-Netzes ist die Speicherung einer Menge von t bipolar codierten Trainingsmustern Konkret soll das zu verwendende Hopfield-Netz so konstruiert werden, dass ein als Eingabe angelegtes Trainingsmuster ~x(s) aus der obigen Trainingsmenge zu einer Ausgabe desselben Musters ~x(s) führt. Trifft dies für alle Muster der Trainingsmenge zu, so sagt man, das Netz arbeitet perfekt auf den Trainingsdaten. Idealerweise soll auch dann das Muster ~x(s) ausgegeben werden, wenn die Eingabe geringfügig verrauscht, d.h. fehlerbehaftet, war.

Das E-Book können Sie in einer beliebigen App lesen, die das folgende Format unterstützt:

PDF
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.