Lente d'ingrandimento
Search Loader

Jörg Raddatz 
Theorie und Anwendung einer Perceptron-Lernregel mit Dilatationen und Translationen zum Training von Hopfield-Netzen höherer Ordnung 

Supporto
Ein klassisches Anwendungsgebiet für rekursive neuronale Netze stellen die sogenannten Assoziativspeicher dar. Sie gehören zu einem der Hauptforschungsgebiete im Bereich des Designs künstlicher neuronaler Netze. Eine Besonderheit von Assoziativ- oder inhaltsorientierten Speichern { im Gegensatz zu klassischen adressorientierten Speicherkonzepten { ist, dass ähnliche Adressen zu gleicher oder zumindest ähnlicher Information führen sollen. Durch dieses Konzept wird eine gewisse Fehlertoleranz geschaffen. Eine allgemeine Einführung zur Thematik der Assoziativspeicher findet sich z. B. bei Kamp und Hasler [14].

Untersucht wurden neuronale Assoziativspeicher u.a. von Grossberg [10], Anderson [1], Kohonen [15, 16], Cohen und Grossberg [6], Kosko [17, 18], Hassoun [11], Wang, Cruz und Mulligan [35, 36], Srinivasan und Chia [33], Shanmukh und Venkatesh [31], Zhang, Xu und Kwong [37], Leung [26, 27], Wang, Zhuang und Xing [34, 38], sowie Sommer und Palm [32]. Die gerade genannten Arbeiten befassen sich im wesentlichen mit dem allgemeinsten Fall von neuronalen Assoziativspeichern, den heteroassoziativen Netzen. In der vorliegenden Arbeit wollen wir uns speziell den autoassoziativen Speichern im Sinne von Hopfield [12, 13] widmen.

Die Standardaufgabe eines solchen autoassoziativen Hopfield-Netzes ist die Speicherung einer Menge von t bipolar codierten Trainingsmustern

Konkret soll das zu verwendende Hopfield-Netz so konstruiert werden, dass ein als Eingabe angelegtes Trainingsmuster ~x(s) aus der obigen Trainingsmenge zu einer Ausgabe desselben Musters ~x(s) führt. Trifft dies für alle Muster der Trainingsmenge zu, so sagt man, das Netz arbeitet perfekt auf den Trainingsdaten. Idealerweise soll auch dann das Muster ~x(s) ausgegeben werden, wenn die Eingabe geringfügig verrauscht, d.h. fehlerbehaftet, war.
€39.99
Modalità di pagamento
Lingua Tedesco ● Formato PDF ● Pagine 213 ● ISBN 9783638153997 ● Casa editrice GRIN Verlag ● Città München ● Paese DE ● Pubblicato 2002 ● Edizione 1 ● Scaricabile 24 mesi ● Moneta EUR ● ID 3482454 ● Protezione dalla copia senza

Altri ebook dello stesso autore / Editore

2.068 Ebook in questa categoria