Theorie und Anwendung einer Perceptron-Lernregel mit Dilatationen und Translationen zum Training von Hopfield-Netzen höherer Ordnung
6 Angebote vergleichen
Preise | 2014 | 2015 | 2018 | 2019 | 2023 |
---|---|---|---|---|---|
Schnitt | € 44,95 | € 39,99 | € 39,99 | € 39,99 | € 39,99 |
Nachfrage |
1
Theorie und Anwendung einer Perceptron-Lernregel mit Dilatationen und Translationen zum Training von Hopfield-Netzen höherer Ordnung (2002)
~DE NW FE EB DL
ISBN: 9783638153997 bzw. 3638153991, vermutlich in Deutsch, 213 Seiten, GRIN Verlag, neu, Erstausgabe, E-Book, elektronischer Download.
Lieferung aus: Deutschland, Download sofort lieferbar.
eBooks, eBook Download (PDF), 1., Auflage, Ein klassisches Anwendungsgebiet für rekursive neuronale Netze stellen die sogenannten Assoziativspeicher dar. Sie gehören zu einem der Hauptforschungsgebiete im Bereich des Designs künstlicher neuronaler Netze. Eine Besonderheit von Assoziativ- oder inhaltsorientierten Speichern { im Gegensatz zu klassischen adressorientierten Speicherkonzepten { ist, dass ähnliche Adressen zu gleicher oder zumindest ähnlicher Information führen sollen. Durch dieses Konzept wird eine gewisse Fehlertoleranz geschaffen. Eine allgemeine Einführung zur Thematik der Assoziativspeicher findet sich z. B. bei Kamp und Hasler [14]. Untersucht wurden neuronale Assoziativspeicher u.A. von Grossberg [10], Anderson [1], Kohonen [15, 16], Cohen und Grossberg [6], Kosko [17, 18], Hassoun [11], Wang, Cruz und Mulligan [35, 36], Srinivasan und Chia [33], Shanmukh und Venkatesh [31], Zhang, Xu und Kwong [37], Leung [26, 27], Wang, Zhuang und Xing [34, 38], sowie Sommer und Palm [32]. Die gerade genannten Arbeiten befassen sich im wesentlichen mit dem allgemeinsten Fall von neuronalen Assoziativspeichern, den heteroassoziativen Netzen. In der vorliegenden Arbeit wollen wir uns speziell den autoassoziativen Speichern im Sinne von Hopfield [12, 13] widmen. Die Standardaufgabe eines solchen autoassoziativen Hopfield-Netzes ist die Speicherung einer Menge von t bipolar codierten Trainingsmustern Konkret soll das zu verwendende Hopfield-Netz so konstruiert werden, dass ein als Eingabe angelegtes Trainingsmuster ~x(s) aus der obigen Trainingsmenge zu einer Ausgabe desselben Musters ~x(s) führt. Trifft dies für alle Muster der Trainingsmenge zu, so sagt man, das Netz arbeitet perfekt auf den Trainingsdaten. Idealerweise soll auch dann das Muster ~x(s) ausgegeben werden, wenn die Eingabe geringfügig verrauscht, d.h. fehlerbehaftet, war.
eBooks, eBook Download (PDF), 1., Auflage, Ein klassisches Anwendungsgebiet für rekursive neuronale Netze stellen die sogenannten Assoziativspeicher dar. Sie gehören zu einem der Hauptforschungsgebiete im Bereich des Designs künstlicher neuronaler Netze. Eine Besonderheit von Assoziativ- oder inhaltsorientierten Speichern { im Gegensatz zu klassischen adressorientierten Speicherkonzepten { ist, dass ähnliche Adressen zu gleicher oder zumindest ähnlicher Information führen sollen. Durch dieses Konzept wird eine gewisse Fehlertoleranz geschaffen. Eine allgemeine Einführung zur Thematik der Assoziativspeicher findet sich z. B. bei Kamp und Hasler [14]. Untersucht wurden neuronale Assoziativspeicher u.A. von Grossberg [10], Anderson [1], Kohonen [15, 16], Cohen und Grossberg [6], Kosko [17, 18], Hassoun [11], Wang, Cruz und Mulligan [35, 36], Srinivasan und Chia [33], Shanmukh und Venkatesh [31], Zhang, Xu und Kwong [37], Leung [26, 27], Wang, Zhuang und Xing [34, 38], sowie Sommer und Palm [32]. Die gerade genannten Arbeiten befassen sich im wesentlichen mit dem allgemeinsten Fall von neuronalen Assoziativspeichern, den heteroassoziativen Netzen. In der vorliegenden Arbeit wollen wir uns speziell den autoassoziativen Speichern im Sinne von Hopfield [12, 13] widmen. Die Standardaufgabe eines solchen autoassoziativen Hopfield-Netzes ist die Speicherung einer Menge von t bipolar codierten Trainingsmustern Konkret soll das zu verwendende Hopfield-Netz so konstruiert werden, dass ein als Eingabe angelegtes Trainingsmuster ~x(s) aus der obigen Trainingsmenge zu einer Ausgabe desselben Musters ~x(s) führt. Trifft dies für alle Muster der Trainingsmenge zu, so sagt man, das Netz arbeitet perfekt auf den Trainingsdaten. Idealerweise soll auch dann das Muster ~x(s) ausgegeben werden, wenn die Eingabe geringfügig verrauscht, d.h. fehlerbehaftet, war.
2
Theorie und Anwendung einer Perceptron-Lernregel mit Dilatationen und Translationen zum Training von Hopfield-Netzen höherer Ordnung
DE NW
ISBN: 9783638153997 bzw. 3638153991, in Deutsch, GRIN Verlag GmbH, neu.
Lieferung aus: Deutschland, sofort lieferbar.
2002, 214 Seiten, Deutsch, Ein klassisches Anwendungsgebiet für rekursive neuronale Netze stellen die sogenannten Assoziativspeicher dar. Sie gehören zu einem der Hauptforschungsgebiete im Bereich des Designs künstlicher neuronaler Netze. Eine Besonderheit von Assoziativ- oder inhaltsorientierten Speichern { im Gegensatz zu klassischen adressorientierten Speicherkonzepten { ist, dass ähnliche Adressen zu gleicher oder zumindest ähnlicher Information führen sollen. Durch dieses Konzept wird eine gewisse Fehlertoleranz geschaffen. Eine allgemeine Einführung zur Thematik der Assoziativspeicher findet sich z. B. bei Kamp und Hasler [14].Untersucht wurden neuronale Assoziativspeicher u.A. von Grossberg [10], Anderson [1], Kohonen [15, 16], Cohen und Grossberg [6], Kosko [17, 18], Hassoun [11], Wang, Cruz und Mulligan [35, 36], Srinivasan und Chia [33], Shanmukh und Venkatesh [31], Zhang, Xu und Kwong [37], Leung [26, 27], Wang, Zhuang und Xing [34, 38], sowie Sommer und Palm [32]. Die gerade genannten Arbeiten befassen sich im wese.
2002, 214 Seiten, Deutsch, Ein klassisches Anwendungsgebiet für rekursive neuronale Netze stellen die sogenannten Assoziativspeicher dar. Sie gehören zu einem der Hauptforschungsgebiete im Bereich des Designs künstlicher neuronaler Netze. Eine Besonderheit von Assoziativ- oder inhaltsorientierten Speichern { im Gegensatz zu klassischen adressorientierten Speicherkonzepten { ist, dass ähnliche Adressen zu gleicher oder zumindest ähnlicher Information führen sollen. Durch dieses Konzept wird eine gewisse Fehlertoleranz geschaffen. Eine allgemeine Einführung zur Thematik der Assoziativspeicher findet sich z. B. bei Kamp und Hasler [14].Untersucht wurden neuronale Assoziativspeicher u.A. von Grossberg [10], Anderson [1], Kohonen [15, 16], Cohen und Grossberg [6], Kosko [17, 18], Hassoun [11], Wang, Cruz und Mulligan [35, 36], Srinivasan und Chia [33], Shanmukh und Venkatesh [31], Zhang, Xu und Kwong [37], Leung [26, 27], Wang, Zhuang und Xing [34, 38], sowie Sommer und Palm [32]. Die gerade genannten Arbeiten befassen sich im wese.
3
Theorie und Anwendung einer Perceptron-Lernregel mit Dilatationen und Translationen zum Training von Hopfield-Netzen höherer Ordnung
DE NW
ISBN: 9783638153997 bzw. 3638153991, in Deutsch, GRIN Verlag GmbH, neu.
Lieferung aus: Deutschland, sofort lieferbar.
Ein klassisches Anwendungsgebiet für rekursive neuronale Netze stellen die sogenannten Assoziativspeicher dar. Sie gehören zu einem der Hauptforschungsgebiete im Bereich des Designs künstlicher neuronaler Netze. Eine Besonderheit von Assoziativ- oder inhaltsorientierten Speichern { im Gegensatz zu klassischen adressorientierten Speicherkonzepten { ist, dass ähnliche Adressen zu gleicher oder zumindest ähnlicher Information führen sollen. Durch dieses Konzept wird eine gewisse Fehlertoleranz geschaffen. Eine allgemeine Einführung zur Thematik der Assoziativspeicher findet sich z. B. bei Kamp und Hasler [14].Untersucht wurden neuronale Assoziativspeicher u.A. von Grossberg [10], Anderson [1], Kohonen [15, 16], Cohen und Grossberg [6], Kosko [17, 18], Hassoun [11], Wang, Cruz und Mulligan [35, 36], Srinivasan und Chia [33], Shanmukh und Venkatesh [31], Zhang, Xu und Kwong [37], Leung [26, 27], Wang, Zhuang und Xing [34, 38], sowie Sommer und Palm [32]. Die gerade genannten Arbeiten befassen sich im wese.
Ein klassisches Anwendungsgebiet für rekursive neuronale Netze stellen die sogenannten Assoziativspeicher dar. Sie gehören zu einem der Hauptforschungsgebiete im Bereich des Designs künstlicher neuronaler Netze. Eine Besonderheit von Assoziativ- oder inhaltsorientierten Speichern { im Gegensatz zu klassischen adressorientierten Speicherkonzepten { ist, dass ähnliche Adressen zu gleicher oder zumindest ähnlicher Information führen sollen. Durch dieses Konzept wird eine gewisse Fehlertoleranz geschaffen. Eine allgemeine Einführung zur Thematik der Assoziativspeicher findet sich z. B. bei Kamp und Hasler [14].Untersucht wurden neuronale Assoziativspeicher u.A. von Grossberg [10], Anderson [1], Kohonen [15, 16], Cohen und Grossberg [6], Kosko [17, 18], Hassoun [11], Wang, Cruz und Mulligan [35, 36], Srinivasan und Chia [33], Shanmukh und Venkatesh [31], Zhang, Xu und Kwong [37], Leung [26, 27], Wang, Zhuang und Xing [34, 38], sowie Sommer und Palm [32]. Die gerade genannten Arbeiten befassen sich im wese.
4
Theorie und Anwendung einer Perceptron-Lernregel mit Dilatationen und Translationen zum Training von Hopfield-Netzen höherer Ordnung
DE NW EB DL
ISBN: 9783638153997 bzw. 3638153991, in Deutsch, GRIN Verlag, neu, E-Book, elektronischer Download.
Lieferung aus: Deutschland, Versandkostenfrei.
Theorie und Anwendung einer Perceptron-Lernregel mit Dilatationen und Translationen zum Training von Hopfield-Netzen höherer Ordnung: Ein klassisches Anwendungsgebiet für rekursive neuronale Netze stellen die sogenannten Assoziativspeicher dar. Sie gehören zu einem der Hauptforschungsgebiete im Bereich des Designs künstlicher neuronaler Netze. Eine Besonderheit von Assoziativ- oder inhaltsorientierten Speichern { im Gegensatz zu klassischen adressorientierten Speicherkonzepten { ist, dass ähnliche Adressen zu gleicher oder zumindest ähnlicher Information fähren sollen. Durch dieses Konzept wird eine gewisse Fehlertoleranz geschaffen. Eine allgemeine Einführung zur Thematik der Assoziativspeicher findet sich z. B. bei Kamp und Hasler [14]. Ebook.
Theorie und Anwendung einer Perceptron-Lernregel mit Dilatationen und Translationen zum Training von Hopfield-Netzen höherer Ordnung: Ein klassisches Anwendungsgebiet für rekursive neuronale Netze stellen die sogenannten Assoziativspeicher dar. Sie gehören zu einem der Hauptforschungsgebiete im Bereich des Designs künstlicher neuronaler Netze. Eine Besonderheit von Assoziativ- oder inhaltsorientierten Speichern { im Gegensatz zu klassischen adressorientierten Speicherkonzepten { ist, dass ähnliche Adressen zu gleicher oder zumindest ähnlicher Information fähren sollen. Durch dieses Konzept wird eine gewisse Fehlertoleranz geschaffen. Eine allgemeine Einführung zur Thematik der Assoziativspeicher findet sich z. B. bei Kamp und Hasler [14]. Ebook.
5
Theorie und Anwendung einer Perceptron-Lernregel mit Dilatationen und Translationen zum Training von Hopfield-Netzen höherer Ordnung
DE NW
ISBN: 9783638153997 bzw. 3638153991, in Deutsch, GRIN Verlag, neu.
Lieferung aus: Deutschland, Versandkostenfrei.
Die Beschreibung dieses Angebotes ist von geringer Qualität oder in einer Fremdsprache. Trotzdem anzeigen
Die Beschreibung dieses Angebotes ist von geringer Qualität oder in einer Fremdsprache. Trotzdem anzeigen
6
Theorie und Anwendung einer Perceptron-Lernregel mit Dilatationen und Translationen zum Training von Hopfield-Netzen höherer Ordnung (2001)
DE NW
ISBN: 9783638153997 bzw. 3638153991, in Deutsch, 213 Seiten, GRIN Verlag, neu.
Lieferung aus: Deutschland, Versandfertig in 1 - 2 Werktagen.
Von Händler/Antiquariat, grin-e-books.
Broschüre, Label: GRIN Verlag, GRIN Verlag, Produktgruppe: Book, Publiziert: 2001, Studio: GRIN Verlag.
Von Händler/Antiquariat, grin-e-books.
Broschüre, Label: GRIN Verlag, GRIN Verlag, Produktgruppe: Book, Publiziert: 2001, Studio: GRIN Verlag.
Lade…