Lernen von Handlungsfolgen durch Imitation Author - 8 Angebote vergleichen

Preise2013201420162019
Schnitt 34,99 40,43 21,58 16,43
Nachfrage
Bester Preis: 7,92 (vom 27.10.2019)
1
9783638317122 - Willi Richert: Lernen von Handlungsfolgen durch Imitation
Willi Richert

Lernen von Handlungsfolgen durch Imitation (2004)

Lieferung erfolgt aus/von: Österreich DE NW EB

ISBN: 9783638317122 bzw. 3638317129, in Deutsch, GRIN, neu, E-Book.

Diplomarbeit aus dem Jahr 2004 im Fachbereich Informatik - Allgemeines, Note: 1, Universität Paderborn, 34 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: [...] Je öfter ein Agent Datensätze dieser Art gesammelt hat, desto häufiger sollte er dann in zukünftigen Situationen entscheiden können, welche zuvor gelernte ... Diplomarbeit aus dem Jahr 2004 im Fachbereich Informatik - Allgemeines, Note: 1, Universität Paderborn, 34 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: [...] Je öfter ein Agent Datensätze dieser Art gesammelt hat, desto häufiger sollte er dann in zukünftigen Situationen entscheiden können, welche zuvor gelernte Verhaltensfolge er jeweils anwenden kann, um seine Performance zu verbessern. Ausgehend von der Erkenntnis, dass erfolgreiche Handlungsfolgen leichter und häufiger kopiert werden als erfolglose, sollen die Agenten auf diese Weise versuchen, ihr Verhalten mit der Zeit zu verbessern, ohne auf dedizierte Lernalgorithmen zurückzugreifen. Der oben erwähnte innere Zustand eines Agenten besteht aus Bedürfnissen und Emotionen, die der Agent stets in einem angenehmen Bereich zu halten versucht. Die Performance eines Agenten wird daran gemessen, wie erfolgreich er dabei ist. Im Laufe der Zeit sollte der Agent durch mehr und mehr gelernte Episoden es verstehen, seine Bedürfnisse und Emotionen immer besser zu kontrollieren. Bei erfolgter Imitation einer Handlungsfolge oder Episode, kann der imitierende Agent auch als ein Episodenvervielfältiger aufgefasst werden, die imitierte Episode demzufolge gemäß Blackmores Definition als Mem. Die Software-Agenten werden damit als sog. Mem-Wirte benutzt. Es ist zu untersuchen, in welchem Ausmaß Episoden vervielfältigt werden und ob sich in gewisser Weise Episoden-Schulen herausbilden, ob sich also die Agentengesellschaft in Gruppierungen oder Cluster aufteilen lässt. Diese Cluster enthalten dann nur solche Agenten, die zu einem bestimmten Grade die gleichen Episoden in gleichen Situationen anwenden, in ihren Verhaltensweisen also ähnlich sind. Die Ergebnisse des hier entwickelten Lernverfahrens und der darauf aufbauenden Architektur sollen mittels einer Simulationsumgebung ermittelt werden. Um dieses Ziel das Lernen von Handlungsfolgen durch Imitation zu erreichen, müssen in dieser Arbeit drei Themenblöcke zusammengebracht werden. Zuerst ist da die Fähigkeit der Imitation von Episoden und der dadurch erreichte Lerneffekt. Diese erfolgreich gelernten und angewandten Episoden wirken sich dann mittelbar auf die Bedürfnisse und Emotionen des Agenten aus. Daraufhin kontrolliert der Agent auf diese Weise beeinflusst seine verhaltensbasierte Architektur, die indirekt über die Umweltrückgekoppelt seinen emotionalen Zustand verändert. Die detaillierten Zielsetzungen in diesen drei Themen Lernen durch Imitation, Bedürfnisse und Emotionen und verhaltensbasierte Architekturen werden im Folgenden eingehender vorgestellt. 19.10.2004, PDF.
2
9783638317122 - Willi Richert: Lernen von Handlungsfolgen durch Imitation
Willi Richert

Lernen von Handlungsfolgen durch Imitation (2004)

Lieferung erfolgt aus/von: Schweiz DE NW EB

ISBN: 9783638317122 bzw. 3638317129, in Deutsch, GRIN, neu, E-Book.

12,27 (Fr. 13,90)¹ + Versand: 15,89 (Fr. 18,00)¹ = 28,16 (Fr. 31,90)¹
unverbindlich
Lieferung aus: Schweiz, Sofort per Download lieferbar.
Diplomarbeit aus dem Jahr 2004 im Fachbereich Informatik - Allgemeines, Note: 1, Universität Paderborn, 34 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: [...] Je öfter ein Agent Datensätze dieser Art gesammelt hat, desto häufiger sollte er dann in zukünftigen Situationen entscheiden können, welche zuvor gelernte ... Diplomarbeit aus dem Jahr 2004 im Fachbereich Informatik - Allgemeines, Note: 1, Universität Paderborn, 34 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: [...] Je öfter ein Agent Datensätze dieser Art gesammelt hat, desto häufiger sollte er dann in zukünftigen Situationen entscheiden können, welche zuvor gelernte Verhaltensfolge er jeweils anwenden kann, um seine Performance zu verbessern. Ausgehend von der Erkenntnis, dass erfolgreiche Handlungsfolgen leichter und häufiger kopiert werden als erfolglose, sollen die Agenten auf diese Weise versuchen, ihr Verhalten mit der Zeit zu verbessern, ohne auf dedizierte Lernalgorithmen zurückzugreifen. Der oben erwähnte innere Zustand eines Agenten besteht aus Bedürfnissen und Emotionen, die der Agent stets in einem angenehmen Bereich zu halten versucht. Die Performance eines Agenten wird daran gemessen, wie erfolgreich er dabei ist. Im Laufe der Zeit sollte der Agent durch mehr und mehr gelernte Episoden es verstehen, seine Bedürfnisse und Emotionen immer besser zu kontrollieren. Bei erfolgter Imitation einer Handlungsfolge oder Episode, kann der imitierende Agent auch als ein Episodenvervielfältiger aufgefasst werden, die imitierte Episode demzufolge gemäss Blackmores Definition als Mem. Die Software-Agenten werden damit als sog. Mem-Wirte benutzt. Es ist zu untersuchen, in welchem Ausmass Episoden vervielfältigt werden und ob sich in gewisser Weise Episoden-Schulen herausbilden, ob sich also die Agentengesellschaft in Gruppierungen oder Cluster aufteilen lässt. Diese Cluster enthalten dann nur solche Agenten, die zu einem bestimmten Grade die gleichen Episoden in gleichen Situationen anwenden, in ihren Verhaltensweisen also ähnlich sind. Die Ergebnisse des hier entwickelten Lernverfahrens und der darauf aufbauenden Architektur sollen mittels einer Simulationsumgebung ermittelt werden. Um dieses Ziel das Lernen von Handlungsfolgen durch Imitation zu erreichen, müssen in dieser Arbeit drei Themenblöcke zusammengebracht werden. Zuerst ist da die Fähigkeit der Imitation von Episoden und der dadurch erreichte Lerneffekt. Diese erfolgreich gelernten und angewandten Episoden wirken sich dann mittelbar auf die Bedürfnisse und Emotionen des Agenten aus. Daraufhin kontrolliert der Agent auf diese Weise beeinflusst seine verhaltensbasierte Architektur, die indirekt über die Umweltrückgekoppelt seinen emotionalen Zustand verändert. Die detaillierten Zielsetzungen in diesen drei Themen Lernen durch Imitation, Bedürfnisse und Emotionen und verhaltensbasierte Architekturen werden im Folgenden eingehender vorgestellt. PDF, 19.10.2004.
3
9783638317122 - Willi Richert: Lernen von Handlungsfolgen durch Imitation
Willi Richert

Lernen von Handlungsfolgen durch Imitation (2004)

Lieferung erfolgt aus/von: Deutschland DE NW EB DL

ISBN: 9783638317122 bzw. 3638317129, in Deutsch, GRIN Verlag, neu, E-Book, elektronischer Download.

Lieferung aus: Deutschland, Versandkostenfrei.
Lernen von Handlungsfolgen durch Imitation: Diplomarbeit aus dem Jahr 2004 im Fachbereich Informatik - Allgemeines, Note: 1, Universität Paderborn, 34 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: [...] Je öfter ein Agent Datensätze dieser Art gesammelt hat, desto häufiger sollte erdann in zukünftigen Situationen entscheiden können, welche zuvor gelernte Verhaltensfolge er jeweils anwenden kann, um seine Performance zu verbessern. Ausgehend von der Erkenntnis, dass erfolgreiche Handlungsfolgen leichter und häufiger kopiert werden als erfolglose, sollen die Agenten auf diese Weise versuchen, ihr Verhalten mit der Zeit zu verbessern, ohne auf dedizierte Lernalgorithmen zurückzugreifen. Der oben erwähnte innere Zustand eines Agenten besteht aus Bedürfnissen und Emotionen, die der Agent stets in einem angenehmen Bereich zu halten versucht. Die Performance eines Agenten wird daran gemessen, wie erfolgreich er dabei ist. Im Laufe der Zeit sollte der Agent durch mehr und mehr gelernte Episoden es verstehen, seine Bedürfnisse und Emotionen immer besser zu kontrollieren. Bei erfolgter Imitation einer Handlungsfolge oder Episode, kann der imitierende Agent auch als ein `Episodenvervielf?ltiger` aufgefasst werden, die imitierte Episode demzufolge gemäß Blackmores Definition als `Mem`. Die Software-Agenten werden damit als sog. `Mem-Wirte` benutzt. Es ist zu untersuchen, in welchem Ausma? Episoden vervielfältigt werden und ob sich in gewisser Weise Episoden-`Schulen` herausbilden, ob sich also die Agentengesellschaft in Gruppierungen oder Cluster aufteilen lässt. Diese Cluster enthalten dann nur solche Agenten, die zu einem bestimmten Grade die gleichen Episoden in gleichen Situationen anwenden, in ihren Verhaltensweisen also ähnlich sind. Die Ergebnisse des hier entwickelten Lernverfahrens und der darauf aufbauenden Architektur sollen mittels einer Simulationsumgebung ermittelt werden. Um dieses Ziel - das Lernen von Handlungsfolgen durch Imitation - zu erreichen, müssen in dieser Arbeit drei Themenblöcke zusammengebracht werden. Zuerst ist da die Fähigkeit der Imitation von Episoden und der dadurch erreichte Lerneffekt. Diese erfolgreich gelernten und angewandten Episoden wirken sich dann mittelbar auf die Bedürfnisse und Emotionen des Agenten aus. Daraufhin kontrolliert der Agent auf diese Weise beeinflusst seine verhaltensbasierte Architektur, die indirekt über die Umweltr?ckgekoppelt seinen emotionalen Zustand verändert. Die detaillierten Zielsetzungen in diesen drei Themen Lernen durch Imitation, Bedürfnisse und Emotionen und verhaltensbasierte Architekturen werden im Folgenden eingehender vorgestellt. Ebook.
4
9783638317122 - Willi Richert: Lernen von Handlungsfolgen durch Imitation
Willi Richert

Lernen von Handlungsfolgen durch Imitation (2004)

Lieferung erfolgt aus/von: Deutschland DE NW EB DL

ISBN: 9783638317122 bzw. 3638317129, in Deutsch, GRIN Verlag, neu, E-Book, elektronischer Download.

Lieferung aus: Deutschland, Versandkostenfrei.
Lernen von Handlungsfolgen durch Imitation: Diplomarbeit aus dem Jahr 2004 im Fachbereich Informatik - Allgemeines, Note: 1, Universität Paderborn, 34 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: [...] Je öfter ein Agent Datensätze dieser Art gesammelt hat, desto häufiger sollte erdann in zukünftigen Situationen entscheiden können, welche zuvor gelernte Verhaltensfolge er jeweils anwenden kann, um seine Performance zu verbessern. Ausgehend von der Erkenntnis, dass erfolgreiche Handlungsfolgen leichter und häufiger kopiert werden als erfolglose, sollen die Agenten auf diese Weise versuchen, ihr Verhalten mit der Zeit zu verbessern, ohne auf dedizierte Lernalgorithmen zurückzugreifen. Der oben erwähnte innere Zustand eines Agenten besteht aus Bedürfnissen und Emotionen, die der Agent stets in einem angenehmen Bereich zu halten versucht. Die Performance eines Agenten wird daran gemessen, wie erfolgreich er dabei ist. Im Laufe der Zeit sollte der Agent durch mehr und mehr gelernte Episoden es verstehen, seine Bedürfnisse und Emotionen immer besser zu kontrollieren. Bei erfolgter Imitation einer Handlungsfolge oder Episode, kann der imitierende Agent auch als ein `Episodenvervielfältiger` aufgefasst werden, die imitierte Episode demzufolge gemäß Blackmores Definition als `Mem`. Die Software-Agenten werden damit als sog. `Mem-Wirte` benutzt. Es ist zu untersuchen, in welchem Ausmaß Episoden vervielfältigt werden und ob sich in gewisser Weise Episoden-`Schulen` herausbilden, ob sich also die Agentengesellschaft in Gruppierungen oder Cluster aufteilen lässt. Diese Cluster enthalten dann nur solche Agenten, die zu einem bestimmten Grade die gleichen Episoden in gleichen Situationen anwenden, in ihren Verhaltensweisen also ähnlich sind. Die Ergebnisse des hier entwickelten Lernverfahrens und der darauf aufbauenden Architektur sollen mittels einer Simulationsumgebung ermittelt werden. Um dieses Ziel - das Lernen von Handlungsfolgen durch Imitation - zu erreichen, müssen in dieser Arbeit drei Themenblöcke zusammengebracht werden. Zuerst ist da die Fähigkeit der Imitation von Episoden und der dadurch erreichte Lerneffekt. Diese erfolgreich gelernten und angewandten Episoden wirken sich dann mittelbar auf die Bedürfnisse und Emotionen des Agenten aus. Daraufhin kontrolliert der Agent auf diese Weise beeinflusst seine verhaltensbasierte Architektur, die indirekt über die Umweltrückgekoppelt seinen emotionalen Zustand verändert. Die detaillierten Zielsetzungen in diesen drei Themen Lernen durch Imitation, Bedürfnisse und Emotionen und verhaltensbasierte Architekturen werden im Folgenden eingehender vorgestellt. Ebook.
5
9783638317122 - Willi Richert: Lernen von Handlungsfolgen durch Imitation
Willi Richert

Lernen von Handlungsfolgen durch Imitation (2004)

Lieferung erfolgt aus/von: Brasilien DE NW EB DL

ISBN: 9783638317122 bzw. 3638317129, in Deutsch, GRIN Verlag, GRIN Verlag, GRIN Verlag, neu, E-Book, elektronischer Download.

11,07 (BRL 47,29)¹
versandkostenfrei, unverbindlich
Lieferung aus: Brasilien, in-stock.
Diplomarbeit aus dem Jahr 2004 im Fachbereich Informatik - Allgemeines, Note: 1, Universität Paderborn, 34 Quellen im Literaturverzeichnis, Sprache: Deutsch, Abstract: [.] Je öfter ein Agent Datensätze dieser Art gesammelt hat, desto häufiger so.
6
9783638317122 - Willi Richert: Lernen von Handlungsfolgen durch Imitation
Willi Richert

Lernen von Handlungsfolgen durch Imitation

Lieferung erfolgt aus/von: Deutschland ~DE PB NW EB DL

ISBN: 9783638317122 bzw. 3638317129, vermutlich in Deutsch, GRIN Verlag, Taschenbuch, neu, E-Book, elektronischer Download.

34,99 + Versand: 7,50 = 42,49
unverbindlich
Lernen von Handlungsfolgen durch Imitation ab 34.99 € als epub eBook: . Aus dem Bereich: eBooks, Sachthemen & Ratgeber, Computer & Internet,.
7
9783638317122 - Lernen von Handlungsfolgen durch Imitation

Lernen von Handlungsfolgen durch Imitation

Lieferung erfolgt aus/von: Deutschland DE NW EB DL

ISBN: 9783638317122 bzw. 3638317129, in Deutsch, Grin-Verlag, München , Deutschland, neu, E-Book, elektronischer Download.

Lernen von Handlungsfolgen durch Imitation ab 10.99 EURO.
8
9783638317122 - Lernen von Handlungsfolgen durch Imitation

Lernen von Handlungsfolgen durch Imitation

Lieferung erfolgt aus/von: Deutschland ~DE NW EB DL

ISBN: 9783638317122 bzw. 3638317129, vermutlich in Deutsch, Grin-Verlag, München , Deutschland, neu, E-Book, elektronischer Download.

Lernen von Handlungsfolgen durch Imitation ab 34.99 EURO.
Lade…