Informationstheorie - 8 Angebote vergleichen
Preise | 2014 | 2015 | 2019 | 2020 | 2023 |
---|---|---|---|---|---|
Schnitt | € 45,90 | € 63,73 | € 49,43 | € 54,63 | € 49,95 |
Nachfrage |
1
Informationstheorie
DE NW
ISBN: 9783519025740 bzw. 3519025744, in Deutsch, Vieweg & Teubner, neu.
Wenn in einem Kanal jedes einzelne Bit mit einer Wahrscheinlichkeit von 1% falsch übertragen wird, wieviel fehlerkorrigierende Redundanz muß man dann hinzufügen, um eine faktisch fehlerfreie Datenübertragung zu gewährleisten? Dies ist eine typische Fragestellung der Informationstheorie, die mathematische Modelle der Erzeugung von Nachrichten und deren Übertragung in gestörten Kanälen bereitstellt. Wegen der hierbei auftretenden Zufallseinflüsse kommen insbesondere stochastische Methoden zum Einsatz. Das vorliegende Buch gibt auf der Basis diskreter Wahrscheinlichkeitsräume eine Einführung in die Informationstheorie. Die Stoffauswahl richtet sich an Mathematiker, Informatiker und auch an an Grundlagen interessierte Elektrotechniker. Neben der theoretischen Fundierung wird ebenso auf die Darstellung der praktischen Anwendungen Wert gelegt. Behandelt werden Entropie, Kodierung sowie gedächtnislose, stationäre und Markoff-Quellen. Der Anschluß solcher Quellen an einen gestörten Kanal führt zum Begriff der Kanalkapazität, mit dessen Hilfe der Shannonsche Fundamentalsatz formuliert und bewiesen wird. Den Abschluß bildet ein kurzes Kapitel über fehlerkorrigierende Kodes, das auch die Klasse der für die Praxis wichtigen Faltungskodes und den Viterbi-Algorithmus behandelt. Die einzelnen Kapitel werden durch umfangreiche Übungsaufgaben vervollständigt. Rudolf Mathar, 20.5 x 13.7 x 1.0 cm, Buch.
2
Informationstheorie
~DE PB NW
ISBN: 9783519025740 bzw. 3519025744, vermutlich in Deutsch, Springer Shop, Taschenbuch, neu.
Lieferung aus: Deutschland, Lagernd.
Wenn in einem Kanal jedes einzelne Bit mit einer Wahrscheinlichkeit von 1% falsch übertragen wird, wieviel fehlerkorrigierende Redundanz muß man dann hinzufügen, um eine faktisch fehlerfreie Datenübertragung zu gewährleisten? Dies ist eine typische Fragestellung der Informationstheorie, die mathematische Modelle der Erzeugung von Nachrichten und deren Übertragung in gestörten Kanälen bereitstellt. Wegen der hierbei auftretenden Zufallseinflüsse kommen insbesondere stochastische Methoden zum Einsatz. Das vorliegende Buch gibt auf der Basis diskreter Wahrscheinlichkeitsräume eine Einführung in die Informationstheorie. Die Stoffauswahl richtet sich an Mathematiker, Informatiker und auch an an Grundlagen interessierte Elektrotechniker. Neben der theoretischen Fundierung wird ebenso auf die Darstellung der praktischen Anwendungen Wert gelegt. Behandelt werden Entropie, Kodierung sowie gedächtnislose, stationäre und Markoff-Quellen. Der Anschluß solcher Quellen an einen gestörten Kanal führt zum Begriff der Kanalkapazität, mit dessen Hilfe der Shannonsche Fundamentalsatz formuliert und bewiesen wird. Den Abschluß bildet ein kurzes Kapitel über fehlerkorrigierende Kodes, das auch die Klasse der für die Praxis wichtigen Faltungskodes und den Viterbi-Algorithmus behandelt. Die einzelnen Kapitel werden durch umfangreiche Übungsaufgaben vervollständigt. Soft cover.
Wenn in einem Kanal jedes einzelne Bit mit einer Wahrscheinlichkeit von 1% falsch übertragen wird, wieviel fehlerkorrigierende Redundanz muß man dann hinzufügen, um eine faktisch fehlerfreie Datenübertragung zu gewährleisten? Dies ist eine typische Fragestellung der Informationstheorie, die mathematische Modelle der Erzeugung von Nachrichten und deren Übertragung in gestörten Kanälen bereitstellt. Wegen der hierbei auftretenden Zufallseinflüsse kommen insbesondere stochastische Methoden zum Einsatz. Das vorliegende Buch gibt auf der Basis diskreter Wahrscheinlichkeitsräume eine Einführung in die Informationstheorie. Die Stoffauswahl richtet sich an Mathematiker, Informatiker und auch an an Grundlagen interessierte Elektrotechniker. Neben der theoretischen Fundierung wird ebenso auf die Darstellung der praktischen Anwendungen Wert gelegt. Behandelt werden Entropie, Kodierung sowie gedächtnislose, stationäre und Markoff-Quellen. Der Anschluß solcher Quellen an einen gestörten Kanal führt zum Begriff der Kanalkapazität, mit dessen Hilfe der Shannonsche Fundamentalsatz formuliert und bewiesen wird. Den Abschluß bildet ein kurzes Kapitel über fehlerkorrigierende Kodes, das auch die Klasse der für die Praxis wichtigen Faltungskodes und den Viterbi-Algorithmus behandelt. Die einzelnen Kapitel werden durch umfangreiche Übungsaufgaben vervollständigt. Soft cover.
3
Informationstheorie: Diskrete Modelle und Verfahren Rudolf Mathar With
~DE PB NW
ISBN: 9783519025740 bzw. 3519025744, vermutlich in Deutsch, Vieweg+Teubner Verlag, Taschenbuch, neu.
Lieferung aus: Vereinigte Staaten von Amerika, Lagernd, zzgl. Versandkosten.
Wenn in einem Kanal jedes einzelne Bit mit einer Wahrscheinlichkeit von 1% falsch übertragen wird, wieviel fehlerkorrigierende Redundanz muß man dann hinzufügen, um eine faktisch fehlerfreie Datenübertragung zu gewährleisten? Dies ist eine typische Fragestellung der Informationstheorie, die mathematische Modelle der Erzeugung von Nachrichten und deren Übertragung in gestörten Kanälen bereitstellt. Wegen der hierbei auftretenden Zufallseinflüsse kommen insbesondere stochastische Methoden zum Einsatz. Das vorliegende Buch gibt auf der Basis diskreter Wahrscheinlichkeitsräume eine Einführung in die Informationstheorie. Die Stoffauswahl richtet sich an Mathematiker, Informatiker und auch an an Grundlagen interessierte Elektrotechniker. Neben der theoretischen Fundierung wird ebenso auf die Darstellung der praktischen Anwendungen Wert gelegt. Behandelt werden Entropie, Kodierung sowie gedächtnislose, stationäre und Markoff-Quellen. Der Anschluß solcher Quellen an einen gestörten Kanal führt zum Begriff der Kanalkapazität, mit dessen Hilfe der Shannonsche Fundamentalsatz formuliert und bewiesen wird. Den Abschluß bildet ein kurzes Kapitel über fehlerkorrigierende Kodes, das auch die Klasse der für die Praxis wichtigen Faltungskodes und den Viterbi-Algorithmus behandelt. Die einzelnen Kapitel werden durch umfangreiche Übungsaufgaben vervollständigt.
Wenn in einem Kanal jedes einzelne Bit mit einer Wahrscheinlichkeit von 1% falsch übertragen wird, wieviel fehlerkorrigierende Redundanz muß man dann hinzufügen, um eine faktisch fehlerfreie Datenübertragung zu gewährleisten? Dies ist eine typische Fragestellung der Informationstheorie, die mathematische Modelle der Erzeugung von Nachrichten und deren Übertragung in gestörten Kanälen bereitstellt. Wegen der hierbei auftretenden Zufallseinflüsse kommen insbesondere stochastische Methoden zum Einsatz. Das vorliegende Buch gibt auf der Basis diskreter Wahrscheinlichkeitsräume eine Einführung in die Informationstheorie. Die Stoffauswahl richtet sich an Mathematiker, Informatiker und auch an an Grundlagen interessierte Elektrotechniker. Neben der theoretischen Fundierung wird ebenso auf die Darstellung der praktischen Anwendungen Wert gelegt. Behandelt werden Entropie, Kodierung sowie gedächtnislose, stationäre und Markoff-Quellen. Der Anschluß solcher Quellen an einen gestörten Kanal führt zum Begriff der Kanalkapazität, mit dessen Hilfe der Shannonsche Fundamentalsatz formuliert und bewiesen wird. Den Abschluß bildet ein kurzes Kapitel über fehlerkorrigierende Kodes, das auch die Klasse der für die Praxis wichtigen Faltungskodes und den Viterbi-Algorithmus behandelt. Die einzelnen Kapitel werden durch umfangreiche Übungsaufgaben vervollständigt.
4
Informationstheorie
DE NW AB
ISBN: 9783519025740 bzw. 3519025744, in Deutsch, Teubner, Stuttgart, Deutschland, neu, Hörbuch.
Lieferung aus: Österreich, Lieferzeit: 5 Tage, zzgl. Versandkosten.
Das vorliegende Buch ist aus Vorlesungen entstanden, die ich an der Uni versitat Augsburg und der RWTH Aachen gehalten habe. Aus der Fiille des vorliegenden Materials im Bereich der Informationstheorie sind in vier Kapiteln wichtige Begriffsbildungen und Ergebnisse zusammengestellt. Aus gangspunkt ist der von Shannon gepragte Begriff der Entropie. Er ermoglicht die theoretischen Untersuchungen zur Kodierung diskreter Quellen und die abstrakte Bewertung der Ubertragungsgiite von diskreten Kanalen. Den Ab schlufi bildet ein Kapitel iiber fehlerkorrigierende Kodes. Diese sehr kurze Einfiihrung in die Kodierungstheorie scheint mir wichtig, um wenigstens ei nige Konzepte und Verfahren zur Konstruktion fehlerkorrigierender Kodes mit kleiner Irrtumswahrscheinlichkeit bereitzustellen, deren Existenz durch den Shannonschen Fundamentalsatz gesichert wird. Wegen ihres hohen Da tendurchsatzes und der effizienten Implementierbarkeit sind hierbei die Fal tungskodierer mit ihrer Trellis-Darstellung und dem Viterbi-Algorithmus zur Dekodierung besonders behandelnswert. Nach meiner Erfahrung deckt der Stoff eine vierstiindige einfiihrende Vor lesung iiber Informationstheorie ab, bei der die konstruktive Kodierungs theorie allerdings nur kurz angeschnitten wird. Zum Abschlufi jedes Kapi tels finden sich Ubungsaufgaben, die nach Studium des zugehorigen Stoffs ohne weitere Hilfsmittel gelost werden konnen. Insofern eignet sich das vor liegende Buch sowohl als Begleitmaterial zu einer Vorlesung als auch zum Selbststudium. 1m Text sind parallel zu den deutschen Fachbegriffen auch die englischen eingefiihrt, sofern sie sich nicht nur leicht in der Schreibweise unterscheiden. Diese finden sich auch im Index wieder. Ich mochte hiermit Anfangern den Einstieg in die englische Literatur erleichtern.
Das vorliegende Buch ist aus Vorlesungen entstanden, die ich an der Uni versitat Augsburg und der RWTH Aachen gehalten habe. Aus der Fiille des vorliegenden Materials im Bereich der Informationstheorie sind in vier Kapiteln wichtige Begriffsbildungen und Ergebnisse zusammengestellt. Aus gangspunkt ist der von Shannon gepragte Begriff der Entropie. Er ermoglicht die theoretischen Untersuchungen zur Kodierung diskreter Quellen und die abstrakte Bewertung der Ubertragungsgiite von diskreten Kanalen. Den Ab schlufi bildet ein Kapitel iiber fehlerkorrigierende Kodes. Diese sehr kurze Einfiihrung in die Kodierungstheorie scheint mir wichtig, um wenigstens ei nige Konzepte und Verfahren zur Konstruktion fehlerkorrigierender Kodes mit kleiner Irrtumswahrscheinlichkeit bereitzustellen, deren Existenz durch den Shannonschen Fundamentalsatz gesichert wird. Wegen ihres hohen Da tendurchsatzes und der effizienten Implementierbarkeit sind hierbei die Fal tungskodierer mit ihrer Trellis-Darstellung und dem Viterbi-Algorithmus zur Dekodierung besonders behandelnswert. Nach meiner Erfahrung deckt der Stoff eine vierstiindige einfiihrende Vor lesung iiber Informationstheorie ab, bei der die konstruktive Kodierungs theorie allerdings nur kurz angeschnitten wird. Zum Abschlufi jedes Kapi tels finden sich Ubungsaufgaben, die nach Studium des zugehorigen Stoffs ohne weitere Hilfsmittel gelost werden konnen. Insofern eignet sich das vor liegende Buch sowohl als Begleitmaterial zu einer Vorlesung als auch zum Selbststudium. 1m Text sind parallel zu den deutschen Fachbegriffen auch die englischen eingefiihrt, sofern sie sich nicht nur leicht in der Schreibweise unterscheiden. Diese finden sich auch im Index wieder. Ich mochte hiermit Anfangern den Einstieg in die englische Literatur erleichtern.
Lade…