Quattrocchi / Heise | Informations- und Codierungstheorie | Buch | 978-3-540-57477-4 | www.sack.de

Buch, Deutsch, 476 Seiten, Format (B × H): 155 mm x 235 mm, Gewicht: 744 g

Reihe: Springer-Lehrbuch

Quattrocchi / Heise

Informations- und Codierungstheorie

Mathematische Grundlagen der Daten-Kompression und -Sicherung in diskreten Kommunikationssystemen
3. Auflage 1995
ISBN: 978-3-540-57477-4
Verlag: Springer Berlin Heidelberg

Mathematische Grundlagen der Daten-Kompression und -Sicherung in diskreten Kommunikationssystemen

Buch, Deutsch, 476 Seiten, Format (B × H): 155 mm x 235 mm, Gewicht: 744 g

Reihe: Springer-Lehrbuch

ISBN: 978-3-540-57477-4
Verlag: Springer Berlin Heidelberg


In dieser Einführung werden die probabilistische Informationstheorie und die algebraische Codierungstheorie einheitlich behandelt. Dabei wurde auf die unmißverständliche Formulierung der Begriffe und auf exakte Beweise besonderer Wert gelegt. Die mathematischen Hilfsmittel werden bereitgestellt, wobei an Vorkenntnissen nicht mehr als eine solide mathematische Schulbildung vorausgesetzt wird. Das Buch ist aus Vorlesungen und Seminaren an der Technischen Universität München und der Universität Modena entstanden und richtet sich vornehmlich an Studenten der Informatik. Aber auch der an den mathematischen Grundlagen seines Gebietes interessierte Nachrichtentechniker kann es mit Gewinn lesen. Mathematikern bieten insbesondere die Kapitel über algebraische Codierungstheorie eine Anwendung der Theorie der endlichen Körper.
Für Studenten und Wissenschaftler der Informatik sowie interessierte Nachrichtentechniker und Mathematiker.
Quattrocchi / Heise Informations- und Codierungstheorie jetzt bestellen!

Zielgruppe


Graduate

Weitere Infos & Material


1 Grundlagen der Codierung.- 1.1 Zeichen und Nachrichten.- 1.2 Der ISBN-Code.- 1.3 Diskretisierung.- 1.4 Telegraphen-Codes.- 1.5 Binärcodierungen alphanumerischer Zeichenvorräte.- 1.6 Paritätskontrolle.- 1.7 Grundbegriffe der Codierungstheorie.- 1.8 Interleaving.- 2 Quellen und Kanäle.- 2.1 Endliche Stichprobenräume.- 2.2 Quellen.- 2.3 Kanäle.- 2.4 Kanalerweiterungen.- 2.5 Kanaldecodierer.- 2.6 Kaskadenschaltung.- 3 Information.- 3.1 Logarithmen.- 3.2 Informationsgehalt.- 3.3 Entropie.- 3.4 Transinformation.- 3.5 Der Hauptsatz der Datenverarbeitung.- 3.6 Thermodynamische Entropie.- 3.7 Kanalkapazität.- 3.8 Die FANOsche Ungleichung.- 3.9 Die Entropie stationärer Markov-Quellen.- 4 Quellencodierung.- 4.1 Effizienz.- 4.2 Der HUFFMANsche Algorithmus.- 4.3 SHANNON-FANO-Codierung.- 4.4 Der Quellencodierungssatz.- 4.5 Codierung stationärer Markov-Quellen.- 4.6 Der Ausgang des Quellencodierers.- 5 Kanalcodierung.- 5.1 Stochastische Codes.- 5.2 Der Kanalcodierungssatz.- 5.3 Die Umkehrung des Kanalcodierungssatzes.- 6 Informations- und Korrekturrate.- 6.1 Die Korrekturrate.- 6.2 Die SlNGLETON-Schranke.- 6.3 Die PLOTKIN-Schranke.- 6.4 Die HAMMING-Schranke.- 6.5 Die GlLBERT-Schranke.- 7 Algebraische Grundlagen.- 7.1 Vektorräume.- 7.2 Polynome.- 7.3 Restklassenringe.- 7.4 Endliche Körper.- 7.5 Einheitswurzeln.- 8 Lineare Codes.- 8.1 Das HAMMING-Gewicht.- 8.2 Decodierfehlerwahrscheinlichkeit.- 8.3 Generatormatrizen.- 8.4 Orthogonalität.- 8.5 Syndrom-Decodierung.- 8.6 Schranken für lineare Codes.- 8.7 Code-Modifikationen.- 8.8 Code-Kombinationen.- 8.9 Lineare Code-Isomorphismen.- 8.10 Reed-Muller-Codes.- 8.11 Existenz von MDS-Codes.- 9 Zyklische Codes.- 9.1 Algebraische Beschreibung.- 9.2 Codierung.- 9.3 Der Äquivalenzsatz.- 9.4 Die BCH-Schranke.- 9.5 VerallgemeinerteReed-Muller-Codes.- 9.6 Quadratische-Rest-Codes.- 9.7 Goppa-Codes.- 10 Faltungscodes.- 10.1 Faltungscodierer.- 10.2 Algebraische Beschreibung.- 10.3 Zustandsdiagramme.- 10.4 Decodierung.- 10.5 Eine Origami-Konstruktion.- Literatur.- Stichwortverzeichnis.



Ihre Fragen, Wünsche oder Anmerkungen
Vorname*
Nachname*
Ihre E-Mail-Adresse*
Kundennr.
Ihre Nachricht*
Lediglich mit * gekennzeichnete Felder sind Pflichtfelder.
Wenn Sie die im Kontaktformular eingegebenen Daten durch Klick auf den nachfolgenden Button übersenden, erklären Sie sich damit einverstanden, dass wir Ihr Angaben für die Beantwortung Ihrer Anfrage verwenden. Selbstverständlich werden Ihre Daten vertraulich behandelt und nicht an Dritte weitergegeben. Sie können der Verwendung Ihrer Daten jederzeit widersprechen. Das Datenhandling bei Sack Fachmedien erklären wir Ihnen in unserer Datenschutzerklärung.