Fehlerkorrektur. Gliederung Kanalstörungen Einfache Verfahren Hamming-Abstand Technische Schaltungen Binäre Arithmetik Matrizenrechnung Typische Codes

Ähnliche Dokumente
Fehlerkorrektur. Einzelfehler besitze die Wahrscheinlichkeit p. Es gelte Unabhängigkeit der Fehlereinflüsse Für ein Wort der Länge n gelte noch:

Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011

Rechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir?

Übungen zur Vorlesung Grundlagen der Rechnernetze. Zusätzliche Übungen

Die Mathematik in der CD

Einführung in die Kodierungstheorie

Codierungstheorie Teil 1: Fehlererkennung und -behebung

Empfänger. Sender. Fehlererkennung und ggf. Fehlerkorrektur durch redundante Informationen. Längssicherung durch Paritätsbildung (Blockweise)

31 Polynomringe Motivation Definition: Polynomringe

Codierungsverfahren SS Reed-Solomon-Codes zur Mehrblock-Bündelfehler-Korrektur

KANALCODIERUNG AUFGABEN. Aufgabe 1. Aufgabe 2

Fehlerschutz durch Hamming-Codierung

Theoretische Grundlagen der Informatik WS 09/10

6 Fehlerkorrigierende Codes

Codierung zur Fehlerkorrektur und Fehlererkennung

Grundlagen der Technischen Informatik. 2. Übung

4.0.2 Beispiel (Einfacher Wiederholungscode). Im einfachsten Fall wird die Nachricht einfach wiederholt. D.h. man verwendet die Generatorabbildung

Single Parity check Codes (1)

3 Der Hamming-Code. Hamming-Codes

Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2

Information und Codierung

Fehlererkennung und Fehlerkorrektur in Codes

(Prüfungs-)Aufgaben zur Codierungstheorie

Angewandte Informationstechnik

Übung 14: Block-Codierung

5. Woche Perfekte und Optimale Codes, Schranken. 5. Woche: Perfekte und Optimale Codes, Schranken 88/ 142

Diskrete Mathematik. Sebastian Iwanowski FH Wedel. Kap. 4: Zahlentheorie

Übungen zur Vorlesung Diskrete Strukturen

Fehlerkorrigierende Codes

Übung zu Drahtlose Kommunikation. 7. Übung

Kapitel 3 Kanalcodierung

Einführung in die Codierungstheorie

Index. Chien-Suche, 220 CIRC, 234 Code, 2, 9 äquidistanter, 81

Übungen zu Architektur Eingebetteter Systeme. Teil 1: Grundlagen. Blatt : Grundlagen des Cyclic redundancy code (CRC)

4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140

Übung zur Vorlesung. Informationstheorie und Codierung

37 Gauß-Algorithmus und lineare Gleichungssysteme

Informationstheorie und Codierung

Algebra und Diskrete Mathematik, PS3. Sommersemester Prüfungsfragen

GF(2 2 ) Beispiel eines Erweiterungskörpers (1)

1 Zahlentheorie. 1.1 Kongruenzen

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Zahlen und metrische Räume

Grundlagen Digitaler Systeme (GDS)

(Allgemeine) Vektorräume (Teschl/Teschl 9)

1 Potenzen und Polynome

9.2 Invertierbare Matrizen

Zahlentheorie für den Landeswettbewerb für Anfängerinnen und Anfänger der Österreichischen Mathematik-Olympiade

9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1

Kongruenz modulo g definiert auf K[x] eine Äquivalenzrelation g : h g f h f ist durch g teilbar, und [f] g ist die Äquivalenzklasse von f.

Nachrichtentechnik 4 3 Kanalcodierung in der Nachrichtenübertragung

Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2. Codewörter. Codewörter. Strukturierte Codes

Zahlen und metrische Räume

Kongruenzen und Restklassenringe. 2. Kongruenzen und Restklassenringe

Kapitel 2: Mathematische Grundlagen

Gruppentheorie und Symmetrie in der Chemie

Lineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

Endliche Körper Seminar: Diskrete Mathematik Leitung: Prof. Dr. Rainer Lang Von: Steffen Lohrke (ii5105) SS2005

5. Äquivalenzrelationen

serielle Kopplung dieser Scan-Register zum

Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi

13. Funktionen in einer Variablen

Vorkurs Mathematik B

Gleichungen und Ungleichungen

Fehlererkennung und -behandlung. Paritätsverfahren

WURZEL Werkstatt Mathematik Polynome Grundlagen

MC-Serie 11: Eigenwerte

Kanalcodierung. Leitprogramm. Peter Friedl und Patrizia Mottl

Formelsammlung. Wahrscheinlichkeit und Information

Technische Universität München Zentrum Mathematik. Übungsblatt 7

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.)

Grundlagen und Diskrete Strukturen Wiederholungsaufgaben

(Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!)

Vorkurs Mathematik 1

3.6 Eigenwerte und Eigenvektoren

Länge eines Vektors und Abstand von zwei Punkten 2. 4 = 6. Skalarprodukt und Winkel zwischen Vektoren

2. Spezielle anwendungsrelevante Funktionen

Bestimmung einer ersten

Fehler-korrigierende Codes

Donnerstag, 11. Dezember 03 Satz 2.2 Der Name Unterraum ist gerechtfertigt, denn jeder Unterraum U von V ist bzgl.

U. Rausch, 2010 Ganze Zahlen 1

Formale Grundlagen 2008W. Vorlesung im 2008S Institut für Algebra Johannes Kepler Universität Linz

4.4. Rang und Inversion einer Matrix

Mathematik für Informatik 3

Lösungsvorschlag für die Probeklausuren und Klausuren zu Algebra für Informations- und Kommunikationstechniker bei Prof. Dr.

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle

4 Lineare Algebra (Teil 2): Quadratische Matrizen

CRC Einführung. Version: Datum: Autor: Werner Dichler

Vorkurs: Mathematik für Informatiker

Einführung in die Kryptographie - Multiple Choice Quiz

Übungen zu Einführung in die Lineare Algebra und Geometrie

Mathematik Matrizenrechnung

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

1 Zahlenmengen und einige mathematische Symbole

Galoiskörper GF(2 n ) (Teschl/Teschl 4)

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Ein (7,4)-Code-Beispiel

Transkript:

Gliederung Kanalstörungen Einfache Verfahren Hamming-Abstand Technische Schaltungen Binäre Arithmetik Matrizenrechnung Typische Codes Fehlerkorrektur Fehlertypen Merksätze: Alle Fehler sind statistisch Alle Aussagen über Fehlergrößen sind auch statistisch Fehlerwerte multiplizieren sich etwa Wenn -Bit-Fehler etwa - dann -Bit-Fehler etwa -6 und -Bit-Fehler etwa -9 usw. Folien/9/.5.9;ECC.txt Fehlerarten Alle Aussagen werden auf einen Block bezogen Synchron-Fehler, der Wortanfang wir nicht erkannt oder Empfänger verliert den Takt. Dieser Fehler ist nicht korrigierbar und wird daher bei der Fehlererkennung nicht betrachtet -Bit-Fehler bedeutet: in einem Block tritt genau ein Fehler auf, es ist nur die Position zu bestimmen, und dieses Bit ist zu invertieren n-bit-fehler bedeutet: in einem Block treten maximal n Fehler auf; sie liegen irgendwo verteil im Block; es ist zu bestimmen: die Anzahl m n; ihre Positionen und alle diese Bit sind zu invertieren Burst der Länge b bedeutet: in einem Block gibt es eine zusammenhängende Bitfolge, der maximalen Länge b < n, hierin können die einzelne Bit falsch oder richtig sein, es ist zu bestimmen: der Beginn des Burst; die relativen Positionen der fehlerhaften Bits Einzelfehler besitze die Wahrscheinlichkeit p. Es gelte Unabhängigkeit der Fehlereinflüsse Für ein Wort der Länge n gelte noch: p n = (-p) n. Für die Summe aus Einzel-, Doppel-, Dreifach-Fehlern usw., für l-fach-fehler gilt: p kl = n l p ( p) Folglich gilt für die Summe aller Fehler p k = n l= n l n l p ( p) n l Folien/9/.5.9;ECC.txt wichtige Methoden A Parity gezählt werden die "" mod ; zusätzliche "" oder "" unterscheiden gerade / ungerade Parity mehrere Parity-Bit möglich; erkennen dann mehrere Fehler, korrigiert wesentlich weniger Blockparity x : y korrigiert im Block genau einen Fehler B gleiches Gewicht genau festgelegte Anzahl von "" in der Verteilung liegt die Information gültig:,, usw., evtl. auch:, usw. C Symmetrie gültig:,, usw. D komplexe Verfahren Standardblock besteht aus (Bezeichnung unterschiedlich in Literatur): n = Blocklänge i = Informationsbit k = Kontrollbit Folien/9/.5.9;ECC.txt n Block i Information k Kontrolle Fehlerkorrektur.doc h. völz 7.7.99/ /

Information gesendeter Block Querparity Längsparity empfangener Block Fehler quer Fehler längs blockparty.cdr 7.7.99 h. völz Fehlertolerante Code Gesetz der großen Zahl: um Fehlerrate von -6 zu verifizieren sind mindestens Wörter testen. Geht oft aus Zeitgründen nicht 8 Ecken eines Drahtwürfels ermöglichen 8 gültige Wörter mit -Bit-Abstand. gültige Wörter mit -Bit-Abstand, ermöglichen eine Erkennung von -Bit-Fehlern. gültige Wörter mit -Bit-Abstand, ermöglichen eine Erkennung von -Bit-Fehlern, oder eine Korrektur von -Bit-Fehlern. Problem ist bei n-bit-wörtern die Auswahl der gültigen Wörter so, daß der Hamming-Abstand maximal ist. Das nächste Problem ist dann die Auswahl des Verhältnisses von Fehlerkorrektur und Fehlererkennung. Hamming-Abstand d erkennbare Fehler e max. = d-. maximal korrigierbare Fehler c max = INT((d-)/) Sollen nur c < c max korrigiert werden, so sind noch e(d, c) = d-c- erkennbar. Linear-Codes: es existieren m linear unabhängige Generatorpolynome G bis G m. Alle Code-Wörter x i der Länge m werden durch Linearkombination gebildet: X = x G + x G +... + x m G m Linear systematischen Code zusätzlich definierte Anordnung der Informations- und Kontroll-Bit Zyklischen Codes Erzeugerpolynom G(x), dem eine der Redundanz entsprechende Anzahl von Nullen vorn angefügt wird, dann zyklische Vertauschen erzeugt die Generator-Wörter. (n,m)-codes Wörter der Länge m und Polynom mod X n +, Erzeugerpolynom G(x) vom Grad k = n - m, welches Teiler von x n + ist. Beipiel Erzeugermatrix: Hamming-Codes lineare, also nichtzyklische Codes, besitzen m Kontrollstellen und Code-Wörter der Länge m -. Hamming-Abstand, -bit-fehler zu korrigieren. Blockfreie Codes (rekurrente, stetige, Convulotional- oder Baum-Codes) Quelle emittiert stetig, nach m Zeichen werden jeweils n - m Kontroll-Bit in den Datenstrom einfügt. Code-Spreizung verlagert die einzelnen Bit über einen großen Abstand, macht Bündelfehler zu -Bit-Fehler. Linear, Linear-systematischer Code Ein Γ(n, k, d min ) q -Code besteht aus: Blöcken / Wörtern der Länge n, die Informations- / Kanal-Bit der Länge k enthalten. Daraus leiten sich die Control-Bit c = n-k ab. Die minimale Distanz (Hamming-Abstand) d min = h Weiter ist die Bittiefe (Stufenzahl) gleich q. Fehlerkorrektur.doc h. völz 7.7.99/ /

Es gibt also q n mögliche Code-Wörter und q k Kanal- / Quellen-Wörter = gültige Code-Wörter. Das Wortverhältnis w q n n k c = = q = q >> k q ist ein Maß für die Redundanz der Codewörter. Wichtiger ist jedoch hierfür oft die Code-Rate, die angibt, welcher Anteil des Datenstromes nützlich ist: k r = <. n Für den Hamming-Abstand gilt die Abschätzung d q c Das Problem ist das Finden günstiger (bestmöglicher) Codewörter Linear-Systematischer Code verlangt gegenüber dem Linear-Code nur eine bestimmten Anordnung der Informations- und Controll-Bit im Wort Dies ist immer erreichbar. Übergang zum Binärcode q=. erkennbare Fehler = f Hierfür gilt f c - = h- oder bzgl. der benötigten Control-Bit c ld( f+ ) = ld( h ). Darin bedeutet den nächtgrößten ganzzahligen Wert.. korrigierbare Fehler = e Wenn der Hamming-Abstand bekannt ist, dann gilt e max = INT[(h-)/] Eine andere Bestimmung führt über die auszuschließenden Wörter mit kleinem Abstand zu den notwendigen Control-Bit e n c ld x x = Am besten erfolgt die Berechnung iterativ gemäß: i = for x = e- to step - i = i*(n-)/x -x + next x print ld(i) print wähle für c nächstgrößten ganzzahligen Wert Hierzu gibt es Schranken Galois-Feld F q Es enthält q verschiedene Elemente; q= ist also binär Für die Elemente und Folgen daraus sind zwei Operationen definiert Fehlerkorrektur.doc h. völz 7.7.99/ /

Addition und Multiplikation. Sie entsprechen vereinfacht der üblichen Addition und Multiplikation, jedoch mit dem Zusatz Modula q. Beispiel F Beispiel F 5 * + + * Matrizen-Multiplikation Drei Signale können z. B. wie folgt dargestellt werden A = Sie kann mit einem binären Vektor l = multipliziert werden. Dann entsteht ein Codewort gemäß gemäß [ ] T k = l A + + = Für einen linearen (n, k) q -Code gilt: Generator-Matrix jede Linearkombination gültiger Codewörter ergibt wieder ein gültiges Codewort. Daher muß eine Generator-Matrix n k existieren, aus der sich alle gültigen Codewörter erzeugen lassen. Sie besteht aus k linear unabhängigen Zeilen mit n-bit-wörtern. Für einen (7, ) -Hamming-Code kann sie z.b. lauten: G = Darin fällt die Einheitsform auf. G = (E k P) Der Anteil P beschreibt darin dann in eindeutiger Weise die Codeeigenschaften. Sie muß nicht existieren, läßt sich aber stets herstellen. Hier ein Beispiel: Fehlerkorrektur.doc h. völz 7.7.99/ /

x i Generator-Matrix Vektoren Codewörter Prüf-Matrix Zu jedem (n, k) q -Linear-Code gibt es eine Prüf-Matrix H gemäß H und GH T = Auch für Sie existiert eine Einheitsform H = (-P T E n-k ) Beispiel: G = H = Wird ein beliebiges Wort y der Länge n mit der Prüfmatrix multipiziert, so entsteht das Syndrom S =.y H T Hierfür gilt S = bei gültigen Codewörtern S sonst. Damit ist die Fehlererkennung im Rahmen der Grenzen des Codes möglich. Für die Fehlerkorrektur sind jedoch folgende Bedingungen zu beachten: Die Anzahl der (fehlerhaften) Empfangsworte ist immer größer als die Anzahl möglicher Syndrome q n - q k > q n-k Deshalb sind komplizierte Berechnungen erforderlich. Begriffe die hierzu gehören sind Nebenklassen und Anführer. Hamming-Codes Dies ist eine Klasse von (nichtzyklischen) linearen Kodes der Form Γ(n, n-, ) q Für sie gilt folglich: Fehler erkennen; Fehler korrigieren Die Ordnung der Codes ist r und es gilt dann n q r r = = + q+ q + q + + q q Die ersten (wichtigsten) binären Hamming-Codes zeigt die Tabelle. Hier wird die generelle Tendenz deutlich: mit längeren Blocks kann bei sonst gleichbleibenden Fehlereigenschaften immer eine wachsende Effektivität erreicht werden. Hamming-Codes sind perfekt. r (n, k) R % 5 6 7 8 9, 7, 5,, 6 6, 57 7, 55, 7 5, 5, 7, 6 95, 8 57 7 8 9 9 97 98 99 99 99 Zyklische Codes Beschreibung:. Sie sind eine Teilmenge der Linear-Codes (mit Bandmatrizen):. Ihre Beschreibung erfolgt (daher) mit Polynomen.. Jede zyklische Verschiebung eines gültigen Code-Wortes ist wieder ein gültiges Code-Wort.. Zu einem Code können aber mehrere Zyklen gehören. Fehlerkorrektur.doc h. völz 7.7.99/ 5/

Die Vorteile sind:. Die Decodierung und Fehlerbehandlung wird wesentlich einfacher.. Sie sind besonders für Bündelfehler (bursts) geeignet.. Den Polynomen entsprechen Schaltungen (rückgekoppelte Schieberegister) Polynom-Definition Ein Wort (Vektor) der Länge n n a = (a, a, a,..., a n- ) F q wird ein-eindeutig auf ein Polynom abgebildet n ax ( )= a x x ist nur Platzhalter, hängt weder mit Signalen noch mit dem Code zusammen. Beispiel: x + x + x + x + x = x + x + Ein Polynom steht u. a. für / als Generatorpolynom, Signalwörter, Schieberegister-Schaltungen Für die Polynome werden die üblichen Operationen verwendet: Addition, Multiplikation, Subtraktion und Division z. B. folgt für: : = i= i i Beispiel: x / x 5 +x +x + Teilbarkeit : = () Divisor Ergebnis () () () () () () () () = Rest der Division Es gibt Polynome ohne Rest, Analogie Primzahlen). Sie heißen irreduzibel. Die ersten lauten:,,,,,,, links und rechts ist vertauschbar, Symmetrische sind auch irredzibel. Sie erzeugen in entsprechend rückgekoppelten Schieberegistern nur einen Zyklus und werden daher bevorzugt für CRC-Zeichen-Bildung verwendet. Andere Polynome erzeugen mehr Zyklen, z. B. Zyklen der Länge 8,,,,,,,,,,,,,, Zyklen der Länge,,,,,, Fehlerkorrektur.doc h. völz 7.7.99/ 6/

,,, Zyklus der Länge, Zyklus der Länge Signal (7, )- Hamming-Code Code Zyklische Codes (7, )- Zyklischer Code Signal Code. Zyklus Gw.. Zyklus Gw. 7. Zyklus Gw. Zyklus Gw. Ein Generator-Polynom g(x) für zyklische Codes besitzt immer die eindeutige Form: Γ ist zyklisch g(x) ein Teiler von x n - Mit dem Generator-Polynom g(x) wird der Code a(x) einfach durch Multiplikation erzeugt u(x) a(x) = u(x) g(x) Das Prüfpolynom h(x) ergibt sich zu g(x) h(x) = x n - Das Restpolynom R x n - [a(x) h(x)] a(x) h(x) = u(x) g(x) h(x) = u(x) (x n -) ist für gültige Code-Wörter =, andernfalls. CRC-Codes cyclic redundancy code, dienen der Fehlererkennung, ihre Güte wird durch einen Parameter r bestimmt, dann gilt: Γ( r -, r -r-, ) Wortlänge - Bitlänge(Nutz) - Hamming - Galois und für das Generator-Polynom g(x) = (+x) p(x) mit p(x) primitiv und vom Grad r.. Schieberegisterkette wird Null gesetzt. Die Information (der Block) durchläuft das Generator-Polynom, zugehöriges Schieberegister.. Die Bit, welche nach dem Block im Schieberegister stehen, werden abschließend gesendet.. Beim Empfang erfolgt das Gleiche, nur werden die beim Empfang erzeugten Bit mit den gesendeten verglichen. Fehler werden dann für folgende Muster erkannt Fehler bis zum Gewicht Alle ungeraden Fehler Bündelfehler bis zur Länge r+ Bündelfehler bis zur Länge r+ mit der Wahrsacheinlichkeit - -r Bündelfehler der Längen r+ mit der Wahrsacheinlichkeit - -(r+) Wichtige genormte CRC-Polynome sind: Fehlerkorrektur.doc h. völz 7.7.99/ 7/

Länge Fehler Polynom 8 Bit Bit 6 Bit Bit - - -5 - x 8 + x + x + x + x + x + x 6 + x 5 + x + ; x 6 + x + x + ; x 6 + x + x 5 + x + x 6 + x + x + x 6 + x + x + x + x 8 + x 7 + x 5 + x + x + x + Fire-Code ältester Code für Bündelfehler bei Festplatten sehr einfach zu beschreiben und zu implementieren das Generator-Polynom lautet: g(x) = (x t- -) p(x) Es gelten die folgenden Eigenschaften: Das Polynom p(x) ist ein primitives vom Grad m Es ist t eine Zahl mit t m Es darf p(x) kein Teiler von (x t- -) sein Die Blocklänge beträgt n = ( t - ) q m - Es werden Bündelfehler bis zur Länge t korrigiert Die Zahl der Prüfstellen beträgt mindestens t- Decodierung Es gelten folgende Prinzipien: Nur Fehlererkennung, es wird nur das Syndrom angezeigt. Maximum Likelihood-Decodierung: es wird auf das wahrscheinlichste Wort codiert (halber Hamming- Abstand). Falls mehrere gleichwahrscheinliche Wörter vorliegen, wird die Auswahl vorgegeben oder zufällig gewählt. Hierbei kann eine Fehler-Decodierung erfolgen. Begrenzte Mindestdistanz-Decodierung. Es wird eine Decodierkugel gewählt, deren Radius kleiner als der maximal mögliche ist. Es lassen sich Fehlererkennung und -Korrektur verbinden. Dennoch sind fehlerhafte Decodierung möglich. In selten Fällen wird auch versucht über den halben Hamming-Abstand hinauszugehen. Es können dann aber viele Fehldecodierungen auftreten. Bezüglich des Ergebnisses der Decodierung werden unterschieden: Korrekte Decodierung. Falsche Decodierung, z. B. wenn das falsche Kanalwort ein gültiges Wort ist, oder n-bit-fehler für einen m- Fehler angesehen wird m < n. Decodier-Versagen, wenn der Decodierer keine Lösung findet. Wichtige, nützliche Literatur bewußt wenig Zitate und nur gut verfügbare Bücher ausgewählt. Fano, R. M.: Informationsübertragung. Oldenburg 966, brauchbare Erweiterung zur Shannon-Original-Arbeit. Friedrichs, B.: Kanalcodierung; Springer 996, wohl bestes und gut verständliches Buch für digitale Signale, Codierung, Fehlerbehandlung, auch neueste Codes. Fritzsche, G.: Theoretische Grundlagen der Nachrichtentechnik.. Aufl. 97. brauchbare und verständliche Einfürung in (vor allem analoge) Systeme, Signale und Informationstheorie. Gerdsen, P. u. Kröger, P.: Digitale Signalverarbeitung in der Nachrichtenübertragung. Springer 99. Etwas stärker hardwarebezogene (mit formalen Schaltbildern und Programmbeispielen) Betrachtung Milde, T.: Videokompressionsverfahren im Vergleich, dpunkt 995. Für JPEG, MPEG Wavelets und Fraktale wichtig. Ohm, J.-R.: Digitale Bildcodierung. Springer, 995. Vor allem für Codierung und Komprimierung Peterson, W. W.: Prüfbare und korrigierbare Codes. Oldenbourg 967, grundlegendes Werk, beste Einführung ind das Gebiet, neue Codes fehlen allerdings Shannon, Cl. U. Weaver, W.: Mathematische Grundlagen der Informationstheorie. Oldenbourg 976. Meines Erachtens unverzichtbares Buch. Weaver sollte vergessen werden. Stadler, E.: Modulationsverfahren, Vogel-Verlag 7. Auflg. 99, Besonders für die analogen Verfahren gut geeignet. Unbehauen, R.: System-Theorie. Oldenburg 98. Wichtige Einführung für die Signal-Betrachtungen. Völz, H.: Informationsspeicher. Expert-Verlag 996 Folien/97/Linearcode.doc; h. völz; 6.6.97 Fehlerkorrektur.doc h. völz 7.7.99/ 8/

Fehlerkorrektur.doc h. völz 7.7.99/ 9/

Fehlerkorrektur.doc h. völz 7.7.99/ /

Fehlerkorrektur.doc h. völz 7.7.99/ /

Fehlerkorrektur.doc h. völz 7.7.99/ /

Fehlerkorrektur.doc h. völz 7.7.99/ /

Fehlerkorrektur.doc h. völz 7.7.99/ /