Informationstheorie und Codierung
|
|
|
- Sofia Kaufman
- vor 8 Jahren
- Abrufe
Transkript
1 Informationstheorie und Codierung 5. Fehlerkorrigierende Codierung Grundlagen Fehlererkennung, Fehlerkorrektur Linearcodes, Hamming-Codes Zyklische Codes und technische Realisierung Burstfehlerkorrektur Faltungscodierung und Viterbi- Algorithmus Galoisfeld, BCH-Codes, RS-Codes Turbocodes 79
2 Aufgabe der Kanalcodierung Störungen (additiv) Informationsquelle Quellencodierer Kanalcodierer Leitungscodierer Kanaldecodierer Leitungsdecodierer Quellendecodierer Informationssenke 80 Kanalcodierung: Hinzufügen redundanter Informationen zur Fehlererkennung und -korrektur
3 Fehlerwahrscheinlichkeit I Übertragungsfehler durch: Dämpfungsverzerrungen Phasenverzerrungen Interferenzen Nebensprechen Rauschen Fremdstörungen Für gaußverteilte Störungen gilt: f(x) f(x) 1 2π 1 F(x) 2π e x² 2 x e 2 z² 2 2 dz 81 Unterscheidung: stationäre Störungen additives weißes gaußverteiltes Rauschen (AWGN: additive white gaussian noise) Beschreibung über Fehlerrate nichtstationäre Störungen z.b. Gewitter σ σ σ = Standardabweichung x
4 Fehlerwahrscheinlichkeit II Annahmen: binäre Übertragung Gleichwahrscheinliche Symbole (p 0 = p 1 = 0,5) Störungen durch AWGN U X - Nutzsignalspannung u N Störsignalspannung (U N = Effektivwert) U 0 - (ursprünglicher) Spannungspegel für Symbol x 0 = 0 U 1 - (ursprünglicher) Spannungspegel für Symbol x 1 = 1 p(u y U 0 ) P(U 0 U 1 ) p(u y U x ) U S = U 0 +U 1 2 (Entscheidungsschwelle) u y = U x + u N (Spannung am Kanalausgang) p(u y U 1 ) U 0 U S U 1 P(U 1 U 0 ) u y 82
5 Fehlerwahrscheinlichkeit III Berechnung über Gaußsche Fehlerfunktion: erf(x) x x 1 π e η 2 dη x 0 2 π e η dη Komplementäre Fehlerfunktion: 2 erfc(x) p(η) Darstellung für μ = 0 erf(x) erfc(x) 1 erf ( x) x 2 π e 2 η dη -x μ x η wird die Bitfehlerwahrscheinlichkeit (bipolares Signal): P e 1 2 erfc PS 2P N 83
6 Bitfehlerwahrscheinlichkeit und Signal-Rausch-Verhältnis Beispiel für binäre bipolare Übertragung Anmerkung: 3dB Gewinn gegenüber unipolarer Übertragung P e SNR 84 SNR db
7 Fehlerbehandlung Fehlerkorrektur Rekonstruktion Forward Error Correction (FEC) Wiederholung Automatic Repeat Request (ARQ) Zufügen von Redundanz zur Fehlererkennung und -lokalisierung Auswahl des Verfahrens nach: vorgegebener Restfehlerwahrscheinlichkeit Aufwand der Realisierung Zeit für die Fehlerkorrektur Rückmeldung an Sender Wiederholung fester Anzahl von Codewörtern oder selektive Wiederholung einzelner, fehlerhafter Codewörter 85
8 Hammingdistanz Definition Hammingdistanz d: Anzahl der Stellen in denen sich zwei Codewörter unterscheiden Hilfsmittel zur Bestimmung: Gittermodell Definition minimale Hammingdistanz d min : kleinste sich zwischen den Kanalcodewörtern ergebende Hammingdistanz Treppenmodell für d = 3 Anzahl (sicher) erkennbarer Fehler = d min 1 Anzahl (sicher) korrigierbarer Fehler = d min korrigierbar Fehler: erkennbar erzeugt anderes Codewort
9 Blockcodes Kennzeichen feste Länge der Kanalcodewörter möglicher Aufbau eines Codewortes: i Informationsbits (i 1, i 2,, i i ) k Kontrollbits (k 1, k 2,, k k ) n Blocklänge (n 1, n 2,, n n ) Hinweis: Angaben ohne Index = Gesamtzahl von Bits Angaben mit Index = Einzelbit mit Index als Position i n k weitere Charakterisierungsmöglichkeiten: Gruppencode systematischer Code Codeworte bilden eine Gruppe bzgl. Mod-2-Addition siehe Linear-Codes Trennung von Informations- und Redundanzzeichen im Codewort Quellencodewort = Kanalcodewort ohne redundante Stellen k 87
10 Hamming-Schranke und -Gewicht 88 Hamming-Schranke (zur Bestimmung von k): 2 k d min 1 2 l=0 i + k l dichtgepackter oder perfekter Code: 2 k = d min 1 2 l=0 i + k l Hamming-Gewicht w: - ist die Anzahl der von 0 verschiedenen Stellen im Codewort Beispiele für d min =3 n k i k -1 k 2 k -k-1
11 Redundanz und Blockfehlerwahrscheinlichkeit Redundanz: R =k relative Redundanz: r = k n Blockfehlerwahrscheinlichkeit: P ν,n = n ν P e ν (1 P e ) n ν P e : Bitfehlerwahrscheinlichkeit ν: Anzahl der Fehler im Block Restfehlerwahrscheinlichkeit: P Rest = Wiederholungscode einfachster fehlerkorrigierender Blockcode n-maliges Wiederholen der Informationen d = d min = n beliebige Reduzierung der Restfehlerwahrscheinlichkeit n ν=µ+1 n ν P e ν (1 P e ) n ν µ: Anzahl der der korrigierbaren Fehler im Block 89
12 Iterierte Codes Summe der Einsen ggf. erweitern auf: gerade Anzahl (gerade Parität bzw. even parity) oder ungerade Anzahl (ungerade Parität bzw. odd parity) Eindimensionale Paritätskontrolle Zweidimensionale Paritätskontrolle (Kreuzsicherungscode) Paritätselemente für die Zeilen Paritätselemente für die Paritätselemente Paritätselemente für die Spalten auch weitere Dimensionen möglich 90
13 Lineare Blockcodes Definition (verkürzte Form): Transformation von Quellencodewörtern in Kanalcodewörter nur mit Operationen, die in der algebraischen Struktur einer Gruppe definiert sind 91 Gruppencode (Kanalcodewörter = Elemente einer Gruppe) Gruppenaxiome: Abgeschlossenheit a i a j = a k ; i, j; ; a i, a j, a k G Assoziatives Gesetz (a i a j ) a k = a i (a j a k ); i, j, k Neutrales Element a i 0 = 0 a i = a i ; i Inverses Element a i a i = 0; i zusätzlich kommutatives Gesetz (abelsche Gruppe) a i a j = a j a i ; i, j stellenweise Modulo-2-Addition
14 Eigenschaften und Codegenerierung I Kanalcodewort Cw i 1 i 2 i 3 i i k 1 k 2 k k 92 n Bildung der Generatormatrix aus i unabhängigen Kanalcodewörtern insgesamt 2 i Kanalcodewörter sichere Erkennung aller Fehler mit w < d min Anzahl der Korrekturbits k ergibt sich durch d min w min der Cw = d min (außer Null-Cw) Syndrom ( Symptome der Fehler ) nur vom Fehler und nicht vom Codewort abhängig Codegenerierung: 1. Bestimmen der Anzahl k für die benötigten Korrekturbits Codewortlänge n = i + k 2. Festlegen/Bestimmen von i linear unabhängigen Codewörtern 3. Erstellen einer (i x n)-generatormatrix mit i linear unabhängigen Codewörtern Generatormatrix G = Cw 1 Cw 2 Cw i
15 Codegenerierung II 4. Bestimmen der übrigen Codewörter Kanalcodewort = Quellencodewort Generatormatrix bzw. Cw = (j 1 j 2 j i ) G (Hinweis: Länge i des Quellencodewortes j entspricht der Anzahl i der Informationsbits im Kanalcodewort) 5. Umstellen der Generatormatrix in eine kanonische Form durch Modulo-2-Additionen und Vertauschen der Zeilen G = x 11 x 12 x 1k x 21 x 22 x 2k x 31 x 32 x 3k x i1 x i2 x ik 93 E i Matrix über die Informationsstellen (Einheitsmatrix der Dimension i) P (i x k)-matrix über die Kontrollstellen
16 Codegenerierung III 6. Erstellen der Prüfmatrix H durch Konkatenation der transponierten Matrix P (über die Kontrollstellen aus G * ) und der Einheitsmatrix in der Dimension k H = (P T E k ) Spalten: i 1 i 2 i i k 1 k 2 k k 94 x 11 x 21 x i H = x 12 x 22 x i x 13 x 23 x i H ermöglicht: x 1k x 2k x ik die Berechnung der Korrekturbits der einzelnen Codewörter die Ermittlung der Syndrome und damit die Fehlererkennung und -korrektur Außerdem gilt: G * H T = G H T = 0
17 Fehlererkennung und -korrektur Syndrome der Fehler e: S = H e T Erstellen der Syndrome der erkennbaren und korrigierbaren Fehler Überprüfung des empfangenen Codewortes auf Fehler: S = H Cw T Fehler bei: Achtung: S 0 S = 0 ein Codewort wurde erkannt aber Fehlermöglichkeit besteht weiterhin 95 Position korrigierbarer Fehler: S entspricht einer einzelnen Spalte von H Position dieser Spalte = Position des Fehlers im Codewort
18 Hammingcode I Eigenschaften: linearer dichtgepackter Blockcode d min = 3 (Einfachfehler korrigierbar) Codewortlänge n=2 k -1 eindeutige Bezeichnung durch H(n,i) spezielle Zuordnung von k zur Absicherung Ermittlung der Kontrollelemente k j : Anordnung in einem Block an den Stellen n x mit x = 2 j-1 und j = 1, 2, alle anderen Stellen sind Informationsbits in aufsteigender Wertigkeit k j zur Absicherung bestimmter Bitstellen über gerade Parität Verschiedene erlaubte Kombinationen i k n Bildung von Bitgruppen der Länge 2 j-1 im Abstand von 2 j-1 - Beginn der ersten Gruppe bei der Position von k j Achtung: Festlegung der Position von k und i im Codewort ist beliebig wählbar
19 Hammingcode II Anordnung der Spalten in H, wenn sich die Korrekturbits im Cw an den Stellen n x mit x = 2 j-1 (j = 1, 2, ) befinden: H = k 1 k 2 i 1 i n-k n 1 n 2 n 3 n n Wert einer Spalte entspricht der Dualdarstellung der Position bzw. von x bei n x direkte Angabe der Fehlerposition in S 97
20 Bsp. eines H(7,4)-Codes k 1 k 2 i 1 k 3 i 2 i 3 i 4 Raster n Cw Cw Cw Cw Cw Cw Cw Cw Cw Cw Cw Cw Cw Cw Cw Cw
21 Bsp. eines H(7,4)-Codes (Fortsetzung) Cw-Struktur: n 1 n 2 n 3 n 4 n 5 n 6 n 7 k 1 k 2 i 1 k 3 i 2 i 3 i 4 Bildungsvorschrift für die Korrekturbits*: k 1 = i 1 i 2 i 4 k 2 = i 1 i 3 i 4 k 3 = i 2 i 3 i 4 Syndrom S = H e T * Cw-Struktur entspricht der Vorschrift zur Bildung der Korrekturbits auf Folie 96) Vorteil dieser Cw-Struktur*: Binärwert von S entspricht dem Dezimalwert der Fehlerposition im Cw 99 Siehe auch bei linearen Blockcodes: S=0 fehlerfrei oder Fehlerfolge entspricht einem Codewort Korrektur durch Negation der erkannten fehlerhaften Elemente 2 k -1 verschiedene Fehlermuster korrigierbar
22 Zyklische Codes I Lineare Blockcodes Eigenschaft: zyklische Verschiebung eines Codewortes (Cw) führt wieder zu einem Codewort Cw-Bildung über Generatorpolynom g(x) oder Generatormatrix Cw mod g(x) = 0 Anzahl k k=grad g(x) Anzahl i i=n grad g(x) einfache schaltungstechnische Realisierung (Schieberegister) Einsatzgebiete: digitale Mobilfunksysteme (z.b. D-Netz), CD, 100
23 Zyklische Codes II Ergänzung zur allgemeinen Charakterisierung von Polynomen: Irreduzibilität (nicht als Produkt von Polynomen darstellbar) Primitives Polynom (Zyklus der Polynomreste erreicht den maximalen Wert für eine Periode) Weitere Eigenschaften zyklischer Codes: theoretisch maximale Größe für eine Periode: p max = 2 Polynomgrad 1 Syndrom innerhalb einer Periode p eindeutig Fehlerkorrektur über Prüfmatrix oder Polynomdivision 101
24 Technische Realisierung I 1. Multiplikation am Sender Division am Empfänger Sender Empfänger y(x) = i(x) g(x) y(x) + e(x) = y (x) y (x) g(x) = y(x) g(x) + e(x) g(x) Rest r(x) = y (x) mod g(x) r(x) = 0 kein (erkennbarer) Fehler r(x) 0 Fehler erkannt Division mit Rest??? Position korrigierbarer Fehler mittels Syndromtabelle 102
25 Technische Realisierung II 2. Division am Sender Division am Empfänger Sender Empfänger r(x) = (x k i(x)) mod g(x) y(x) = x k i(x) + r(x) y(x) mod g(x) = 0 y(x) + e(x) = y (x) y (x) g(x) = y(x) g(x) + e(x) g(x) Rest r(x) = y (x) mod g(x) Rest r(x) = 0 kein (erkennbarer) Fehler Rest r(x) 0 Fehler erkannt Division mit Rest??? 103 Position korrigierbarer Fehler mittels Syndromtabelle nach der Korrektur: Extraktion der Informationsbits i(x)
26 Schaltungstechnische Umsetzung - Addition und Verzögerung - Addition mod 2 (siehe auch XOR) Parallele Verarbeitung Serielle Verarbeitung x 1 x 2 y x 1 & & y x y 2, x 1 & x J-K-Flipflop Verzögerung um ein Raster J K Q Q 0 0 unverändert Zustandswechsel Takt J(T n ) Q(T n+1 ) J Q J Q K Q K Q (Flipflops flankengesteuert)
27 Schaltungstechnische Umsetzung - Multiplikation - i(t j ) T i(z) z -1 i(t j T) Z-Transformation i(t j ) y(t j ) i(z) i(z) z -1 y(z) t j mit j = 0, 1, 2, 3, und t j+1 t j = T y(t j ) = i(t j )+i(t j T ) y(z) = i(z)+i(z) z -1 entspricht auch einer Multiplikation mit 11 y z = i z z (z + 1) z+1 = z 1 +z 0 105
28 Allgemeine Schaltung zur Multiplikation Einlesevorgang beginnt mit dem höchstwertigen Bit i(z) i(z) z -1 i(z) z -2 i(z) z -(k-1) i(z) z -k z -1 z -1 z -1 z -1 g k (=1) g k-1 (=0) g k-2 (=0) g 1 (=0) g 0 (=1) y(z) y(z) = i(z) g k + i(z) z -1 g k-1 + i(z) z -2 g k i(z) z -(k-1) g 1 +i(z) z -k g 0 y(z) = i(z) (g k + z -1 g k-1 + z -2 g k z -(k-1) g 1 +z -k g 0 ) y(z) = i(z) z k (g k z k + g k-1 z k-1 + g k-2 z k z g 1 + g 0 ) y(z) = i(z) g(z) z k y(x) = i(x) g(x) 106
29 Schaltungstechnische Umsetzung - Division I - Addition mod 2 i(z) y(z) z -1 z -1 y(z) y(z) = i(z) + y(z) z -1 y z = i z 1 + z 1 y z = z i z z + 1 g 0 (=1) g 1 (=0) g 2 (=0) g k-1 (=0) g k (=1) z -1 z -1 z -1 z -1 immer y(z) i(z) Einlesevorgang beginnt mit dem höchstwertigen Bit 107
30 Schaltungstechnische Umsetzung - Division II - y(z) = i(z) + y(z) g 0 z -k + y(z) g 1 z -(k-1) + y(z) g 2 z -(k-2) + + y(z) g k-1 z -1 i z y(z) = 1+g k 1 z g 2 z (k 2) + g 1 z (k 1) +g 0 z k Verschiebung um k Stellen (siehe Division Folie 109) 108 z k i z y(z) = z k +g k 1 z k g 2 z 2 + g 1 z+g 0 Achtung!!! gewünschtes Übertragungsformat: y(x) = i(x) + r(x) y(x) = xk i(x) g(x) r(x) im Speicher (Zustand der Verzögerungsglieder nachdem i(x) vollständig eingelesen wurde)
31 Schaltungstechnische Umsetzung - Division III - (Codierer) g 0 (=1) g 1 (=0) g 2 (=0) g k-1 (=0) T T T T y 1 2 Zu codierende Informationsfolge: i 0, i 1, i 2, i n-k 1 2 Übertragung: i 0, i 1, i 2, i n-k, r 1, r 2,, r k Schalterstellung:
32 Schaltungstechnische Umsetzung - Division IV - (Decodierer) y Pufferspeicher T T T T g k-1 (=0) g k-2 (=0) g 1 (=0) g 0 (=1) Logik (Syndromtabelle) Korrektor (Addition mod 2) y 110
33 Spezielle zyklische Codes I zyklischer Hamming-Code: d min = 3 n = 2 k -1 Generatorpolynom ist irreduzibel und primitiv (p = p max = n = 2 k -1) Beispiele: 111
34 Spezielle zyklische Codes II Abramson-Code: Erweiterung des Hammingcodes Erkennung von Einzelfehlern und benachbarten Doppelfehlern d min = 4 g(x) = g p (x) (x+1) (g p primtives Generatorpolynom) Polynomgrad bzw. Korrekturbits k = k p + 1 (k p Polynomgrad von g p ) n = 2 k p 1 = 2 k 1 1 Beispiel: (x 3 +x+1) (x+1) = x 4 +x 3 +x
35 Spezielle zyklische Codes III Fire-Code: Korrektur von Fehlerbündeln der Länge l (Auftreten bei kurzzeitig stark gestörten Übertragungskanälen) g(x) = g p (x) (x k f+1) (k f : Polynomgrad des Faktors) Polynomgrad bzw. Korrekturbits k = k p +k f n = kgv (n p, k f ) o kgv: kleinstes gemeinsames Vielfaches o n p = 2 k p-1; Codewortlänge des primitiven Generatorpolynoms d min = 4 l k p und l < k f 2 +1 Beispiel: g p (x) = x 3 +x 2 +1, n p =7, k f =3 n = 21, k = 6, i = 15, l = 2, g(x) = x 6 +x 5 +x 2 +x 113
36 Maßnahmen beim Auftreten von Burstfehlern Burstfehler oder Bündelfehler Ursache: blockweise Störung Auswirkung: Verfälschung einer ganzen Folge von Bits (Fehlerbündel der Länge l) Gegenmaßnahmen 1. Interleaving (Codespreizung): Verschachtelung ursprünglich in einem Block zusammengefasster (benachbarter) Bits 2. Einsatz spezieller Generatorpolynome (z.b. Fire-Codes) zur Korrektur mehrerer benachbarter Fehler Korrektur durch Trennung in Fehlerort x k (k = 0, 1,, n-1) Fehlermuster e (x) (l = grad(e (x))) Fehler: e(x) = (x k e (x)) mod (x n +1) Verschiebung an die Position des ersten falschen Bits Fehler ist kein Codewort (siehe Abramson-, Fire-Code) 114
37 Algorithmus zur Korrektur von Burstfehlern gesendet: y(x) empfangen: y (x) = y(x)+e(x) Algorithmus: 1. Berechnung des Syndroms S(x) = y (x) mod g(x) 2. Berechnung des wahrscheinlichsten Fehlermusters S i (x) = (x i S(x)) mod g(x) 3. Bestimmung des Fehlers e(x) = (x n-i S i (x)) mod (x n +1) für jedes i>0 bis (grad S i (x))< l 115
38 Einlesen in den Puffer Codespreizung (Interleaving) I Idee: Verringerung des Einflusses eines Fehlerbursts auf ein einzelnes Codewort Verbesserung der Korrekturmöglichkeiten Lösung: Verschachtelung der Codeworte Umsetzung: spaltenweises Einlesen der Codeworte mit Länge n in einen Puffer zeilenweises Auslesen aus dem Puffer und Absenden Anzahl der Spalten entspricht der Interleavingtiefe (Abstand ursprünglich benachbarter Symbole) Auslesen aus dem Puffer 116 (n x m)-blockinterleaver: Cw 1,1 Cw 2,1 Cw 3,1 Cw m, 1 Cw 1,2 Cw 2,2 Cw 3,2 Cw m, 2 Cw 1,3 Cw 2,3 Cw 3,3 Cw m, 3 Cw 1, n Cw 2, n Cw 3, n Cw m, n Hinweis: Realisierung auch als (m x n)-blockinterleaver möglich
39 Codespreizung (Interleaving) II 117 Folge: Schutz der Codeworte gegen ein bis zwei Einzelfehler ausreichend Fehlerburst verfälscht nur einzelne Bits verschiedener Codewörter Interleavingtiefe beeinflusst Verzögerung und Verarbeitungsdauer diskontinuierliche blockweise Verarbeitung Verbesserung durch delayed Interleaving : vertikale Anordnung der Codewörter mit einer zeilenweise Verschiebung um r Raster bzw. Spalten (r=1 entspricht einer diagonalen Anordnung) kontinuierliche Übertragung spaltenweises Auslesen Frame Spreizungs-/Interleavingtiefe: s = n r+1 Bsp. für r=2: Cw 1,1 Cw 2,1 Cw 3,1 Cw 4,1 Cw 5,1 Cw 6,1 Cw 1,2 Cw 2,2 Cw 3,2 Cw 4,2 Cw 1,3 Cw 2,3 Cw 3, n 1 Cw 4, n 1 Cw 1, n Cw 2, n
40 Fehlerkorrektur in mehrstufigen Codes Parameter: Anzahl der Symbolstufen s Anzahl korrigierbarer Stellen im Codewort f Fehlerhöhe t (Betrag des korrigierbaren Abstandes zum ursprünglichen Wert) Blocklänge n Korrekturstellen k Vorgehensweise Sender: Ermittlung der Werte für k Modulo-Operation entsprechend s Vorgehensweise Empfänger: Syndrom S der Empfangsfolge ermitteln (Anzahl der Syndrome s k ) sofern S 0 Vergleich mit Syndromtabelle Korrektur des Fehlers 118
41 Beispiel eines mehrstufigen Codes Anzahl der Syndrome: Parameter: 5 k = 25 s = 5 zulässige Signalwerte -2, -1, 0, 1, 2 f = 1 t = 2 n = 6 k = 2 Fehlerhöhe Raster S 1 S 2 S 1 S 2 S 1 S 2 S 1 S 2 i i i i k k Ermittlung der Korrekturbits k 1 und k 2, sodass gilt: k 1 ergänzt (2i 1 + i 2 + i 3 + 2i 4 ) auf 0 mod 5 k 2 ergänzt (i 1 + i 2 - i 3 - i 4 ) auf 0 mod 5 Hinweis: Beachtung der zulässigen Werte von k (siehe Signal) 119 Syndromberechnung: S 1 = (2i 1 + i 2 + i 3 + 2i 4 + k 1 ) mod 5 S 2 = (i 1 + i 2 i 3 i 4 + k 2 ) mod 5 S = (S 1 S 2 ) Hinweis: S 1 und S 2 können hierbei nur die Restklassenelemente -2, -1, 0, 1 oder 2 sein
Zyklische Codes Rechnernetze Übung SS2010
Zyklische Codes Binärcodes Blockcodes Lineare Codes Nichtlineare Codes Zyklische Codes Systematische Codes Binärcodes Blockcodes Lineare Codes Nichtlineare Codes Zyklische Codes Systematische Codes Durch
Formelsammlung Kanalcodierung
Formelsammlung Kanalcodierung Allgemeines Codewortlänge: N Anzahl der Informationsstellen: K Coderate: R = K/N Hamming-Distanz: D( x i, x j ) = w( x i xj ) Codedistanz: d = min D( x i, x j ); i j Fehlerkorrektur:
Rechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir?
Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2012 Wo sind wir? Quelle Nachricht Senke Sender Signal Übertragungsmedium Empfänger Quelle Nachricht Senke Primäres
Codierungstheorie Teil 1: Fehlererkennung und -behebung
Codierungstheorie Teil 1: Fehlererkennung und -behebung von Manuel Sprock 1 Einleitung Eine Codierung ist eine injektive Abbildung von Wortmengen aus einem Alphabet A in über einem Alphabet B. Jedem Wort
Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011
Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011 Ziel: Nachrichten fehlerfrei übertragen und ökonomisch (wenig Redundanz) übertragen Was ist der Hamming-Abstand?
Gegeben ist ein systematischer (7,3)-Cod. Die drei seiner Codewörter lauten:
Prof. Dr.-Ing. H.G. Musmann INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 67 Hannover Gegeben ist ein systematischer (7,)-Cod. Die drei seiner
Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2012
Rechnernetze Übung 6 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2012 Ziel: Nachrichten fehlerfrei übertragen und ökonomisch (wenig Redundanz) übertragen Was ist der Hamming-Abstand?
Themen. Sicherungsschicht. Rahmenbildung. Häufig bereitgestellte Dienste. Fehlererkennung. Stefan Szalowski Rechnernetze Sicherungsschicht
Themen Sicherungsschicht Rahmenbildung Häufig bereitgestellte Dienste Fehlererkennung OSI-Modell: Data Link Layer TCP/IP-Modell: Netzwerk, Host-zu-Netz Aufgaben: Dienste für Verbindungsschicht bereitstellen
Fehlererkennung. Fehlererkennung
Fehlererkennung Seite 1 Prof. Dr. W. Kowalk Datenübertragung über physikalische Signale mehr oder minder hohe Anfälligkeit gegen Verfälschung der Signale Empfänger interpretiert Signal anders als von Sender
Übung 14: Block-Codierung
ZHW, NTM, 26/6, Rur Übung 4: Block-Codierung Aufgabe : Datenübertragung über BSC. Betrachten Sie die folgende binäre Datenübertragung über einen BSC. Encoder.97.3.3.97 Decoder Für den Fehlerschutz stehen
Grundlagen der Technischen Informatik. Hamming-Codes. Kapitel 4.3
Hamming-Codes Kapitel 4.3 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Inhalt Welche Eigenschaften müssen Codes haben, um Mehrfachfehler erkennen und sogar korrigieren zu können?
Codierung zur Fehlerkorrektur und Fehlererkennung
Codierung zur Fehlerkorrektur und Fehlererkennung von Dr.-techn. Joachim Swoboda Mit 39 Bildern und 24 Tafeln R. OLDENBOURG VERLAG MÜNCHEN WIEN 1973 Inhalt Vorwort 9 1. Einführung 11 1.1 Redundante Codierung
Klausur Informationstheorie und Codierung
Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte
Einführung in die Codierungstheorie
11. Dezember 2007 Ausblick Einführung und Definitionen 1 Einführung und Definitionen 2 3 Einführung und Definitionen Code: eindeutige Zuordnung von x i X = {x 1,.., x k } und y j Y = {y 1,..., y n } Sender
Dekohärenz und Grundprinzip der Quantenfehlerkorrektur
Dekohärenz und Grundprinzip der Quantenfehlerkorrektur Bachelorarbeit Gregor Wurm, Betreuer: Prof. E. Arrigoni Institut für Theoretische Physik der Technischen Universiät Graz 24. Sept. 2010 Übersicht
Übungen zur Vorlesung Grundlagen der Rechnernetze. Zusätzliche Übungen
Übungen zur Vorlesung Grundlagen der Rechnernetze Zusätzliche Übungen Hamming-Abstand d Der Hamming-Abstand d zwischen zwei Codewörtern c1 und c2 ist die Anzahl der Bits, in denen sich die beiden Codewörter
Zyklische Codes & CRC
Zyklische Codes & CRC Copyright 2003 2011 Ralf Hoppe Revision : 257 Inhaltsverzeichnis 1 Einführung 2 2 Grundlagen 2 3 Erzeugung zyklischer Codes 2 4 Verifikation 3 4.1 Prinzip.......................................
Die Mathematik in der CD
Lehrstuhl D für Mathematik RWTH Aachen Lehrstuhl D für Mathematik RWTH Aachen St.-Michael-Gymnasium Monschau 14. 09. 2006 Codes: Definition und Aufgaben Ein Code ist eine künstliche Sprache zum Speichern
Fehlerschutz durch Hamming-Codierung
Versuch.. Grundlagen und Begriffe Wesentliche Eigenschaften der Hamming-Codes für die Anwendung sind: der gleichmäßige Fehlerschutz für alle Stellen des Codewortes und die einfache Bildung des Codewortes
Codierungsverfahren SS 2011. Reed-Solomon-Codes zur Mehrblock-Bündelfehler-Korrektur
Reed-Solomon-Codes zur Mehrblock-Bündelfehler-Korrektur Wie die zyklischen BCH-Codes zur Mehrbitfehler-Korrektur eignen sich auch die sehr verwandten Reed-Solomon-Codes (= RS-Codes) zur Mehrbitfehler-Korrektur.
Einführung in die Kodierungstheorie
Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht
Index. Chien-Suche, 220 CIRC, 234 Code, 2, 9 äquidistanter, 81
Index Abelsche Gruppe, 140 Abgeschlossenheit, 47, 140, 143 Abhängigkeit lineare, 53 Abtastfolge, 226 ACS-Operation, 279 Addition, 46, 163 Alphabet, 1 ARQ, 6, 174 Assoziativität, 47, 52, 140, 143 Audio-CD,
Error detection and correction
Referat Error detection and correction im Proseminar Computer Science Unplugged Dozent Prof. M. Hofmann Referent Pinto Raul, 48005464 Datum 19.11.2004 Error detection and correction 1. Fehlererkennung
Nachrichtentechnik 4 3 Kanalcodierung in der Nachrichtenübertragung
Beispiel für einen Wiederholungscode: n = 5 R C = /5 u = () c = ( ) und u 2 = () c 2 = ( ) gestörte Empfangsfolgen: f = ( ) und x = ( ) y = x + f = ( ) f 2 = ( ) und x 2 = ( ) y 2 = x 2 + f 2 = ( ) uˆ
6. Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke. 6. Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 107/ 238
6 Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 6 Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 107/ 238 Erinnerung: Der Vektorraum F n 2 Schreiben {0, 1} n als F n 2 Definition
Empfänger. Sender. Fehlererkennung und ggf. Fehlerkorrektur durch redundante Informationen. Längssicherung durch Paritätsbildung (Blockweise)
Datensicherung Bei der digitalen Signalübertragung kann es durch verschiedene Einflüsse, wie induktive und kapazitive Einkopplung oder wechselnde Potentialdifferenzen zwischen Sender und Empfänger zu einer
Angewandte Informationstechnik
Angewandte Informationstechnik im Bachelorstudiengang Angewandte Medienwissenschaft (AMW) Fehlererkennung und -korrektur Dr.-Ing. Alexander Ihlow Fakultät für Elektrotechnik und Informationstechnik FG
Technische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und
KANALCODIERUNG AUFGABEN. Aufgabe 1. Aufgabe 2
AUFGABEN KANALCODIERUNG Aufgabe Wir betrachten den Hamming-Code mit m = 5 Prüfbits. a) Wie gross ist die Blocklänge n dieses Codes? b) Wie viele gültige Codewörter umfasst dieser Code? c) Leiten Sie die
Einführung in die Codierungstheorie
Einführung in die Codierungstheorie Monika König 11.12.2007 Inhaltsverzeichnis 1 Einführung und Definitionen 2 2 Fehlererkennende Codes 3 2.1 Paritycheck - Code............................... 3 2.2 Prüfziffersysteme................................
Fehlerkorrektur. Gliederung Kanalstörungen Einfache Verfahren Hamming-Abstand Technische Schaltungen Binäre Arithmetik Matrizenrechnung Typische Codes
Gliederung Kanalstörungen Einfache Verfahren Hamming-Abstand Technische Schaltungen Binäre Arithmetik Matrizenrechnung Typische Codes Fehlerkorrektur Fehlertypen Merksätze: Alle Fehler sind statistisch
Grundlagen der Technischen Informatik. 2. Übung
Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit Organisatorisches Übungsblätter zuhause vorbereiten! In der Übung an der Tafel vorrechnen! Bei
Codes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC)
Codes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC) Definitionen: Codewort:= mit zusätzlichen (redundanten) Kontrollbits versehenes Quellwort m:= Länge des Quellwortes (Anzahl der Nutzdatenbits)
Fehlererkennung und -behandlung. Paritätsverfahren
Fehlererkennung und -behandlung Gründe Thermische Elektronenbewegung in Halbleitern oder Leitungen Elektromagnetische Einstrahlung (Motoren, Blitze, benachbarte Leitungen) Bitfehlerrate ist die Wahrscheinlichkeit,
Fehlerkorrektur. Einzelfehler besitze die Wahrscheinlichkeit p. Es gelte Unabhängigkeit der Fehlereinflüsse Für ein Wort der Länge n gelte noch:
Gliederung Kanalstörungen Einfache Verfahren Hamming-Abstand Technische Schaltungen Binäre Arithmetik Matrizenrechnung Typische Codes Fehlerkorrektur Fehlertypen Merksätze: Alle Fehler sind statistisch
Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2
Codierung und Fehlerkorrektur Kapitel 4.2 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916)
Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2. Codewörter. Codewörter. Strukturierte Codes
Codewörter Grundlagen der Technischen Informatik Codierung und Fehlerkorrektur Kapitel 4.2 Allgemein: Code ist Vorschrift für eindeutige Zuordnung (Codierung) Die Zuordnung muss nicht umkehrbar eindeutig
Grundlagen Digitaler Systeme (GDS)
Grundlagen Digitaler Systeme (GDS) Prof. Dr. Sven-Hendrik Voß Sommersemester 2015 Technische Informatik (Bachelor), Semester 1 Termin 10, Donnerstag, 18.06.2015 Seite 2 Binär-Codes Grundlagen digitaler
7. Woche Extra-Material: - Beispiele von Codes. 7. Woche: Beispiele von Codes 144/ 238
7 Woche Extra-Material: - Beispiele von Codes 7 Woche: Beispiele von Codes 144/ 238 Hamming-Matrix H(h) und Hammingcode H(h) Wir definieren nun eine Parity-Check Matrix H(h) von einem neuen Code: Parametrisiert
2. Tutorium Digitaltechnik und Entwurfsverfahren
2. Tutorium Digitaltechnik und Entwurfsverfahren Tutorium Nr. 9 Alexis Tobias Bernhard Fakultät für Informatik, KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 1. Das Problem 1.1. Kanalcodierung und Fehlerkorrektur. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder 1 übertragen kann, schicken.
31 Polynomringe Motivation Definition: Polynomringe
31 Polynomringe 31.1 Motivation Polynome spielen eine wichtige Rolle in vielen Berechnungen, einerseits weil oftmals funktionale Zusammenhänge durch Polynome beschrieben werden, andererseits weil Polynome
Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi [email protected]
Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi [email protected] Inhaltsverzeichnis 3. Kanalcodierung 3.1 Nachrichtentheorie für gestörte Kanäle 3.1.1 Transinformation 3.1.2 Kanalkapazität
Single Parity check Codes (1)
Single Parity check Codes (1) Der Single Parity check Code (SPC) fügt zu dem Informationsblock u = (u 1, u 2,..., u k ) ein Prüfbit (englisch: Parity) p hinzu: Die Grafik zeigt drei Beispiele solcher Codes
Endliche Körper. Seminar Graphentheorie und Diskrete Mathematik Referent: Steffen Lohrke ii5105 SS 2005
Endliche Körper Seminar Graphentheorie und Diskrete Mathematik Referent: Steffen Lohrke ii5105 SS 2005 Abelsche Gruppe Eine Abelsche Gruppe ist eine algebraische Struktur, die aus einer Menge K und einem
Modul Diskrete Mathematik WiSe 2011/12
Modul Diskrete Mathematik WiSe / Ergänzungsskript zum Kapitel 3.4. Hinweis: Dieses Manuskript ist nur verständlich und von Nutzen für Personen, die regelmäßig und aktiv die zugehörige Vorlesung besuchen
4.0.2 Beispiel (Einfacher Wiederholungscode). Im einfachsten Fall wird die Nachricht einfach wiederholt. D.h. man verwendet die Generatorabbildung
Wir beschäftigen uns mit dem Problem, Nachrichten über einen störungsanfälligen Kanal (z.b. Internet, Satelliten, Schall, Speichermedium) zu übertragen. Wichtigste Aufgabe in diesem Zusammenhang ist es,
Vorlesung Theoretische Grundlagen Fehlerkorrigierende Codes Jörn Müller-Quade 29. Januar 2013
Vorlesung Theoretische Grundlagen Fehlerkorrigierende Jörn Müller-Quade 29. Januar 2013 I NSTITUT FÜR K RYPTOGRAPHIE UND S ICHERHEIT KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
in der Mathematik-Ausbildung
Fehler-korrigierende in der Mathematik-Ausbildung Institut für Informatik & Automation, IIA Fakultät E&I, Hochschule Bremen, HSB DMV-Jahrestagung, Erlangen 15.-19.9.2008 Agenda Bedeutung ECC-Speicher HDD
Informationstheorie und Codierung
Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice
Fehlererkennende und fehlerkorrigierende Codes
Fehlererkennende und fehlerkorrigierende Codes Claudiu-Vlad URSACHE, 5AHITN Inhalt 1. Codes... 2 2. Hammingdistanz... 3 3. Fehlererkennende Codes... 4 4. Fehlerkorrigierende Codes... 5 1. Codes a 2 a 00
Fehlererkennung und Fehlerkorrektur in Codes
Fehlererkennung und Fehlerkorrektur in Codes Blockcodes und Hamming Abstand Untersuchungen zu Codierungen von Informationen, die über einen Nachrichtenkanal übertragen werden sollen, konzentrieren sich
Einführung in die Informations- und Codierungstheorie
Einführung in die Informations- und Codierungstheorie Von Prof. Dr. Hermann Rohling Technische Universität Braunschweig unter Mitarbeit von Dipl.-Ing. Thomas Müller Technische Universität Braunschweig
Die Größe A(n, d) und optimale Codes
Die Größe A(n, d) und optimale Codes Definition Optimaler Code Wir definieren A(n, d) = max{m binärer (n, M, d) Code} Ein (n, M, d)-code heißt optimal, falls M = A(n, d). Bestimmung von A(n, d) ist offenes
Grundbegrie der Codierungstheorie
Grundbegrie der Codierungstheorie Pia Lackamp 12. Juni 2017 Inhaltsverzeichnis 1 Einleitung 2 2 Hauptteil 3 2.1 Blockcodes............................ 3 2.1.1 Beispiele.......................... 3 2.2
Kapitel 3 Kanalcodierung
Kapitel 3 Kanalcodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv
Vortrag: Prüfzeichencodierung. Michael Gläser
Vortrag: Prüfzeichencodierung Michael Gläser Prüfzeichencodierung (Inhalt): 1. Definition und allgemeine Eigenschaften 2. Prüfziffercodierung 3. ISBN-Codierung 4. EAN-Codierung 1. Definition und allgemeine
3 Der Hamming-Code. Hamming-Codes
3 Der Hamming-Code Hamming-Codes Ein binärer Code C heißt ein Hamming-Code Ha s, wenn seine Kontrollmatrix H als Spalten alle Elemente in Z 2 s je einmal hat. Die Parameter eines n-k-hamming-codes sind:
Information und Codierung
Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH Inhalt Vorwort zur 1. Auflage der Originalausgabe
Ein (7,4)-Code-Beispiel
Ein (7,4)-Code-Beispiel Generator-Polynom: P(X) = X 3 + X 2 + 1 Bemerkung: Es ist 7 = 2^3-1, also nach voriger Überlegung sind alle 1-Bit-Fehler korrigierbar Beachte auch d min der Codewörter ist 3, also
Diskrete Mathematik. Sebastian Iwanowski FH Wedel. Kap. 4: Zahlentheorie
Prof. Dr. Sebastian Iwanowski DM4 Folie 1 Referenzen zum Nacharbeiten: Diskrete Mathematik Sebastian Iwanowski FH Wedel Kap. 4: Zahlentheorie Beutelspacher 5 Lang 7, Biggs 20, 22, 23 (jeweils teilweise,
Theoretische Grundlagen der Informatik WS 09/10
Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3
Übungen zur Vorlesung Diskrete Strukturen
Abt. Reine Mathematik SS 06 Blatt 1 Di., 02.05.2006 um 14:15 Uhr vor Beginn der Vorlesung 1. Beweisen Sie: Ist n N mit n > 4 keine Primzahl, so gilt (n 1)! 0 mod n. 2. Berechnen Sie den größten gemeinsamen
6 Fehlerkorrigierende Codes
R. Reischuk, ITCS 35 6 Fehlerkorrigierende Codes Wir betrachten im folgenden nur Blockcodes, da sich bei diesen das Decodieren und auch die Analyse der Fehlertoleranz-Eigenschaften einfacher gestaltet.
Zusammenfassung ICTh Informations- und Codierungstheorie
Zusammenfassung ICTh Informations- und Codierungstheorie Emanuel Duss [email protected] 18. Januar 2014 Zusammenfassung ICTh Informations- und Codierungstheorie Dieses Dokument basiert auf der Vorlesung
Übungsblatt Nr. 7. Lösungsvorschlag
Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nico Döttling Dirk Achenbach Tobias Nilges Vorlesung Theoretische Grundlagen der Informatik Übungsblatt Nr. 7 svorschlag Aufgabe (K)
Fehlerkorrigierende Codes
Fehlerkorrigierende Codes 2016S Gerhard Dorfer 1 2 Inhaltsverzeichnis Inhaltsverzeichnis 1 Einführende Beispiele 4 2 Mathematische Grundlagen 6 3 Fehlererkennung und Fehlerkorrektur für Blockcodes 9 4
Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix
Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das
Übung zu Drahtlose Kommunikation. 1. Übung
Übung zu Drahtlose Kommunikation 1. Übung 22.10.2012 Termine Übungen wöchentlich, Montags 15 Uhr (s.t.), Raum B 016 Jede Woche 1 Übungsblatt http://userpages.uni-koblenz.de/~vnuml/drako/uebung/ Bearbeitung
Die Hamming-Distanz definiert eine Metrik.
Die Hamming-Distanz definiert eine Metrik. Satz Metrik Hamming-Distanz Die Hamming-Distanz ist eine Metrik auf {0, 1} n, d.h. für alle x, y, z {0, 1} n gilt: 1 Positivität: d(x, y) 0, Gleichheit gdw x
Algebraische Codierungstheorie
Algebraische Codierungstheorie Grundeigenschaften der Codes und ihre wichtigsten Parameterschranken Iryna Feurstein Inhaltsverzeichnis 1 Gegenstand und Aufgabe der Codierungstheorie 1 2 Blockcode 1 2.1
, 2016W Übungstermin: Fr.,
VU Technische Grundlagen der Informatik Übung 2: Numerik, Codierungstheorie 183.579, 2016W Übungstermin: Fr., 28.10.2016 Allgemeine Hinweise: Versuchen Sie beim Lösen der Beispiele keine elektronischen
Verschlüsselungs- und Codierungstheorie PD Dr. Thomas Timmermann Westfälische Wilhelms-Universität Münster Sommersemester 2017
Verschlüsselungs- und Codierungstheorie PD Dr. Thomas Timmermann Westfälische Wilhelms-Universität Münster Sommersemester 2017 Lineare Codes (Ausarbeitung von Benjamin Demes) 1) Was sind lineare Codes
Endliche Körper Seminar: Diskrete Mathematik Leitung: Prof. Dr. Rainer Lang Von: Steffen Lohrke (ii5105) SS2005
Endliche Körper Seminar: Diskrete Mathematik Leitung: Prof. Dr. Rainer Lang Von: Steffen Lohrke (ii5105) SS2005 Inhaltsverzeichnis Abelsche Gruppe 3 Kommutativer Ring 5 Körper 6 Endliche Körper 7 Endliche
Ι. Einführung in die Codierungstheorie
1. Allgemeines Ι. Einführung in die Codierungstheorie Codierung: Sicherung von Daten und Nachrichten gegen zufällige Fehler bei der Übertragung oder Speicherung. Ziel der Codierung: Möglichst viele bei
(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
13. Algorithmus der Woche Fehlererkennende Codes Was ist eigentlich ISBN?
13. Algorithmus der Woche Fehlererkennende Codes Was ist eigentlich ISBN? Autor Alexander Souza, Universität Freiburg Schon faszinierend, was man so alles mit Algorithmen machen kann: CDs schnell in Regalen
Satz. Wie wirkt sich ein Basiswechsel auf die Darstellungsmatrix einer linearen Abbildung F : V n V n aus?
Wie wirkt sich ein Basiswechsel auf die Darstellungsmatrix einer linearen Abbildung F : V n V n aus? Seien [F] B und [F] B die Darstellungsmatrizen von F bezüglich zweier Basen B und B. Weiter sei T die
Kongruenz modulo g definiert auf K[x] eine Äquivalenzrelation g : h g f h f ist durch g teilbar, und [f] g ist die Äquivalenzklasse von f.
3 Kongruenz modulo g definiert auf K[x] eine Äquivalenzrelation g : h g f h f ist durch g teilbar, und [f] g ist die Äquivalenzklasse von f 4 Auf der Menge aller Restklassen [f] g kann man Addition und
WS 2009/10. Diskrete Strukturen
WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910
Übung zur Vorlesung. Informationstheorie und Codierung
Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.
Übung 4: Physical layer and limits
Wintersemester 217/218 Rechnernetze Universität Paderborn Fachgebiet Rechnernetze Übung 4: Physical layer and limits 217-11-3 1. Basisband/Breitband Diese Aufgabe soll den Unterschied zwischen Basisband-
II. CODIERUNGSTHEORIE
II. CODIERUNGSTHEORIE Inhaltsverzeichnis 1 Einleitung 1 1.1 Literatur................................... 1 1.2 Übersicht.................................. 1 1.3 Mathematische Grundlagen der Codierungstheorie............
6. Lösungsblatt
TECHNISCHE UNIVERSITÄT DARMSTADT FACHGEBIET THEORETISCHE INFORMATIK PROF. JOHANNES BUCHMANN DR. JULIANE KRÄMER Einführung in die Kryptographie WS 205/ 206 6. Lösungsblatt 9..205 Ankündigung Es besteht
Die Begriffe analog und digital stammen aus der Rechentechnik:
November 968 I. Einführung in die Digitalelektronik Grundbegriffe, Wahrheitstabellen: Die Begriffe analog und digital stammen aus der Rechentechnik: Analog-Rechner benötigt zur Darstellung von Zahlenwerten
Übung zu Drahtlose Kommunikation. 7. Übung
Übung zu Drahtlose Kommunikation 7. Übung 03.12.2012 Aufgabe 1 (Cyclic Redundancy Check) Gegeben ist das Generator-Polynom C(x) = x 4 + x 3 + 1 a) Zeichnen Sie die Hardware-Implementation zum obigen Generator-Polynom
Zahlensysteme und ihre Anwendung
ASCII, ANSI und Unicode belegen übereinstimmend die Positionen 48 bis 57 mit den Ziffern '0'... '9'. 48 57 sind hierbei die Kennziffern von Schriftzeichen. Der Wechsel von arithmetischen Schriftzeichen
Lineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19
Lineare Codes Dipl.-Inform. Wolfgang Globke Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19 Codes Ein Code ist eine eindeutige Zuordnung von Zeichen
Erzeugendensystem und Basis
Erzeugendensystem und Basis Definition Erzeugendensystem und Basis eines Unterraums Sei S F n 2 ein Unterraum. Eine Menge G = {g 1,..., g k } S heißt Erzeugendensystem von S, falls jedes x S als Linearkombination
Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie
Outline 1 Vektoren im Raum 2 Komponenten und Koordinaten 3 Skalarprodukt 4 Vektorprodukt 5 Analytische Geometrie 6 Lineare Räume, Gruppentheorie Roman Wienands (Universität zu Köln) Mathematik II für Studierende
Theorie der Programmiersprachen
slide 1 Vorlesung Theorie der Programmiersprachen Prof. Dr. Ulrich Ultes-Nitsche Forschungsgruppe Departement für Informatik Universität Freiburg slide 2 Heute Komponenten eines Computers Speicher Die
