P (x i ) log 2 = P (x. i ) i=1. I(x i ) 2 = log 1. bit H max (X) = log 2 MX = log 2 2 = 1. Symbol folgt für die Redundanz. 0.9 = 0.

Größe: px
Ab Seite anzeigen:

Download "P (x i ) log 2 = P (x. i ) i=1. I(x i ) 2 = log 1. bit H max (X) = log 2 MX = log 2 2 = 1. Symbol folgt für die Redundanz. 0.9 = 0."

Transkript

1 7. Diskretes Kanalmodell I 7. a Aussagen über das digitale Übertragungsverfahren Bis auf die bereitzustellende Übertragungsrate [vgl. c)] sind keine Aussagen über das digitale Übertragungsverfahren möglich. Die Quelldaten könnten mit jedem beliebigen digitalen Übertragungsverfahren übertragen werden. 7. b Quellen Gedächtnis Nein, die Quelle Q x besitzt definitionsgemäß kein Gedächtnis (Markoff Quelle 0. Ordnung, Ordnung der Markoff Quelle = Länge des Gedächtnisses). Ein Quellengedächtnis bedeutet, daß das aktuelle Quellensymbol q x (k) von bereits gesendeten en q x (k i), i > 0 abhängt. Zur statistischen Beschreibung sind Verbundwahrscheinlichkeiten notwendig. 7. c Entropie und Redundanz der Quelle I Entropie: H(X) = P (x i ) log = P (x i= i ) }{{} I(x i ) = log log = P (x i ) log P (x i ) i= [ ] [ ] H max (X) = log MX = log = Redundanz R(X) der Quelle Q x : R(X) = H max (X) H(X) = 0 Übertragungsrate des digitalen Übertragungsverfahrens: rü = H(X) T q = ms = k s 7. d Entropie und Redundanz der Quelle II [ ] Entropie: H(X) = 0. log log 0.9 = Mit H max (X) = folgt für die Redundanz R(X) = H max (X) H(X) = 0.53 Übertragungsrate: rü = H(X) = T q ms = 469 s Folgerungen aus den Ergebnissen: Durch Quellcodierung ist es möglich, daß die Quellensymbole im Mittel mit codiert werden. 7-

2 be- Das digitale Übertragungsverfahren muß dann nur eine Übertragungsrate von 469 s reitstellen. 7. e Diskretes Kanalmodell Passendes Kanalmodell: Symmetrischer Binärkanal (BSC) Q x stationär, Kanal stationär Q y stationär Q x ohne Gedächtnis, Kanal ohne Gedächtnis Q y ohne Gedächtnis Symmetrischer Binärkanal (BSC): P (x ) x P b y P (y ) P b P b P (x ) x y P b P (y ) 7. f Entropie, Redundanz und Irrelevanz Entropie von Q y : H(Y ) = i= P (y i ) log P (y i ) P (y ) = P (x ) P (y x ) + P (x ) P (y x ) = P (x ) ( P b ) + P (x ) P b = = 0.8 P (y ) = P (y ) = 0.8 ( ) H(Y ) = 0.8 log log 0.8 = 0.68 Redundanz von Q y : R(Y ) = H max (Y ) H(Y ) = 0.3 }{{} Irrelevanz: H(Y X) = i= j= P (x i, y j ) log P (y j x i ) mit P (x i, y j ) = P (y j x i ) P (x i ) P (x, y ) = P (y x ) P (x ) = = 0.09 P (x, y ) = P (y x ) P (x ) = = 0.09 P (x, y ) = P (y x ) P (x ) = = 0.0 P (x, y ) = P (y x ) P (x ) = =

3 H(Y X) = 0.09 log log = log log 0.9 Die Irrelevanz oder Streuentropie wird durch die Störungen des Kanals verursacht. zusätzliche Information über den Kanal und seine Statistik Transinformation: T (X; Y ) = H(Y ) H(Y X) = = 0. Äquivokation: H(X Y ) = H(X) T (X; Y ) = = 0.6 Graphische Veranschaulichung der statistischen Größen Entropie, Transinformation, Irrelevanz und Äquivokation: Äquivokation 0.58 symbol Eingangsentropie symbol Transinformation 0. symbol Ausgangsentropie 0.68 symbol Irrelevanz symbol 7. Unsymmetrisch gestörter Binärkanal 7. a Kanalmatrix, Kanalmodell Kanalmatrix: P (Y X) = [ P (y x ) P (y x ) P (y x ) P (y x ) ] [ Pb P = b P b P b ] = [ ] 7-3

4 Diskretes Kanalmodell: unsymmetrisch gestörter Binärkanal: x = 0 P b y = 0 P b P b x = y = P b 7. b Entropie, Transinformation und Irrelevanz P (x ) = 0. P (x ) = P (x ) = 0.8 Entropie am Kanaleingang: H(X) = 0. log log 0.8 = 0.7 Entropie am Kanalausgang: H(Y ) = P (y ) log P (y ) + P (y ) log P (y ) P (y ) = P (y x ) P (x ) + P (y x ) P (x ) = = 0.8 P (y ) = P (y ) = 0.7 H(Y ) = 0.8 log log 0.7 = 0.85 Transinformation: Mit P (x i y j ) P (y j ) = P (x i, y j ) = P (y j x i ) P (x i ) bzw. P (x i y j ) P (x i ) = P (y j x i ) P (y j ) T (X; Y ) = T (Y ; X) = + i= j= T (X; Y ) = P (x ) P (y x ) log P (y x ) P (y ) +P (x ) P (y x ) log P (y x ) P (y ) = log log log log P (x i )P (y j x i ) log P (y j x i ) P (y j ) folgt: P (y x ) + P (x ) P (y x ) log P (y ) P (y x ) + P (x ) P (y x ) log = 0.46 P (y ) Irrelevanz: H(Y X) = H(Y ) T (X; Y ) = ( ) = 0.39 Äquivokation: H(X Y ) = H(X) T (X; Y ) =

5 7. c Kanalkapazität Es folgt für P b = 0, P b = 0 : C = max (Q x ) {T (X; Y )} 0.7 bei P (x ) = 0.46 und P (x ) = d Maßnahmen, um die Kapazität des Kanals zu nutzen: Quellencodierung zur Redundanzeliminierung: x i X = x QCi X QC H(X) = 0.7 = H(X QC ) = H Max = Kanalcodierung zur Anpassung der Quelle an den Kanal (Addition von Redundanz): x QCi X QC = x KCi X KC H(X QC ) = = H(X KC ) = C = max{t (X; Y )} Hinzufügen von [H(X QC ) H(X KC )] = C = 0.8 an Redundanz Bei geeigneten Codes ist damit im Prinzip eine fehlerfreie Übertragung möglich. 7.3 Symmetrischer Binärkanal 7.3 a Kanalkapazität: C = max {T (X; Y )} (Q x ) Beim BSC ist die Transinformation T (X; Y ) maximal für P (x ) = P (x ) = P (y ) = P (x ) P (y x ) +P (x }{{} ) P (y x ) }{{} P b Mit T (X; Y ) = i= j= P (x i )P (y j x i ) log P (x i ) P (x i y j ) }{{} P (y j ) P (y j x i ) P b =, P (y ) = P (y ) = P (y ) = P (x )P (y x ) log P (y x ) P (x P (y ) )P (y x ) log P (y x ) P (y ) P (x )P (y x ) log P (y x ) P (x P (y ) )P (y x ) log P (y x ) folgt: C = [ ] P b log + ( P b ) log P b ( P b ) = ( P b ) log [( P b )] + P b log (P b ) = ( P b )[ + log ( P b )] + P b ( + log P b ) = 0.9 ( + log 0.9) + 0. ( + log 0.)

6 Maximale Übertragungsrate, für die eine fehlerfreie Übertragung möglich ist: rü max = C = C 53 k T Kan s 7.3 b Allgemeines Blockbild der Übertragung über einen symmetrischen Binärkanal: Q x COD QC COD KC BSC DEC KC DEC QC S y q X0 (k) H(X0) q XQC (k) H(XQC) q XKC (k) H(XKC) q Y KC (k) q Y QC (k) q Y 0 (k) 7.3 c Entropie der Quelle: P (x ) = 0.4 P (x ) = P (x ) = 0.6 H(X) = i P (x i ) log P (x i ) = 0.4 log log 0.6 Redundanz der Quelle (vom Quellencodierer zu entfernen): 0.97 R(X) = H max H(X) = ( 0.97) = 0.09 Wenn der Quellencodierer die Redundanz vollständig entfernt hat, gilt H(XQC) =. Weiterhin gilt H(XKC) = C = H(XQC) H(XKC) = ( 0.53) = 0.47 müssen vom Kanalcodierer an Redundanz hinzugefügt werden, um eine fehlerfreie Übertragung zu ermöglichen. 7.4 Diskretes Kanalmodell II 7.4 a Graphische Darstellung der Übergangswahrscheinlichkeiten der gegebenen Kanalmatrix: X 0 0 Y Y X 0.5 Y 3 7-6

7 Aus den Ausgangssymbolen kann eindeutig auf die Eingangssymbole zurückgeschlossen werden, d.h. der Kanal ist ungestört: y x y, y 3 x 7.4 b Kanalkapazität des ungestörten Kanals: C = für P (x ) = P (x ) = Bandbegrenzter AWGR Kanal 7.5 a Bandbreiteausnutzung: η min = r ü 0 M/s = = f 5 MHz s Hz 7.5 b Mögliche QAM Verfahren Raised Cosine Elementarsignal (α = ): f = +α T s = T s Mit rü = log M T s folgt m = log M = rü T s = rü f = 4 bzw. M = m = 6 e. Geeignete Verfahren sind z. B. 6 QAM, 3 QAM,... (Im Mittel müssen pro mindestens 4 übertragen werden.) 7.5 c Kanalkapazität des bandbegrenzten AWGR Kanals: η = C f = log ( + SNR) = s Hz SNR min = 3 ˆ= 4.8dB Bitfehlerwahrscheinlichkeit für 6 QAM: SNR = Ee/Ts f = (log M)E b/t s /T s Es folgt: P b 6 QAM ( Eb = E b E b ) = 4.8 db 0. = SNR = 4.8 db Die Bitfehlerwahrscheinlichkeit strebt erst dann gegen Null, wenn eine geeignete Codierung eingesetzt wird. 7-7

8 7.6 Huffman Codierung 7.6 a Entropie der Quelle: H(X) = i P (x i ) log P (x i ) H(X) = (0.5 log log log 0.5) = = 7 4 Redundanz der Quelle: R(X) = H max (X) H(X) = log M H(X) = }{{} b Quellencodierung (Huffman Algorithmus) P (X i ) X X X 3 X Bitzuordnung: x 0 x 0 x 3 0 x 4 }{{} Codeworte 7.6 c Redundanz nach Quellencodierung mittlere Codewortlänge: l = i P (x i )l i = = 7 4 R(X H ) = l H(X) = = 0 perfekter Source-Code 7-8

9 7.7 Orthogonalcode 7.7 a Euklidische Distanz zwischen c und c Orthogonalcode, Darstellung im Coderaum: c d c Wegen c c gilt: d = c + c }{{} = n d }{{} = n n n 7.7 b Maximaler Betrag des Fehlervektors e, der nicht zu einer Fehlentscheidung führt: c Entscheidungsgrenze (ML) e c worst case : e zeigt in Richtung des Differenzvektors c c dann keine Fehlentscheidung, wenn e < d gilt e max = d = n Ein Fehlervektor mit größerem Betrag als e max führt nicht notwendigerweise zu einer Fehlentscheidung. Dies hängt entscheidend von der Richtung des Fehlervektors ab. Das Verfahren entspricht der Übertragung mit zwei orthogonalen Elementarsignalen. 7-9

10 7.7 c Hamming Distanz: d H = n c i c i = n i= Orthogonalität im Sinne der Hamming Distanz bedeutet, daß sich c und c in genau n en unterscheiden, d.h. n muß geradzahlig sein. 7.7 d (d HMin ) = n Fehler können erkannt werden t < d HMin = n 4 Fehler können korrigiert werden Maximaler Betrag des Fehlervektors: e max = t = { n 4 für n ungerade n 4 4 für n gerade Ein Fehlervektor mit e > t führt nicht notwendigerweise zu einer falschen Entscheidung Entscheidungsgrenze: Ebene in der Mitte zwischen den beiden Codeworten c und c im n dimensionalen Vektorraum über GF () 7.7 e Orthogonale Übertragung mit n Elementarsignalen 7.7 f Ja, es ist auch ein Code vorstellbar, der nur einen n dimensionalen Unterraum aufspannt (n < n). Es gilt dann k = log n. Vorteil: Bei gegebenem n liegt k nicht fest. Die Coderate r c = k n ist dann frei wählbar. 7.8 Biorthogonalcode 7.8 a Passendes Kanalmodell: BSC mit P b = 0 Kanalkapazität [vgl. Aufgabe 7.3a)]: 7.8 b Biorthogonalcode C = max (Q x ) {T (X; Y )} = ( P b)[ + log ( P b )] + P b ( + log P b ) 0.9 Coderate: r c = k n mit k = + log n r c = 4 8 = H(X KC ) = r c H(X QC ) = r c C }{{} / Satz von Shannon: Da r c < C gilt, kann P brest prinzipiell beliebig klein gemacht werden, insbesondere auch P brest < P b. 7-0

11 7.8 c Wahrscheinlichst gesendeter Codevektor Es ergeben sich folgende Hammingdistanzen: d He = 3 d He = 5 d He3 = 5 d He4 = 3 d He5 = 3 d He6 = 5 d He7 = d He8 = 3 d Hej+8 = 8 d Hej c i = c 7 ist das am wahrscheinlichsten gesendete Codewort. Die Entscheidung muß nicht in jedem Fall richtig sein. Wenn der Fehlervektor sehr groß ist kann das empfangene Codewort auch aus einem anderen gesendeten Codewort entstanden sein. 7.8 d Korrekturfähigkeit Der Code kann t = n 4 = Fehler sicher korrigieren. Relative Korrekturfähigkeit: t n = 8 Trotz P b < t n gibt es Fehlentscheidungen, da es eine endliche Wahrscheinlichkeit gibt, daß mehr als t Fehler in einem Codewort auftreten. 7.8 e Bi Code, n = 6: Coderate: r c = 5 6 Relative Korrekturfähigkeit: t n = 3 6 wegen t = n 4 Restfehlerwahrscheinlichkeit: P brest P CW P CW = t i=0 ( n i ) P i b ( P b) n i = 3 i=0 ( 6 i ) P i b ( P b) 6 i P brest f P brest 0 4 bei P b = 0 Bi Codes mit n = 6, 64, 56 und BCH Code mit n = 55, k = 3, t = 8 erfüllen die Forderung größte noch verbleibende Nutzdatenrate: BCH Code (55, 3, 8): r c = 0.54 Nutzdatenrate: r c rü = M/s 5.M/s 7-

12 7.9 BCH Code 7.9 a Kanalmodell: Symmetrischer Binärkanal (BSC) x P b y P b P b x y P b 7.9 b Sendeleistung bei uncodierter Übertragung S uncod = Ee T s = E b T s log M = E b log M T s E b = 3.5 db fr P b = 0 6 S uncod =.4 N0 T s 7.9 c BCH Code (55, 3, 8) P brest = 0 6 bei E b E b cod = 9 db = r c Eb = = 4.05 ˆ= 6. db uncod cod P b = erfc ( E b uncod ) 0.0 Sendeleistung: S E b uncod Ersparnis an Sendeleistung: (3.5-6.) db = 7.4 db = Faktor 5.5 r c = k n 0.5 Reduktion der Datenrate um den Faktor r c = Digitale Übertragung über Kanäle mit Bündelfehlern I 7.0 a Mittlere Bitfehlerhäufigkeit ungünstigster Fall: Länge der Fehlerbündel maximal fehlerfreies Intervall minimal 7-

13 mittlere Bitfehlerhäufigkeit: 7.0 b Block Interleaving P b = L B Pb Burst L B +6L B = 7 P b Burst = }{{} Minimale Anzahl der Zeilen eines Blockinterleavers: Aufbau der Interleavermatrix: l max = L B = 04 Zeilen Fehlerburst der Länge L B CW CW CW 3 n n n 04 Zeilen CW 03 CW 04 n n n Spalten (Codewortlänge n) 6 Spalten Interleaving: Einlesen Zeilenweise Auslesen Spaltenweise Deinterleaving: Einlesen Spaltenweise Auslesen Zeilenweise Wegen L Abst = 6L B befinden sich im ungünstigsten Fall zwischen zwei fehlerbehafteten Spalten höchstens 6 fehlerfreie Spalten. Anmerkung: Verschiebungen der Fehlerbursts in Spaltenrichtung haben keinen Einfluß auf die durchgeführten Betrachtungen (gilt auch für die folgenden Aufgabenteile). 7.0 c Dimensionierung der Interleavermatrix Code, der einen Fehler korrigieren kann maximale Codewortlänge: n = 7 ( Fehlerspalte + 6 fehlerfreie Spalten) Code, der t Fehler korrigieren kann maximale Codewortlänge: n t = 7 t (t Fehlerspalten + 6 t fehlerfreie Spalten) relative Korrekturfähigkeit: t n t 7 7-3

14 7.0 d Auswahl eines geeigneten BCH Codes n k t t/n t/n /7 r c = k/n 7 4 /7 4/7 5 /5 5 7 / /5 /3 3 6 / /3 6/ / / / /85 3/85 Gesuchter BCH Code (vgl. Tab. Lehrbuch): (n, k, t) = (7, 4, ) t Relative Korrekturfähigkeit: n = 7 Coderate: r c = Verbleibende Nutzdatenrate: r = r ü r c = 5.7M/sec Anmerkung: Für BCH Codes sinkt die relative Korrekturfähigkeit t/n mit steigender Codewortlänge n. 7. Digitale Übertragung über Kanäle mit Bündelfehlern II 7. a Codewortlänge: Korrekturfähigkeit: n = m = 55 Codesymbole mit 8 t = (n k) Codesymbole 7. b Mittlere fehlerhäufigkeit Ungünstigster Fall: Länge der Fehlerbündel maximal fehlerfreies Intervall minimal Fehlerburst beginnt am Anfang eines s fehlerhäufigkeit innerhalb eines Fehlerbursts: P Burst S = = mittlere fehlerhäufigkeit: P S = (L B/8) PS Burst (L B /8) + (L Abst /8) = c Interleaving auf ebene ist sinnvoller, da es die Bündelfehler auf ganze e konzentriert. Interleaving auf Bitebene führt zu Bitfehlern. Jeder einzelne Bitfehler bewirkt aber bereits einen fehler. 7. d Minimale Anzahl von Zeilen eines Blockinterleavers auf ebene: l max = L B 8 = 8 Zeilen. 7-4

15 Blockinterleaving auf ebene: Aufbau der Interleavermatrix: Fehlerburst. CS. CS 3. CS. CS. CS 3. CS. Codewort. Codewort 55. CS 55. CS 8 Zeilen. CS. CS 3. CS 9. Codewort 55. CS 6 Spalten 55 Spalten fehler korrigieren n = 7 Codesymbole t fehler korrigieren n t = 7 t Codesymbole t = n 7 = 37 relative Korrekturfähigkeit: t n t = Wegen t = (n k) bzw. k = n t folgt für den RS Code: (n, k, t) = (55, 8, 37) Coderate: r c = k n = verbleibende Nutzdatenrate: r ü r c 7. M/s [deutlich größer als beim BCH Code, vergleiche Aufgabe 7.0d)] 7. e Verkürzter RS Code Es muß gelten: t n 7 Minimales t und minimales n : t =, n = 7 k = n t = 5 RS Code: (n, k, t) = (7, 5, ) zugehöriger unverkürzter RS Code (n, k, t) = (55, 53, ), l = 48 Coderate: r c = k n = 5 7 Nutzdatenrate: rü r c = 7. M/s [vergleiche d)!] Zeitverzögerung: t = (Zeilenzahl in en) (Spaltenzahl in en) 8 rü t = s =.4 ms Zum Vergleich: Gerade noch tolerierbare Verzögerungszeit bei Sprachübertragung: t s 50 ms 7-5

16 7. Codeverkettung 7. a Innerer Code: Bi Codewortlänge: k Bi = + log n Bi n Bi = k Bi = 7 = 8 Coderate: r cbi = k Bi n Bi = 8 8 = 6 = Korrigierbare Fehler: t Bi = n Bi 4 = 8 4 = 3 bzw. d HBi,min = n Bi = b Äußerer Code: RS Codeverkettung: m RS = k Bi = 8 (Ein RS Codesymbol wird durch ein Bi Codewort übertragen!) m RS = 8 /Codesymbol müssen für den äußeren Code vorgesehen werden. maximal mögliche Codewortlänge für den RS Code: n RS, max = m = 55 Codesymbole Bei n RS, max = 64 handelt es sich um einen verkürzten RS Code l = n RS, max n RS = = 9 Informationssymbole sind zu Null gesetzt t RS = (n RS k RS ) = 8 fehler können mindestens korrigiert werden bzw. d HRS,min = n RS k RS + = 7 7. c Verketteter Code Codewortlänge: n ges = n RS n Bi = 64 8 = 89 Coderate: r cges = k RS m RS n ges = = = Mindestens korrigierbare Bitfehler: Worst Case : 8 Fehlerbursts der Länge 3 im Abstand von Bitfehler Die 3 beliebig verteilten Bitfehler können vom Bi Code korrigiert werden, die verbleibenden 8 fehler vom RS Code t min = 87 Bitfehler können mindestens korrigiert werden Anmerkung: Für die minimale Hammingdistanz verketteter Codes gilt: dhges,min d Hges,min = d HRS,min d HBi,min = 088 t ges,min = = 543 s können mindestens korrigiert werden. Dies gilt aber nur, wenn die Decodierung in einer Stufe und nicht wie oben angenommen in zwei Stufen erfolgt! Begründung: Ein CW des äußeren Codes unterscheidet sich von jedem anderen CW in mindestens d H RS, min en. Jedes des äußeren Codes wählt ein CW des inneren Codes aus. CW des inneren Codes unterscheiden sich aber in mindestens d H Bi, min s. Zwei beliebige, verschiedene CW des verketteteten Codes unterscheiden sich daher in mindestens d H ges, min = d H RS, min d H Bi, min s. 7-6

17 maximale Länge bei Bündelfehlern: L B = 7 n Bi = 959 (Ein Burst der Länge 960 kann so plaziert werden, daß er zu insgesamt 9 fehlern führt, die vom äußeren Code nicht mehr korrigiert werden können) minimaler Abstand bei Bündelfehlern: L Abst = n ges L B = 733 (Ein kleinerer Abstand führt bei ungünstiger Lage der Fehlerbursts zu mehr als 8 fehlern pro RS Codewort) Interleaving kann die Korrekturfähigkeit bei Bündelfehlern verbessern. Interleaving auf ebene ist unter Umständen günstiger, um möglichst viele Bitfehler auf ein zu konzentrieren. Generell ist die beste Anordnung aber nicht angebbar, sondern muß durch Simulation ermittelt werden. Gesamt CW Fehlerwahrscheinlichkeit bei BD Decodierung des inneren sowie des äußeren Codes: Allgemein gilt: P CW = t i=0 ( n ) i P i b ( P b ) n i Decodierung des inneren Codes: 3 ( ) 8 P CW,Bi = Pb i i ( P b) 8 i i=0 Für den äußeren Code gilt: fehlerwahrscheinlichkeit P S = P CW,Bi Decodierung des äußeren Codes: P CW,RS = 8 i=0 ( ) 64 PS i i ( P S) n i 7-7

Aufgabe 7.1 Bei einer digitalen Übertragung liege folgendes Modell vor:

Aufgabe 7.1 Bei einer digitalen Übertragung liege folgendes Modell vor: 1 Aufgabe 7.1 Bei einer digitalen Übertragung liege folgendes Modell vor: Q x q x akf digitale Übertrag. q y akf S y Quellensymboldauer T q = 1ms diskreter Kanal Q x sei eine stationäre Markov-Quelle nullter

Mehr

Klausur Informationstheorie und Codierung

Klausur Informationstheorie und Codierung Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte

Mehr

Praktikum Fehlerreduktionssysteme / Codierungstheorie

Praktikum Fehlerreduktionssysteme / Codierungstheorie Fakultät Elektrotechnik und Informationstechnik Institut für Nachrichtentechnik Lehrstuhl Theoretische Nachrichtentechnik Prof. Eduard Jorswieck, Anne Wolf Praktikum Fehlerreduktionssysteme / Codierungstheorie

Mehr

Modul Diskrete Mathematik WiSe 2011/12

Modul Diskrete Mathematik WiSe 2011/12 Modul Diskrete Mathematik WiSe / Ergänzungsskript zum Kapitel 3.4. Hinweis: Dieses Manuskript ist nur verständlich und von Nutzen für Personen, die regelmäßig und aktiv die zugehörige Vorlesung besuchen

Mehr

ChaosSeminar - Informationstheorie

ChaosSeminar - Informationstheorie Alexander.Bernauer@ulm.ccc.de Stephanie.Wist@ulm.ccc.de 18. November 2005 Motivation schnelle Übertragung von Daten über gestörten Kanal Shannon48 Was ist Information? Information ist Abnahme von Unsicherheit

Mehr

Gruppe. Kanalcodierung

Gruppe. Kanalcodierung Kanalcodierung Ziele Mit diesen rechnerischen und experimentellen Übungen wird die prinzipielle Vorgehensweise zur Kanalcodierung mit linearen Block-Codes und mit Faltungscodes erarbeitet. Die konkrete

Mehr

Übungsaufgaben zur Vorlesung Quellencodierung

Übungsaufgaben zur Vorlesung Quellencodierung Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = 1 0.1 0.1 0.1 y 2

Mehr

Klausur zur Vorlesung Informationstheorie

Klausur zur Vorlesung Informationstheorie INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 07 Hannover Klausur zur Vorlesung Informationstheorie Datum: 0.0.00 Uhrzeit: 09:00 Uhr Zeitdauer:

Mehr

zu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6

zu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6 zu ufgabe 6: a) 3 5 6 7 p( ) p( ) p( 3 ) p( ) p( 5 ) p( 6 ) p( 7 ) = p( 3 ) = p( 3 ) = p( 3 ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = 8 p( ) = p( ) = p( ) = p( ) Lösung: b) binär 8 p(

Mehr

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 1. Das Problem 1.1. Kanalcodierung und Fehlerkorrektur. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder 1 übertragen kann, schicken.

Mehr

Formelsammlung Kanalcodierung

Formelsammlung Kanalcodierung Formelsammlung Kanalcodierung Allgemeines Codewortlänge: N Anzahl der Informationsstellen: K Coderate: R = K/N Hamming-Distanz: D( x i, x j ) = w( x i xj ) Codedistanz: d = min D( x i, x j ); i j Fehlerkorrektur:

Mehr

A1.1: Zur Kennzeichnung aller Bücher

A1.1: Zur Kennzeichnung aller Bücher A1.1: Zur Kennzeichnung aller Bücher Seit den 1960er Jahren werden alle Bücher mit einer 10 stelligen International Standard Book Number versehen. Die letzte Ziffer dieser sog. ISBN 10 Angabe berechnet

Mehr

Kapitel 7: Optimalcodierung und Huffman Coding

Kapitel 7: Optimalcodierung und Huffman Coding Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge

Mehr

Übung 14: Block-Codierung

Übung 14: Block-Codierung ZHW, NTM, 26/6, Rur Übung 4: Block-Codierung Aufgabe : Datenübertragung über BSC. Betrachten Sie die folgende binäre Datenübertragung über einen BSC. Encoder.97.3.3.97 Decoder Für den Fehlerschutz stehen

Mehr

Klausur zur Digitalen Kommunikationstechnik

Klausur zur Digitalen Kommunikationstechnik Klausur zur Digitalen Kommunikationstechnik Prof. Dr. Henrik Schulze, Fachhochschule Südwestfalen, Standort Meschede 16. Januar 2015 Name Matr.-Nr. Vorname Unterschrift Aufgabe 1 2 3 4 Summe Note Punkte

Mehr

Klausur zur Vorlesung Informationstheorie

Klausur zur Vorlesung Informationstheorie INSTITUT FÜR INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 0167 Hannover Klausur zur Vorlesung Informationstheorie Datum:.02.2006 Uhrzeit: 9:00 Uhr Zeitdauer: 2 Stunden Hilfsmittel: ausgeteilte

Mehr

Technische Informatik - Eine Einführung

Technische Informatik - Eine Einführung Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und

Mehr

Kapitel 11: Binäre Kanäle

Kapitel 11: Binäre Kanäle Kaitel : Binäre Kanäle Ziele des Kaitels Binäre Kanäle und ihre Eigenschaften Gedächtnisfreie Kanäle Codierung als Schätzung und Schätzverfahren Kanalkaazität Shannon'sches Kanalcodierungstheorem Grundlegendes

Mehr

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein. 3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle

Mehr

Gegeben ist ein systematischer (7,3)-Cod. Die drei seiner Codewörter lauten:

Gegeben ist ein systematischer (7,3)-Cod. Die drei seiner Codewörter lauten: Prof. Dr.-Ing. H.G. Musmann INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 67 Hannover Gegeben ist ein systematischer (7,)-Cod. Die drei seiner

Mehr

Übungen zur Vorlesung Grundlagen der Rechnernetze. Zusätzliche Übungen

Übungen zur Vorlesung Grundlagen der Rechnernetze. Zusätzliche Übungen Übungen zur Vorlesung Grundlagen der Rechnernetze Zusätzliche Übungen Hamming-Abstand d Der Hamming-Abstand d zwischen zwei Codewörtern c1 und c2 ist die Anzahl der Bits, in denen sich die beiden Codewörter

Mehr

Fehlerschutz durch Hamming-Codierung

Fehlerschutz durch Hamming-Codierung Versuch.. Grundlagen und Begriffe Wesentliche Eigenschaften der Hamming-Codes für die Anwendung sind: der gleichmäßige Fehlerschutz für alle Stellen des Codewortes und die einfache Bildung des Codewortes

Mehr

Grundlagen der Technischen Informatik. Hamming-Codes. Kapitel 4.3

Grundlagen der Technischen Informatik. Hamming-Codes. Kapitel 4.3 Hamming-Codes Kapitel 4.3 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Inhalt Welche Eigenschaften müssen Codes haben, um Mehrfachfehler erkennen und sogar korrigieren zu können?

Mehr

(Prüfungs-)Aufgaben zur Codierungstheorie

(Prüfungs-)Aufgaben zur Codierungstheorie (Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1

Mehr

Fehlerdetektion. Cyclic Redanduncy Check. Grundlagen der Rechnernetze Übertragungssicherung 7

Fehlerdetektion. Cyclic Redanduncy Check. Grundlagen der Rechnernetze Übertragungssicherung 7 Fehlerdetektion Cyclic Redanduncy Check Grundlagen der Rechnernetze Übertragungssicherung 7 Modulo 2 Arithmetik Addition Modulo 2 Subtraktion Modulo 2 Multiplikation Modulo 2 A B A B 0 0 0 1 1 0 1 1 A

Mehr

Grundlagen der Technischen Informatik. 2. Übung

Grundlagen der Technischen Informatik. 2. Übung Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 2. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Aufgabe 4: Hamming-Distanz Fehlererkennung

Mehr

Informationstheorie und Codierung

Informationstheorie und Codierung Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice

Mehr

4.0.2 Beispiel (Einfacher Wiederholungscode). Im einfachsten Fall wird die Nachricht einfach wiederholt. D.h. man verwendet die Generatorabbildung

4.0.2 Beispiel (Einfacher Wiederholungscode). Im einfachsten Fall wird die Nachricht einfach wiederholt. D.h. man verwendet die Generatorabbildung Wir beschäftigen uns mit dem Problem, Nachrichten über einen störungsanfälligen Kanal (z.b. Internet, Satelliten, Schall, Speichermedium) zu übertragen. Wichtigste Aufgabe in diesem Zusammenhang ist es,

Mehr

Klausur zur Digitalen Kommunikationstechnik

Klausur zur Digitalen Kommunikationstechnik Klausur zur Digitalen Kommunikationstechnik Prof. Dr. Henrik Schulze, Fachhochschule Südwestfalen, Standort Meschede 17. Januar 014 Die Klausur dauert 10 Minuten. Insgesamt sind 48 Punkte erreichbar. Erlaubte

Mehr

Fachprüfung. Nachrichtencodierung

Fachprüfung. Nachrichtencodierung Fachprüfung Nachrichtencodierung 14. März 2006 Prüfer: Prof. Dr. P. Pogatzki Bearbeitungszeit: 2 Stunden Hilfsmittel: Taschenrechner, Vorlesungsscript, Übungsaufgaben Name:... Matr.-Nr.:... Unterschrift:...

Mehr

Grundlagen der Nachrichtentechnik 4

Grundlagen der Nachrichtentechnik 4 Grundlagen der Prof. Dr.-Ing. Andreas Czylwik S. Organisatorisches Vorlesung 2 SWS Übung SWS, Betreuer: Dipl.-Ing. Lars Häring Folienkopien sind verfügbar Prüfung: schriftlich Neue Forschungsthemen im

Mehr

TGI-Übung Dirk Achenbach

TGI-Übung Dirk Achenbach TGI-Übung 7 06.02.2014 Dirk Achenbach INSTITUT FÜR THEORETISCHE INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Agenda

Mehr

Die Hamming-Distanz definiert eine Metrik.

Die Hamming-Distanz definiert eine Metrik. Die Hamming-Distanz definiert eine Metrik. Satz Metrik Hamming-Distanz Die Hamming-Distanz ist eine Metrik auf {0, 1} n, d.h. für alle x, y, z {0, 1} n gilt: 1 Positivität: d(x, y) 0, Gleichheit gdw x

Mehr

Übungsblatt 5 - Musterlösung

Übungsblatt 5 - Musterlösung Universität Mannheim Lehrstuhl für Praktische Informatik IV Prof. Dr. W. Effelsberg Christoph Kuhmünch, Gerald Kühne Praktische Informatik II SS 2000 Übungsblatt 5 - Musterlösung Aufgabe 1: Huffman-Codierung

Mehr

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.

Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind. 1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,

Mehr

Einführung in die Kodierungstheorie

Einführung in die Kodierungstheorie Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht

Mehr

Übung zur Vorlesung. Informationstheorie und Codierung

Übung zur Vorlesung. Informationstheorie und Codierung Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.

Mehr

A3.1: Wahrscheinlichkeiten beim Würfeln

A3.1: Wahrscheinlichkeiten beim Würfeln Abschnitt: 3.1 Einige Vorbemerkungen zu zweidimensionalen Zufallsgrößen A3.1: Wahrscheinlichkeiten beim Würfeln Wir betrachten das Zufallsexperiment Würfeln mit ein oder zwei Würfeln. Beide Würfel sind

Mehr

Vergleich der Hard-Decision Decodierung mit der Soft Decision- Decodierungi (HD- mit SD-Decodierung)

Vergleich der Hard-Decision Decodierung mit der Soft Decision- Decodierungi (HD- mit SD-Decodierung) Vergleich der Hard-Decision Decodierung mit der Soft Decision- Decodierungi (HD- mit SD-Decodierung) Als Beispiel für die folgenden Überlegungen dient der (7,4,3)-Hamming- oder BCH-Code). Wegen des Mindestabstands

Mehr

Einführung in die Informations- und Codierungstheorie

Einführung in die Informations- und Codierungstheorie Einführung in die Informations- und Codierungstheorie Von Prof. Dr. Hermann Rohling Technische Universität Braunschweig unter Mitarbeit von Dipl.-Ing. Thomas Müller Technische Universität Braunschweig

Mehr

6. Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke. 6. Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 107/ 238

6. Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke. 6. Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 107/ 238 6 Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 6 Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 107/ 238 Erinnerung: Der Vektorraum F n 2 Schreiben {0, 1} n als F n 2 Definition

Mehr

5. Informationskanäle

5. Informationskanäle Informationstheorie / SS 2008-103 - Fakultät 5 / Uni-Stuttgart 5. Informationskanäle 5.1 Typen von Informationskanälen A Informationskanäle ohne Gedächtnis a) Informationskanäle transformieren Eingangsereignisse

Mehr

Informationstheorie und Codierung

Informationstheorie und Codierung Informationstheorie und Codierung 5. Fehlerkorrigierende Codierung Grundlagen Fehlererkennung, Fehlerkorrektur Linearcodes, Hamming-Codes Zyklische Codes und technische Realisierung Burstfehlerkorrektur

Mehr

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information

Mehr

Signale und Codes Vorlesung 4

Signale und Codes Vorlesung 4 Signale und Codes Vorlesung 4 Nico Döttling December 6, 2013 1 / 18 2 / 18 Letztes Mal Allgemeine Hamming Codes als Beispiel linearer Codes Hamming Schranke: Obere Schranke für k bei gegebenem d bzw. für

Mehr

Kapitel 13: Syndromcodierung / Hamming Codes

Kapitel 13: Syndromcodierung / Hamming Codes Kapitel 3: Syndromcodierung / Hamming Codes Ziele des Kapitels Lineare Codes Zyklische Codes Copyright M. Gross, ETH Zürich 26, 27 2 Parity-Check-Matrix Theorem: Die Minimaldistanz eines linearen Codes

Mehr

Erinnerung: Der Vektorraum F n 2

Erinnerung: Der Vektorraum F n 2 Erinnerung: Der Vektorraum F n 2 Definition Vektorraum F n 2 F n 2 = ({0, 1}n,+, ) mit Addition modulo 2, + : F n 2 Fn 2 Fn 2 und skalarer Multiplikation : F 2 F n 2 Fn 2 definiert einen Vektorraum, d.h.

Mehr

Die Größe A(n, d) und optimale Codes

Die Größe A(n, d) und optimale Codes Die Größe A(n, d) und optimale Codes Definition Optimaler Code Wir definieren A(n, d) = max{m binärer (n, M, d) Code} Ein (n, M, d)-code heißt optimal, falls M = A(n, d). Bestimmung von A(n, d) ist offenes

Mehr

Grundbegrie der Codierungstheorie

Grundbegrie der Codierungstheorie Grundbegrie der Codierungstheorie Pia Lackamp 12. Juni 2017 Inhaltsverzeichnis 1 Einleitung 2 2 Hauptteil 3 2.1 Blockcodes............................ 3 2.1.1 Beispiele.......................... 3 2.2

Mehr

Musterlösung zur Aufgabe A1.1

Musterlösung zur Aufgabe A1.1 Abschnitt: 1.1 Zielsetzung der Kanalcodierung Musterlösung zur Aufgabe A1.1 a) Allein durch Abzählen der ISBN Ziffern erkennt man, dass Antwort 2 richtig ist. Die gewichtete Summe über alle Ziffern ergibt

Mehr

Die Mathematik in der CD

Die Mathematik in der CD Lehrstuhl D für Mathematik RWTH Aachen Lehrstuhl D für Mathematik RWTH Aachen St.-Michael-Gymnasium Monschau 14. 09. 2006 Codes: Definition und Aufgaben Ein Code ist eine künstliche Sprache zum Speichern

Mehr

Übung zu Drahtlose Kommunikation. 1. Übung

Übung zu Drahtlose Kommunikation. 1. Übung Übung zu Drahtlose Kommunikation 1. Übung 22.10.2012 Termine Übungen wöchentlich, Montags 15 Uhr (s.t.), Raum B 016 Jede Woche 1 Übungsblatt http://userpages.uni-koblenz.de/~vnuml/drako/uebung/ Bearbeitung

Mehr

Übung 4. Tutorübung zu Grundlagen: Rechnernetze und Verteilte Systeme (Gruppen Mo-T1 / Di-T11 SS 2016) Dennis Fischer

Übung 4. Tutorübung zu Grundlagen: Rechnernetze und Verteilte Systeme (Gruppen Mo-T1 / Di-T11 SS 2016) Dennis Fischer Übung 4 Tutorübung zu Grundlagen: Rechnernetze und Verteilte Systeme (Gruppen Mo-T1 / Di-T11 SS 2016) Dennis Fischer Technische Universität München Fakultät für Informatik 09.05.2016 / 10.05.2016 1/12

Mehr

A3.9: Viterbi Algorithmus: Grundlegendes

A3.9: Viterbi Algorithmus: Grundlegendes A3.9: Viterbi Algorithmus: Grundlegendes Die Grafik zeigt ein Trellisdiagramm und definiert gleichzeitig die Fehlergrößen Γ i (S 0 ) und Γ i (S 1 ) zu den Zeitpunkten i = 0 bis i = 5. Aus diesem Trellis

Mehr

Grundlagen der Rechnernetze

Grundlagen der Rechnernetze Grundlagen der Rechnernetze Übertragungssicherung Übersicht Fehlerdetektion Fehlerkorrektur Flusskontrolle Fehlerkontrolle Framing Grundlagen der Rechnernetze Übertragungssicherung 2 Fehlerdetektion Grundlagen

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr

Fachprüfung. Nachrichtencodierung

Fachprüfung. Nachrichtencodierung Fachprüfung Nachrichtencodierung 6. August 2009 Prüfer: Prof. Dr. P. Pogatzki Bearbeitungszeit: 2 Stunden Hilfsmittel: Taschenrechner, Vorlesungsscript, Übungsaufgaben Name: Vorname: Matr.-Nr.: Unterschrift:

Mehr

Erzeugendensystem und Basis

Erzeugendensystem und Basis Erzeugendensystem und Basis Definition Erzeugendensystem und Basis eines Unterraums Sei S F n 2 ein Unterraum. Eine Menge G = {g 1,..., g k } S heißt Erzeugendensystem von S, falls jedes x S als Linearkombination

Mehr

Ein (7,4)-Code-Beispiel

Ein (7,4)-Code-Beispiel Ein (7,4)-Code-Beispiel Generator-Polynom: P(X) = X 3 + X 2 + 1 Bemerkung: Es ist 7 = 2^3-1, also nach voriger Überlegung sind alle 1-Bit-Fehler korrigierbar Beachte auch d min der Codewörter ist 3, also

Mehr

Informationstheorie und Codierung

Informationstheorie und Codierung Informationstheorie und Codierung Organisation / Einleitung Vorlesung: Do 17:00 Uhr, Sr K 2002B Seminar: Mi (G) 15:00 Uhr, Sr H 1510 Abschluss: mdl. Prüfung Kontakt - Vorlesung Dr.-Ing. Maik Debes Fakultät

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung

Mehr

Grundlagen der Nachrichtentechnik

Grundlagen der Nachrichtentechnik Universität Bremen Arbeitsbereich Nachrichtentechnik Prof. Dr.-Ing. A. Dekorsy Schriftliche Prüfung im Fach Grundlagen der Nachrichtentechnik Name: Vorname: Mat.-Nr.: BSc./Dipl.: Zeit: Ort: Umfang: 07.

Mehr

Kanalkodierung. 6 Kanalkodierung Zielstellung. Störungen der übertragenen Daten. 6 Kanalkodierung Zielstellung WS 2018/2019

Kanalkodierung. 6 Kanalkodierung Zielstellung. Störungen der übertragenen Daten. 6 Kanalkodierung Zielstellung WS 2018/2019 Fakultät Informatik Institut Systemarchitektur Professur Datenschutz und Datensicherheit WS 2018/2019 6. Kanalkodierung Dr.-Ing. Elke Franz Elke.Franz@tu-dresden.de 6 Kanalkodierung Zielstellung en der

Mehr

Perfekte Codes. Definition Perfekter Code. Sei C {0, 1} n ein (n, M, d)-code. C heißt perfekt, falls

Perfekte Codes. Definition Perfekter Code. Sei C {0, 1} n ein (n, M, d)-code. C heißt perfekt, falls Perfekte Codes Definition Perfekter Code Sei C {0, 1} n ein (n, M, d)-code. C heißt perfekt, falls ( ) d 1 M V n = 2 n. 2 D.h. die maximalen disjunkten Hammingkugeln um die Codeworte partitionieren {0,

Mehr

Codes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC)

Codes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC) Codes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC) Definitionen: Codewort:= mit zusätzlichen (redundanten) Kontrollbits versehenes Quellwort m:= Länge des Quellwortes (Anzahl der Nutzdatenbits)

Mehr

Übertragungsverfahren der Nachrichtentechnik 2 Ex Beispiele zum 1. Übungstest

Übertragungsverfahren der Nachrichtentechnik 2 Ex Beispiele zum 1. Übungstest Ex Beispiele zum 1. Übungstest 1 PAM Grundlagen Aufgabe 1.1 Zur Übertragung eines einzelnen binären Symbols über einen verzerrungsfreien Kanal mit additivem weißem Gaußschem Rauschen (Leistungsdichtespektrum

Mehr

Endliche Körper und Codierung SS Übungsblatt. 9. Bestimmen Sie alle primitiven Elemente (Erzeuger der multiplikativen Gruppe) von

Endliche Körper und Codierung SS Übungsblatt. 9. Bestimmen Sie alle primitiven Elemente (Erzeuger der multiplikativen Gruppe) von Endliche Körper und Codierung SS 2007 1. Übungsblatt 1. Sei p eine Primzahl und 0 j p 1. Zeigen Sie, dass ( ) p 1 j ( 1) j (mod p). 2. Sei R ein kommutativer Ring der Charakteristik p > 0 (prim). Zeigen

Mehr

Index. Chien-Suche, 220 CIRC, 234 Code, 2, 9 äquidistanter, 81

Index. Chien-Suche, 220 CIRC, 234 Code, 2, 9 äquidistanter, 81 Index Abelsche Gruppe, 140 Abgeschlossenheit, 47, 140, 143 Abhängigkeit lineare, 53 Abtastfolge, 226 ACS-Operation, 279 Addition, 46, 163 Alphabet, 1 ARQ, 6, 174 Assoziativität, 47, 52, 140, 143 Audio-CD,

Mehr

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238 3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher

Mehr

Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de

Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de Inhaltsverzeichnis 3. Kanalcodierung 3.1 Nachrichtentheorie für gestörte Kanäle 3.1.1 Transinformation 3.1.2 Kanalkapazität

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Übung 8 Dirk Achenbach 7. Februar 2013 I NSTITUT FÜR K RYPTOGRAPHIE UND S ICHERHEIT KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

Fehlererkennung und Fehlerkorrektur in Codes

Fehlererkennung und Fehlerkorrektur in Codes Fehlererkennung und Fehlerkorrektur in Codes Blockcodes und Hamming Abstand Untersuchungen zu Codierungen von Informationen, die über einen Nachrichtenkanal übertragen werden sollen, konzentrieren sich

Mehr

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen 1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte

Mehr

Bakkalaureatsarbeit. Wiederholungscode. Görtschacher Lukas

Bakkalaureatsarbeit. Wiederholungscode. Görtschacher Lukas Bakkalaureatsarbeit Wiederholungscode Görtschacher Lukas Institut für Signalverarbeitung und Sprachkommunikation Technische Universität Graz Vorstand: Univ.-Prof. Dipl.-Ing. Dr. techn. Gernot Kubin Betreuer:

Mehr

Optimalcodierung. Thema: Optimalcodierung. Ziele

Optimalcodierung. Thema: Optimalcodierung. Ziele Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.

Mehr

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b. Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie

Mehr

Zyklische Codes Rechnernetze Übung SS2010

Zyklische Codes Rechnernetze Übung SS2010 Zyklische Codes Binärcodes Blockcodes Lineare Codes Nichtlineare Codes Zyklische Codes Systematische Codes Binärcodes Blockcodes Lineare Codes Nichtlineare Codes Zyklische Codes Systematische Codes Durch

Mehr

Einführung in die Kodierungstheorie

Einführung in die Kodierungstheorie Anton Malevich Einführung in die Kodierungstheorie Skript zu einer im Februar 2013 gehaltenen Kurzvorlesung Fakultät für Mechanik und Mathematik Belorussische Staatliche Universität Institut für Algebra

Mehr

Trellis Diagramme und Viterbi-Decoder

Trellis Diagramme und Viterbi-Decoder Trellis Diagramme und Viterbi-Decoder Michael Dienert. März Fehlertolerante Datenübertragung bei Gigabit-Ethernet Um MBit/s auf Kat Kupferkabeln übertragen zu können, sind eine Reihe technischer Kunstgriffe

Mehr

Musterlösung zur Aufgabe A3.1

Musterlösung zur Aufgabe A3.1 Abschnitt: 3.1 Einige Vorbemerkungen zu zweidimensionalen Zufallsgrößen Musterlösung zur Aufgabe A3.1 a) Setzt man faire Würfel voraus, so ergibt sich für die Wahrscheinlichkeit, dass mit dem roten Würfel

Mehr

Dirk W. Hoffmann. Einführung. in die Informations. und Codierungstheorie. ^ Springer Vieweg

Dirk W. Hoffmann. Einführung. in die Informations. und Codierungstheorie. ^ Springer Vieweg Dirk W. Hoffmann Einführung und Codierungstheorie in die Informations ^ Springer Vieweg Inhaltsverzeichnis 1 Geschichte der Nachrichtentechnik 13 1.1 Von Fackeln und Feuern der Antike 15 1.1.1 Fackelpost

Mehr

Tutorübung zur Vorlesung Grundlagen Rechnernetze und Verteilte Systeme Übungsblatt 3 (6. Mai 10. Mai 2013)

Tutorübung zur Vorlesung Grundlagen Rechnernetze und Verteilte Systeme Übungsblatt 3 (6. Mai 10. Mai 2013) Technische Universität München Lehrstuhl Informatik VIII Prof. Dr.-Ing. Georg Carle Dipl.-Ing. Stephan Günther, M.Sc. Nadine Herold, M.Sc. Dipl.-Inf. Stephan Posselt Tutorübung zur Vorlesung Grundlagen

Mehr

Vorlesung Theoretische Grundlagen

Vorlesung Theoretische Grundlagen Vorlesung Theoretische Grundlagen Fehlerkorrigierende Jörn Müller-Quade 4. Februar 2010 INSTITUT FÜR KRYPTOGRAPHIE UND SICHERHEIT KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009

Mehr

Grundlagen der Nachrichtentechnik

Grundlagen der Nachrichtentechnik Universität Bremen Arbeitsbereich Nachrichtentechnik Prof. Dr.-Ing. A. Dekorsy Schriftliche Prüfung im Fach Grundlagen der Nachrichtentechnik Name: Vorname: Mat.-Nr.: BSc./Dipl.: Zeit: Ort: Umfang: 07.

Mehr

Fehlererkennende und fehlerkorrigierende Codes

Fehlererkennende und fehlerkorrigierende Codes Fehlererkennende und fehlerkorrigierende Codes Claudiu-Vlad URSACHE, 5AHITN Inhalt 1. Codes... 2 2. Hammingdistanz... 3 3. Fehlererkennende Codes... 4 4. Fehlerkorrigierende Codes... 5 1. Codes a 2 a 00

Mehr

Information und Codierung

Information und Codierung Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH Inhalt Vorwort zur 1. Auflage der Originalausgabe

Mehr

Zusatzübung zur Theoretischen Informationstechnik

Zusatzübung zur Theoretischen Informationstechnik Lehrstuhl für Theoretische Informationstechnik Zusatzübung zur Theoretischen Informationstechnik Prof. Dr. Anke Schmeink, Martijn Arts, Fabian Altenbach, Christoph Schmitz 14.03.2013 TI I: Aufgabe 1-4

Mehr

i Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit.

i Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit. 1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,

Mehr

Einführung in die Codierungstheorie

Einführung in die Codierungstheorie Einführung in die Codierungstheorie Monika König 11.12.2007 Inhaltsverzeichnis 1 Einführung und Definitionen 2 2 Fehlererkennende Codes 3 2.1 Paritycheck - Code............................... 3 2.2 Prüfziffersysteme................................

Mehr

Wann sind Codes eindeutig entschlüsselbar?

Wann sind Codes eindeutig entschlüsselbar? Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C

Mehr

Rechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir?

Rechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir? Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2012 Wo sind wir? Quelle Nachricht Senke Sender Signal Übertragungsmedium Empfänger Quelle Nachricht Senke Primäres

Mehr

Informationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006

Informationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006 Informationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006 Institut für Nachrichtentechnik und Hochfrequenztechnik Bitte beachten Sie: Sie dürfen das Vorlesungsskriptum, einen Taschenrechner

Mehr

Themen Medientechnik II. Grundlagen der Bildkompression (Teil 1) Claude E. Shannon ( ) Digitale Bildübertragungsstrecke

Themen Medientechnik II. Grundlagen der Bildkompression (Teil 1) Claude E. Shannon ( ) Digitale Bildübertragungsstrecke .4.6 Themen Medientechnik II Grundlagen der Bildkompression (Teil ) Dr. Detlev Marpe Fraunhofer Institut für Nachrichtentechnik HHI Grundlagen der statistischen ignalverarbeitung Mittelwert, Varianz, NR,

Mehr