P (x i ) log 2 = P (x. i ) i=1. I(x i ) 2 = log 1. bit H max (X) = log 2 MX = log 2 2 = 1. Symbol folgt für die Redundanz. 0.9 = 0.
|
|
- Matilde Lorentz
- vor 7 Jahren
- Abrufe
Transkript
1 7. Diskretes Kanalmodell I 7. a Aussagen über das digitale Übertragungsverfahren Bis auf die bereitzustellende Übertragungsrate [vgl. c)] sind keine Aussagen über das digitale Übertragungsverfahren möglich. Die Quelldaten könnten mit jedem beliebigen digitalen Übertragungsverfahren übertragen werden. 7. b Quellen Gedächtnis Nein, die Quelle Q x besitzt definitionsgemäß kein Gedächtnis (Markoff Quelle 0. Ordnung, Ordnung der Markoff Quelle = Länge des Gedächtnisses). Ein Quellengedächtnis bedeutet, daß das aktuelle Quellensymbol q x (k) von bereits gesendeten en q x (k i), i > 0 abhängt. Zur statistischen Beschreibung sind Verbundwahrscheinlichkeiten notwendig. 7. c Entropie und Redundanz der Quelle I Entropie: H(X) = P (x i ) log = P (x i= i ) }{{} I(x i ) = log log = P (x i ) log P (x i ) i= [ ] [ ] H max (X) = log MX = log = Redundanz R(X) der Quelle Q x : R(X) = H max (X) H(X) = 0 Übertragungsrate des digitalen Übertragungsverfahrens: rü = H(X) T q = ms = k s 7. d Entropie und Redundanz der Quelle II [ ] Entropie: H(X) = 0. log log 0.9 = Mit H max (X) = folgt für die Redundanz R(X) = H max (X) H(X) = 0.53 Übertragungsrate: rü = H(X) = T q ms = 469 s Folgerungen aus den Ergebnissen: Durch Quellcodierung ist es möglich, daß die Quellensymbole im Mittel mit codiert werden. 7-
2 be- Das digitale Übertragungsverfahren muß dann nur eine Übertragungsrate von 469 s reitstellen. 7. e Diskretes Kanalmodell Passendes Kanalmodell: Symmetrischer Binärkanal (BSC) Q x stationär, Kanal stationär Q y stationär Q x ohne Gedächtnis, Kanal ohne Gedächtnis Q y ohne Gedächtnis Symmetrischer Binärkanal (BSC): P (x ) x P b y P (y ) P b P b P (x ) x y P b P (y ) 7. f Entropie, Redundanz und Irrelevanz Entropie von Q y : H(Y ) = i= P (y i ) log P (y i ) P (y ) = P (x ) P (y x ) + P (x ) P (y x ) = P (x ) ( P b ) + P (x ) P b = = 0.8 P (y ) = P (y ) = 0.8 ( ) H(Y ) = 0.8 log log 0.8 = 0.68 Redundanz von Q y : R(Y ) = H max (Y ) H(Y ) = 0.3 }{{} Irrelevanz: H(Y X) = i= j= P (x i, y j ) log P (y j x i ) mit P (x i, y j ) = P (y j x i ) P (x i ) P (x, y ) = P (y x ) P (x ) = = 0.09 P (x, y ) = P (y x ) P (x ) = = 0.09 P (x, y ) = P (y x ) P (x ) = = 0.0 P (x, y ) = P (y x ) P (x ) = =
3 H(Y X) = 0.09 log log = log log 0.9 Die Irrelevanz oder Streuentropie wird durch die Störungen des Kanals verursacht. zusätzliche Information über den Kanal und seine Statistik Transinformation: T (X; Y ) = H(Y ) H(Y X) = = 0. Äquivokation: H(X Y ) = H(X) T (X; Y ) = = 0.6 Graphische Veranschaulichung der statistischen Größen Entropie, Transinformation, Irrelevanz und Äquivokation: Äquivokation 0.58 symbol Eingangsentropie symbol Transinformation 0. symbol Ausgangsentropie 0.68 symbol Irrelevanz symbol 7. Unsymmetrisch gestörter Binärkanal 7. a Kanalmatrix, Kanalmodell Kanalmatrix: P (Y X) = [ P (y x ) P (y x ) P (y x ) P (y x ) ] [ Pb P = b P b P b ] = [ ] 7-3
4 Diskretes Kanalmodell: unsymmetrisch gestörter Binärkanal: x = 0 P b y = 0 P b P b x = y = P b 7. b Entropie, Transinformation und Irrelevanz P (x ) = 0. P (x ) = P (x ) = 0.8 Entropie am Kanaleingang: H(X) = 0. log log 0.8 = 0.7 Entropie am Kanalausgang: H(Y ) = P (y ) log P (y ) + P (y ) log P (y ) P (y ) = P (y x ) P (x ) + P (y x ) P (x ) = = 0.8 P (y ) = P (y ) = 0.7 H(Y ) = 0.8 log log 0.7 = 0.85 Transinformation: Mit P (x i y j ) P (y j ) = P (x i, y j ) = P (y j x i ) P (x i ) bzw. P (x i y j ) P (x i ) = P (y j x i ) P (y j ) T (X; Y ) = T (Y ; X) = + i= j= T (X; Y ) = P (x ) P (y x ) log P (y x ) P (y ) +P (x ) P (y x ) log P (y x ) P (y ) = log log log log P (x i )P (y j x i ) log P (y j x i ) P (y j ) folgt: P (y x ) + P (x ) P (y x ) log P (y ) P (y x ) + P (x ) P (y x ) log = 0.46 P (y ) Irrelevanz: H(Y X) = H(Y ) T (X; Y ) = ( ) = 0.39 Äquivokation: H(X Y ) = H(X) T (X; Y ) =
5 7. c Kanalkapazität Es folgt für P b = 0, P b = 0 : C = max (Q x ) {T (X; Y )} 0.7 bei P (x ) = 0.46 und P (x ) = d Maßnahmen, um die Kapazität des Kanals zu nutzen: Quellencodierung zur Redundanzeliminierung: x i X = x QCi X QC H(X) = 0.7 = H(X QC ) = H Max = Kanalcodierung zur Anpassung der Quelle an den Kanal (Addition von Redundanz): x QCi X QC = x KCi X KC H(X QC ) = = H(X KC ) = C = max{t (X; Y )} Hinzufügen von [H(X QC ) H(X KC )] = C = 0.8 an Redundanz Bei geeigneten Codes ist damit im Prinzip eine fehlerfreie Übertragung möglich. 7.3 Symmetrischer Binärkanal 7.3 a Kanalkapazität: C = max {T (X; Y )} (Q x ) Beim BSC ist die Transinformation T (X; Y ) maximal für P (x ) = P (x ) = P (y ) = P (x ) P (y x ) +P (x }{{} ) P (y x ) }{{} P b Mit T (X; Y ) = i= j= P (x i )P (y j x i ) log P (x i ) P (x i y j ) }{{} P (y j ) P (y j x i ) P b =, P (y ) = P (y ) = P (y ) = P (x )P (y x ) log P (y x ) P (x P (y ) )P (y x ) log P (y x ) P (y ) P (x )P (y x ) log P (y x ) P (x P (y ) )P (y x ) log P (y x ) folgt: C = [ ] P b log + ( P b ) log P b ( P b ) = ( P b ) log [( P b )] + P b log (P b ) = ( P b )[ + log ( P b )] + P b ( + log P b ) = 0.9 ( + log 0.9) + 0. ( + log 0.)
6 Maximale Übertragungsrate, für die eine fehlerfreie Übertragung möglich ist: rü max = C = C 53 k T Kan s 7.3 b Allgemeines Blockbild der Übertragung über einen symmetrischen Binärkanal: Q x COD QC COD KC BSC DEC KC DEC QC S y q X0 (k) H(X0) q XQC (k) H(XQC) q XKC (k) H(XKC) q Y KC (k) q Y QC (k) q Y 0 (k) 7.3 c Entropie der Quelle: P (x ) = 0.4 P (x ) = P (x ) = 0.6 H(X) = i P (x i ) log P (x i ) = 0.4 log log 0.6 Redundanz der Quelle (vom Quellencodierer zu entfernen): 0.97 R(X) = H max H(X) = ( 0.97) = 0.09 Wenn der Quellencodierer die Redundanz vollständig entfernt hat, gilt H(XQC) =. Weiterhin gilt H(XKC) = C = H(XQC) H(XKC) = ( 0.53) = 0.47 müssen vom Kanalcodierer an Redundanz hinzugefügt werden, um eine fehlerfreie Übertragung zu ermöglichen. 7.4 Diskretes Kanalmodell II 7.4 a Graphische Darstellung der Übergangswahrscheinlichkeiten der gegebenen Kanalmatrix: X 0 0 Y Y X 0.5 Y 3 7-6
7 Aus den Ausgangssymbolen kann eindeutig auf die Eingangssymbole zurückgeschlossen werden, d.h. der Kanal ist ungestört: y x y, y 3 x 7.4 b Kanalkapazität des ungestörten Kanals: C = für P (x ) = P (x ) = Bandbegrenzter AWGR Kanal 7.5 a Bandbreiteausnutzung: η min = r ü 0 M/s = = f 5 MHz s Hz 7.5 b Mögliche QAM Verfahren Raised Cosine Elementarsignal (α = ): f = +α T s = T s Mit rü = log M T s folgt m = log M = rü T s = rü f = 4 bzw. M = m = 6 e. Geeignete Verfahren sind z. B. 6 QAM, 3 QAM,... (Im Mittel müssen pro mindestens 4 übertragen werden.) 7.5 c Kanalkapazität des bandbegrenzten AWGR Kanals: η = C f = log ( + SNR) = s Hz SNR min = 3 ˆ= 4.8dB Bitfehlerwahrscheinlichkeit für 6 QAM: SNR = Ee/Ts f = (log M)E b/t s /T s Es folgt: P b 6 QAM ( Eb = E b E b ) = 4.8 db 0. = SNR = 4.8 db Die Bitfehlerwahrscheinlichkeit strebt erst dann gegen Null, wenn eine geeignete Codierung eingesetzt wird. 7-7
8 7.6 Huffman Codierung 7.6 a Entropie der Quelle: H(X) = i P (x i ) log P (x i ) H(X) = (0.5 log log log 0.5) = = 7 4 Redundanz der Quelle: R(X) = H max (X) H(X) = log M H(X) = }{{} b Quellencodierung (Huffman Algorithmus) P (X i ) X X X 3 X Bitzuordnung: x 0 x 0 x 3 0 x 4 }{{} Codeworte 7.6 c Redundanz nach Quellencodierung mittlere Codewortlänge: l = i P (x i )l i = = 7 4 R(X H ) = l H(X) = = 0 perfekter Source-Code 7-8
9 7.7 Orthogonalcode 7.7 a Euklidische Distanz zwischen c und c Orthogonalcode, Darstellung im Coderaum: c d c Wegen c c gilt: d = c + c }{{} = n d }{{} = n n n 7.7 b Maximaler Betrag des Fehlervektors e, der nicht zu einer Fehlentscheidung führt: c Entscheidungsgrenze (ML) e c worst case : e zeigt in Richtung des Differenzvektors c c dann keine Fehlentscheidung, wenn e < d gilt e max = d = n Ein Fehlervektor mit größerem Betrag als e max führt nicht notwendigerweise zu einer Fehlentscheidung. Dies hängt entscheidend von der Richtung des Fehlervektors ab. Das Verfahren entspricht der Übertragung mit zwei orthogonalen Elementarsignalen. 7-9
10 7.7 c Hamming Distanz: d H = n c i c i = n i= Orthogonalität im Sinne der Hamming Distanz bedeutet, daß sich c und c in genau n en unterscheiden, d.h. n muß geradzahlig sein. 7.7 d (d HMin ) = n Fehler können erkannt werden t < d HMin = n 4 Fehler können korrigiert werden Maximaler Betrag des Fehlervektors: e max = t = { n 4 für n ungerade n 4 4 für n gerade Ein Fehlervektor mit e > t führt nicht notwendigerweise zu einer falschen Entscheidung Entscheidungsgrenze: Ebene in der Mitte zwischen den beiden Codeworten c und c im n dimensionalen Vektorraum über GF () 7.7 e Orthogonale Übertragung mit n Elementarsignalen 7.7 f Ja, es ist auch ein Code vorstellbar, der nur einen n dimensionalen Unterraum aufspannt (n < n). Es gilt dann k = log n. Vorteil: Bei gegebenem n liegt k nicht fest. Die Coderate r c = k n ist dann frei wählbar. 7.8 Biorthogonalcode 7.8 a Passendes Kanalmodell: BSC mit P b = 0 Kanalkapazität [vgl. Aufgabe 7.3a)]: 7.8 b Biorthogonalcode C = max (Q x ) {T (X; Y )} = ( P b)[ + log ( P b )] + P b ( + log P b ) 0.9 Coderate: r c = k n mit k = + log n r c = 4 8 = H(X KC ) = r c H(X QC ) = r c C }{{} / Satz von Shannon: Da r c < C gilt, kann P brest prinzipiell beliebig klein gemacht werden, insbesondere auch P brest < P b. 7-0
11 7.8 c Wahrscheinlichst gesendeter Codevektor Es ergeben sich folgende Hammingdistanzen: d He = 3 d He = 5 d He3 = 5 d He4 = 3 d He5 = 3 d He6 = 5 d He7 = d He8 = 3 d Hej+8 = 8 d Hej c i = c 7 ist das am wahrscheinlichsten gesendete Codewort. Die Entscheidung muß nicht in jedem Fall richtig sein. Wenn der Fehlervektor sehr groß ist kann das empfangene Codewort auch aus einem anderen gesendeten Codewort entstanden sein. 7.8 d Korrekturfähigkeit Der Code kann t = n 4 = Fehler sicher korrigieren. Relative Korrekturfähigkeit: t n = 8 Trotz P b < t n gibt es Fehlentscheidungen, da es eine endliche Wahrscheinlichkeit gibt, daß mehr als t Fehler in einem Codewort auftreten. 7.8 e Bi Code, n = 6: Coderate: r c = 5 6 Relative Korrekturfähigkeit: t n = 3 6 wegen t = n 4 Restfehlerwahrscheinlichkeit: P brest P CW P CW = t i=0 ( n i ) P i b ( P b) n i = 3 i=0 ( 6 i ) P i b ( P b) 6 i P brest f P brest 0 4 bei P b = 0 Bi Codes mit n = 6, 64, 56 und BCH Code mit n = 55, k = 3, t = 8 erfüllen die Forderung größte noch verbleibende Nutzdatenrate: BCH Code (55, 3, 8): r c = 0.54 Nutzdatenrate: r c rü = M/s 5.M/s 7-
12 7.9 BCH Code 7.9 a Kanalmodell: Symmetrischer Binärkanal (BSC) x P b y P b P b x y P b 7.9 b Sendeleistung bei uncodierter Übertragung S uncod = Ee T s = E b T s log M = E b log M T s E b = 3.5 db fr P b = 0 6 S uncod =.4 N0 T s 7.9 c BCH Code (55, 3, 8) P brest = 0 6 bei E b E b cod = 9 db = r c Eb = = 4.05 ˆ= 6. db uncod cod P b = erfc ( E b uncod ) 0.0 Sendeleistung: S E b uncod Ersparnis an Sendeleistung: (3.5-6.) db = 7.4 db = Faktor 5.5 r c = k n 0.5 Reduktion der Datenrate um den Faktor r c = Digitale Übertragung über Kanäle mit Bündelfehlern I 7.0 a Mittlere Bitfehlerhäufigkeit ungünstigster Fall: Länge der Fehlerbündel maximal fehlerfreies Intervall minimal 7-
13 mittlere Bitfehlerhäufigkeit: 7.0 b Block Interleaving P b = L B Pb Burst L B +6L B = 7 P b Burst = }{{} Minimale Anzahl der Zeilen eines Blockinterleavers: Aufbau der Interleavermatrix: l max = L B = 04 Zeilen Fehlerburst der Länge L B CW CW CW 3 n n n 04 Zeilen CW 03 CW 04 n n n Spalten (Codewortlänge n) 6 Spalten Interleaving: Einlesen Zeilenweise Auslesen Spaltenweise Deinterleaving: Einlesen Spaltenweise Auslesen Zeilenweise Wegen L Abst = 6L B befinden sich im ungünstigsten Fall zwischen zwei fehlerbehafteten Spalten höchstens 6 fehlerfreie Spalten. Anmerkung: Verschiebungen der Fehlerbursts in Spaltenrichtung haben keinen Einfluß auf die durchgeführten Betrachtungen (gilt auch für die folgenden Aufgabenteile). 7.0 c Dimensionierung der Interleavermatrix Code, der einen Fehler korrigieren kann maximale Codewortlänge: n = 7 ( Fehlerspalte + 6 fehlerfreie Spalten) Code, der t Fehler korrigieren kann maximale Codewortlänge: n t = 7 t (t Fehlerspalten + 6 t fehlerfreie Spalten) relative Korrekturfähigkeit: t n t 7 7-3
14 7.0 d Auswahl eines geeigneten BCH Codes n k t t/n t/n /7 r c = k/n 7 4 /7 4/7 5 /5 5 7 / /5 /3 3 6 / /3 6/ / / / /85 3/85 Gesuchter BCH Code (vgl. Tab. Lehrbuch): (n, k, t) = (7, 4, ) t Relative Korrekturfähigkeit: n = 7 Coderate: r c = Verbleibende Nutzdatenrate: r = r ü r c = 5.7M/sec Anmerkung: Für BCH Codes sinkt die relative Korrekturfähigkeit t/n mit steigender Codewortlänge n. 7. Digitale Übertragung über Kanäle mit Bündelfehlern II 7. a Codewortlänge: Korrekturfähigkeit: n = m = 55 Codesymbole mit 8 t = (n k) Codesymbole 7. b Mittlere fehlerhäufigkeit Ungünstigster Fall: Länge der Fehlerbündel maximal fehlerfreies Intervall minimal Fehlerburst beginnt am Anfang eines s fehlerhäufigkeit innerhalb eines Fehlerbursts: P Burst S = = mittlere fehlerhäufigkeit: P S = (L B/8) PS Burst (L B /8) + (L Abst /8) = c Interleaving auf ebene ist sinnvoller, da es die Bündelfehler auf ganze e konzentriert. Interleaving auf Bitebene führt zu Bitfehlern. Jeder einzelne Bitfehler bewirkt aber bereits einen fehler. 7. d Minimale Anzahl von Zeilen eines Blockinterleavers auf ebene: l max = L B 8 = 8 Zeilen. 7-4
15 Blockinterleaving auf ebene: Aufbau der Interleavermatrix: Fehlerburst. CS. CS 3. CS. CS. CS 3. CS. Codewort. Codewort 55. CS 55. CS 8 Zeilen. CS. CS 3. CS 9. Codewort 55. CS 6 Spalten 55 Spalten fehler korrigieren n = 7 Codesymbole t fehler korrigieren n t = 7 t Codesymbole t = n 7 = 37 relative Korrekturfähigkeit: t n t = Wegen t = (n k) bzw. k = n t folgt für den RS Code: (n, k, t) = (55, 8, 37) Coderate: r c = k n = verbleibende Nutzdatenrate: r ü r c 7. M/s [deutlich größer als beim BCH Code, vergleiche Aufgabe 7.0d)] 7. e Verkürzter RS Code Es muß gelten: t n 7 Minimales t und minimales n : t =, n = 7 k = n t = 5 RS Code: (n, k, t) = (7, 5, ) zugehöriger unverkürzter RS Code (n, k, t) = (55, 53, ), l = 48 Coderate: r c = k n = 5 7 Nutzdatenrate: rü r c = 7. M/s [vergleiche d)!] Zeitverzögerung: t = (Zeilenzahl in en) (Spaltenzahl in en) 8 rü t = s =.4 ms Zum Vergleich: Gerade noch tolerierbare Verzögerungszeit bei Sprachübertragung: t s 50 ms 7-5
16 7. Codeverkettung 7. a Innerer Code: Bi Codewortlänge: k Bi = + log n Bi n Bi = k Bi = 7 = 8 Coderate: r cbi = k Bi n Bi = 8 8 = 6 = Korrigierbare Fehler: t Bi = n Bi 4 = 8 4 = 3 bzw. d HBi,min = n Bi = b Äußerer Code: RS Codeverkettung: m RS = k Bi = 8 (Ein RS Codesymbol wird durch ein Bi Codewort übertragen!) m RS = 8 /Codesymbol müssen für den äußeren Code vorgesehen werden. maximal mögliche Codewortlänge für den RS Code: n RS, max = m = 55 Codesymbole Bei n RS, max = 64 handelt es sich um einen verkürzten RS Code l = n RS, max n RS = = 9 Informationssymbole sind zu Null gesetzt t RS = (n RS k RS ) = 8 fehler können mindestens korrigiert werden bzw. d HRS,min = n RS k RS + = 7 7. c Verketteter Code Codewortlänge: n ges = n RS n Bi = 64 8 = 89 Coderate: r cges = k RS m RS n ges = = = Mindestens korrigierbare Bitfehler: Worst Case : 8 Fehlerbursts der Länge 3 im Abstand von Bitfehler Die 3 beliebig verteilten Bitfehler können vom Bi Code korrigiert werden, die verbleibenden 8 fehler vom RS Code t min = 87 Bitfehler können mindestens korrigiert werden Anmerkung: Für die minimale Hammingdistanz verketteter Codes gilt: dhges,min d Hges,min = d HRS,min d HBi,min = 088 t ges,min = = 543 s können mindestens korrigiert werden. Dies gilt aber nur, wenn die Decodierung in einer Stufe und nicht wie oben angenommen in zwei Stufen erfolgt! Begründung: Ein CW des äußeren Codes unterscheidet sich von jedem anderen CW in mindestens d H RS, min en. Jedes des äußeren Codes wählt ein CW des inneren Codes aus. CW des inneren Codes unterscheiden sich aber in mindestens d H Bi, min s. Zwei beliebige, verschiedene CW des verketteteten Codes unterscheiden sich daher in mindestens d H ges, min = d H RS, min d H Bi, min s. 7-6
17 maximale Länge bei Bündelfehlern: L B = 7 n Bi = 959 (Ein Burst der Länge 960 kann so plaziert werden, daß er zu insgesamt 9 fehlern führt, die vom äußeren Code nicht mehr korrigiert werden können) minimaler Abstand bei Bündelfehlern: L Abst = n ges L B = 733 (Ein kleinerer Abstand führt bei ungünstiger Lage der Fehlerbursts zu mehr als 8 fehlern pro RS Codewort) Interleaving kann die Korrekturfähigkeit bei Bündelfehlern verbessern. Interleaving auf ebene ist unter Umständen günstiger, um möglichst viele Bitfehler auf ein zu konzentrieren. Generell ist die beste Anordnung aber nicht angebbar, sondern muß durch Simulation ermittelt werden. Gesamt CW Fehlerwahrscheinlichkeit bei BD Decodierung des inneren sowie des äußeren Codes: Allgemein gilt: P CW = t i=0 ( n ) i P i b ( P b ) n i Decodierung des inneren Codes: 3 ( ) 8 P CW,Bi = Pb i i ( P b) 8 i i=0 Für den äußeren Code gilt: fehlerwahrscheinlichkeit P S = P CW,Bi Decodierung des äußeren Codes: P CW,RS = 8 i=0 ( ) 64 PS i i ( P S) n i 7-7
Aufgabe 7.1 Bei einer digitalen Übertragung liege folgendes Modell vor:
1 Aufgabe 7.1 Bei einer digitalen Übertragung liege folgendes Modell vor: Q x q x akf digitale Übertrag. q y akf S y Quellensymboldauer T q = 1ms diskreter Kanal Q x sei eine stationäre Markov-Quelle nullter
MehrKlausur Informationstheorie und Codierung
Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte
MehrPraktikum Fehlerreduktionssysteme / Codierungstheorie
Fakultät Elektrotechnik und Informationstechnik Institut für Nachrichtentechnik Lehrstuhl Theoretische Nachrichtentechnik Prof. Eduard Jorswieck, Anne Wolf Praktikum Fehlerreduktionssysteme / Codierungstheorie
MehrModul Diskrete Mathematik WiSe 2011/12
Modul Diskrete Mathematik WiSe / Ergänzungsskript zum Kapitel 3.4. Hinweis: Dieses Manuskript ist nur verständlich und von Nutzen für Personen, die regelmäßig und aktiv die zugehörige Vorlesung besuchen
MehrChaosSeminar - Informationstheorie
Alexander.Bernauer@ulm.ccc.de Stephanie.Wist@ulm.ccc.de 18. November 2005 Motivation schnelle Übertragung von Daten über gestörten Kanal Shannon48 Was ist Information? Information ist Abnahme von Unsicherheit
MehrGruppe. Kanalcodierung
Kanalcodierung Ziele Mit diesen rechnerischen und experimentellen Übungen wird die prinzipielle Vorgehensweise zur Kanalcodierung mit linearen Block-Codes und mit Faltungscodes erarbeitet. Die konkrete
MehrÜbungsaufgaben zur Vorlesung Quellencodierung
Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = 1 0.1 0.1 0.1 y 2
MehrKlausur zur Vorlesung Informationstheorie
INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 07 Hannover Klausur zur Vorlesung Informationstheorie Datum: 0.0.00 Uhrzeit: 09:00 Uhr Zeitdauer:
Mehrzu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6
zu ufgabe 6: a) 3 5 6 7 p( ) p( ) p( 3 ) p( ) p( 5 ) p( 6 ) p( 7 ) = p( 3 ) = p( 3 ) = p( 3 ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = 8 p( ) = p( ) = p( ) = p( ) Lösung: b) binär 8 p(
MehrCODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 1. Das Problem 1.1. Kanalcodierung und Fehlerkorrektur. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder 1 übertragen kann, schicken.
MehrFormelsammlung Kanalcodierung
Formelsammlung Kanalcodierung Allgemeines Codewortlänge: N Anzahl der Informationsstellen: K Coderate: R = K/N Hamming-Distanz: D( x i, x j ) = w( x i xj ) Codedistanz: d = min D( x i, x j ); i j Fehlerkorrektur:
MehrA1.1: Zur Kennzeichnung aller Bücher
A1.1: Zur Kennzeichnung aller Bücher Seit den 1960er Jahren werden alle Bücher mit einer 10 stelligen International Standard Book Number versehen. Die letzte Ziffer dieser sog. ISBN 10 Angabe berechnet
MehrKapitel 7: Optimalcodierung und Huffman Coding
Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge
MehrÜbung 14: Block-Codierung
ZHW, NTM, 26/6, Rur Übung 4: Block-Codierung Aufgabe : Datenübertragung über BSC. Betrachten Sie die folgende binäre Datenübertragung über einen BSC. Encoder.97.3.3.97 Decoder Für den Fehlerschutz stehen
MehrKlausur zur Digitalen Kommunikationstechnik
Klausur zur Digitalen Kommunikationstechnik Prof. Dr. Henrik Schulze, Fachhochschule Südwestfalen, Standort Meschede 16. Januar 2015 Name Matr.-Nr. Vorname Unterschrift Aufgabe 1 2 3 4 Summe Note Punkte
MehrKlausur zur Vorlesung Informationstheorie
INSTITUT FÜR INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 0167 Hannover Klausur zur Vorlesung Informationstheorie Datum:.02.2006 Uhrzeit: 9:00 Uhr Zeitdauer: 2 Stunden Hilfsmittel: ausgeteilte
MehrTechnische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und
MehrKapitel 11: Binäre Kanäle
Kaitel : Binäre Kanäle Ziele des Kaitels Binäre Kanäle und ihre Eigenschaften Gedächtnisfreie Kanäle Codierung als Schätzung und Schätzverfahren Kanalkaazität Shannon'sches Kanalcodierungstheorem Grundlegendes
Mehr3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.
3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle
MehrGegeben ist ein systematischer (7,3)-Cod. Die drei seiner Codewörter lauten:
Prof. Dr.-Ing. H.G. Musmann INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 67 Hannover Gegeben ist ein systematischer (7,)-Cod. Die drei seiner
MehrÜbungen zur Vorlesung Grundlagen der Rechnernetze. Zusätzliche Übungen
Übungen zur Vorlesung Grundlagen der Rechnernetze Zusätzliche Übungen Hamming-Abstand d Der Hamming-Abstand d zwischen zwei Codewörtern c1 und c2 ist die Anzahl der Bits, in denen sich die beiden Codewörter
MehrFehlerschutz durch Hamming-Codierung
Versuch.. Grundlagen und Begriffe Wesentliche Eigenschaften der Hamming-Codes für die Anwendung sind: der gleichmäßige Fehlerschutz für alle Stellen des Codewortes und die einfache Bildung des Codewortes
MehrGrundlagen der Technischen Informatik. Hamming-Codes. Kapitel 4.3
Hamming-Codes Kapitel 4.3 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Inhalt Welche Eigenschaften müssen Codes haben, um Mehrfachfehler erkennen und sogar korrigieren zu können?
Mehr(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
MehrFehlerdetektion. Cyclic Redanduncy Check. Grundlagen der Rechnernetze Übertragungssicherung 7
Fehlerdetektion Cyclic Redanduncy Check Grundlagen der Rechnernetze Übertragungssicherung 7 Modulo 2 Arithmetik Addition Modulo 2 Subtraktion Modulo 2 Multiplikation Modulo 2 A B A B 0 0 0 1 1 0 1 1 A
MehrGrundlagen der Technischen Informatik. 2. Übung
Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 2. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Aufgabe 4: Hamming-Distanz Fehlererkennung
MehrInformationstheorie und Codierung
Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice
Mehr4.0.2 Beispiel (Einfacher Wiederholungscode). Im einfachsten Fall wird die Nachricht einfach wiederholt. D.h. man verwendet die Generatorabbildung
Wir beschäftigen uns mit dem Problem, Nachrichten über einen störungsanfälligen Kanal (z.b. Internet, Satelliten, Schall, Speichermedium) zu übertragen. Wichtigste Aufgabe in diesem Zusammenhang ist es,
MehrKlausur zur Digitalen Kommunikationstechnik
Klausur zur Digitalen Kommunikationstechnik Prof. Dr. Henrik Schulze, Fachhochschule Südwestfalen, Standort Meschede 17. Januar 014 Die Klausur dauert 10 Minuten. Insgesamt sind 48 Punkte erreichbar. Erlaubte
MehrFachprüfung. Nachrichtencodierung
Fachprüfung Nachrichtencodierung 14. März 2006 Prüfer: Prof. Dr. P. Pogatzki Bearbeitungszeit: 2 Stunden Hilfsmittel: Taschenrechner, Vorlesungsscript, Übungsaufgaben Name:... Matr.-Nr.:... Unterschrift:...
MehrGrundlagen der Nachrichtentechnik 4
Grundlagen der Prof. Dr.-Ing. Andreas Czylwik S. Organisatorisches Vorlesung 2 SWS Übung SWS, Betreuer: Dipl.-Ing. Lars Häring Folienkopien sind verfügbar Prüfung: schriftlich Neue Forschungsthemen im
MehrTGI-Übung Dirk Achenbach
TGI-Übung 7 06.02.2014 Dirk Achenbach INSTITUT FÜR THEORETISCHE INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Agenda
MehrDie Hamming-Distanz definiert eine Metrik.
Die Hamming-Distanz definiert eine Metrik. Satz Metrik Hamming-Distanz Die Hamming-Distanz ist eine Metrik auf {0, 1} n, d.h. für alle x, y, z {0, 1} n gilt: 1 Positivität: d(x, y) 0, Gleichheit gdw x
MehrÜbungsblatt 5 - Musterlösung
Universität Mannheim Lehrstuhl für Praktische Informatik IV Prof. Dr. W. Effelsberg Christoph Kuhmünch, Gerald Kühne Praktische Informatik II SS 2000 Übungsblatt 5 - Musterlösung Aufgabe 1: Huffman-Codierung
MehrBeispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
MehrEinführung in die Kodierungstheorie
Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht
MehrÜbung zur Vorlesung. Informationstheorie und Codierung
Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.
MehrA3.1: Wahrscheinlichkeiten beim Würfeln
Abschnitt: 3.1 Einige Vorbemerkungen zu zweidimensionalen Zufallsgrößen A3.1: Wahrscheinlichkeiten beim Würfeln Wir betrachten das Zufallsexperiment Würfeln mit ein oder zwei Würfeln. Beide Würfel sind
MehrVergleich der Hard-Decision Decodierung mit der Soft Decision- Decodierungi (HD- mit SD-Decodierung)
Vergleich der Hard-Decision Decodierung mit der Soft Decision- Decodierungi (HD- mit SD-Decodierung) Als Beispiel für die folgenden Überlegungen dient der (7,4,3)-Hamming- oder BCH-Code). Wegen des Mindestabstands
MehrEinführung in die Informations- und Codierungstheorie
Einführung in die Informations- und Codierungstheorie Von Prof. Dr. Hermann Rohling Technische Universität Braunschweig unter Mitarbeit von Dipl.-Ing. Thomas Müller Technische Universität Braunschweig
Mehr6. Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke. 6. Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 107/ 238
6 Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 6 Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 107/ 238 Erinnerung: Der Vektorraum F n 2 Schreiben {0, 1} n als F n 2 Definition
Mehr5. Informationskanäle
Informationstheorie / SS 2008-103 - Fakultät 5 / Uni-Stuttgart 5. Informationskanäle 5.1 Typen von Informationskanälen A Informationskanäle ohne Gedächtnis a) Informationskanäle transformieren Eingangsereignisse
MehrInformationstheorie und Codierung
Informationstheorie und Codierung 5. Fehlerkorrigierende Codierung Grundlagen Fehlererkennung, Fehlerkorrektur Linearcodes, Hamming-Codes Zyklische Codes und technische Realisierung Burstfehlerkorrektur
MehrGrundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch
Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information
MehrSignale und Codes Vorlesung 4
Signale und Codes Vorlesung 4 Nico Döttling December 6, 2013 1 / 18 2 / 18 Letztes Mal Allgemeine Hamming Codes als Beispiel linearer Codes Hamming Schranke: Obere Schranke für k bei gegebenem d bzw. für
MehrKapitel 13: Syndromcodierung / Hamming Codes
Kapitel 3: Syndromcodierung / Hamming Codes Ziele des Kapitels Lineare Codes Zyklische Codes Copyright M. Gross, ETH Zürich 26, 27 2 Parity-Check-Matrix Theorem: Die Minimaldistanz eines linearen Codes
MehrErinnerung: Der Vektorraum F n 2
Erinnerung: Der Vektorraum F n 2 Definition Vektorraum F n 2 F n 2 = ({0, 1}n,+, ) mit Addition modulo 2, + : F n 2 Fn 2 Fn 2 und skalarer Multiplikation : F 2 F n 2 Fn 2 definiert einen Vektorraum, d.h.
MehrDie Größe A(n, d) und optimale Codes
Die Größe A(n, d) und optimale Codes Definition Optimaler Code Wir definieren A(n, d) = max{m binärer (n, M, d) Code} Ein (n, M, d)-code heißt optimal, falls M = A(n, d). Bestimmung von A(n, d) ist offenes
MehrGrundbegrie der Codierungstheorie
Grundbegrie der Codierungstheorie Pia Lackamp 12. Juni 2017 Inhaltsverzeichnis 1 Einleitung 2 2 Hauptteil 3 2.1 Blockcodes............................ 3 2.1.1 Beispiele.......................... 3 2.2
MehrMusterlösung zur Aufgabe A1.1
Abschnitt: 1.1 Zielsetzung der Kanalcodierung Musterlösung zur Aufgabe A1.1 a) Allein durch Abzählen der ISBN Ziffern erkennt man, dass Antwort 2 richtig ist. Die gewichtete Summe über alle Ziffern ergibt
MehrDie Mathematik in der CD
Lehrstuhl D für Mathematik RWTH Aachen Lehrstuhl D für Mathematik RWTH Aachen St.-Michael-Gymnasium Monschau 14. 09. 2006 Codes: Definition und Aufgaben Ein Code ist eine künstliche Sprache zum Speichern
MehrÜbung zu Drahtlose Kommunikation. 1. Übung
Übung zu Drahtlose Kommunikation 1. Übung 22.10.2012 Termine Übungen wöchentlich, Montags 15 Uhr (s.t.), Raum B 016 Jede Woche 1 Übungsblatt http://userpages.uni-koblenz.de/~vnuml/drako/uebung/ Bearbeitung
MehrÜbung 4. Tutorübung zu Grundlagen: Rechnernetze und Verteilte Systeme (Gruppen Mo-T1 / Di-T11 SS 2016) Dennis Fischer
Übung 4 Tutorübung zu Grundlagen: Rechnernetze und Verteilte Systeme (Gruppen Mo-T1 / Di-T11 SS 2016) Dennis Fischer Technische Universität München Fakultät für Informatik 09.05.2016 / 10.05.2016 1/12
MehrA3.9: Viterbi Algorithmus: Grundlegendes
A3.9: Viterbi Algorithmus: Grundlegendes Die Grafik zeigt ein Trellisdiagramm und definiert gleichzeitig die Fehlergrößen Γ i (S 0 ) und Γ i (S 1 ) zu den Zeitpunkten i = 0 bis i = 5. Aus diesem Trellis
MehrGrundlagen der Rechnernetze
Grundlagen der Rechnernetze Übertragungssicherung Übersicht Fehlerdetektion Fehlerkorrektur Flusskontrolle Fehlerkontrolle Framing Grundlagen der Rechnernetze Übertragungssicherung 2 Fehlerdetektion Grundlagen
Mehr2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
MehrFachprüfung. Nachrichtencodierung
Fachprüfung Nachrichtencodierung 6. August 2009 Prüfer: Prof. Dr. P. Pogatzki Bearbeitungszeit: 2 Stunden Hilfsmittel: Taschenrechner, Vorlesungsscript, Übungsaufgaben Name: Vorname: Matr.-Nr.: Unterschrift:
MehrErzeugendensystem und Basis
Erzeugendensystem und Basis Definition Erzeugendensystem und Basis eines Unterraums Sei S F n 2 ein Unterraum. Eine Menge G = {g 1,..., g k } S heißt Erzeugendensystem von S, falls jedes x S als Linearkombination
MehrEin (7,4)-Code-Beispiel
Ein (7,4)-Code-Beispiel Generator-Polynom: P(X) = X 3 + X 2 + 1 Bemerkung: Es ist 7 = 2^3-1, also nach voriger Überlegung sind alle 1-Bit-Fehler korrigierbar Beachte auch d min der Codewörter ist 3, also
MehrInformationstheorie und Codierung
Informationstheorie und Codierung Organisation / Einleitung Vorlesung: Do 17:00 Uhr, Sr K 2002B Seminar: Mi (G) 15:00 Uhr, Sr H 1510 Abschluss: mdl. Prüfung Kontakt - Vorlesung Dr.-Ing. Maik Debes Fakultät
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung
MehrGrundlagen der Nachrichtentechnik
Universität Bremen Arbeitsbereich Nachrichtentechnik Prof. Dr.-Ing. A. Dekorsy Schriftliche Prüfung im Fach Grundlagen der Nachrichtentechnik Name: Vorname: Mat.-Nr.: BSc./Dipl.: Zeit: Ort: Umfang: 07.
MehrKanalkodierung. 6 Kanalkodierung Zielstellung. Störungen der übertragenen Daten. 6 Kanalkodierung Zielstellung WS 2018/2019
Fakultät Informatik Institut Systemarchitektur Professur Datenschutz und Datensicherheit WS 2018/2019 6. Kanalkodierung Dr.-Ing. Elke Franz Elke.Franz@tu-dresden.de 6 Kanalkodierung Zielstellung en der
MehrPerfekte Codes. Definition Perfekter Code. Sei C {0, 1} n ein (n, M, d)-code. C heißt perfekt, falls
Perfekte Codes Definition Perfekter Code Sei C {0, 1} n ein (n, M, d)-code. C heißt perfekt, falls ( ) d 1 M V n = 2 n. 2 D.h. die maximalen disjunkten Hammingkugeln um die Codeworte partitionieren {0,
MehrCodes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC)
Codes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC) Definitionen: Codewort:= mit zusätzlichen (redundanten) Kontrollbits versehenes Quellwort m:= Länge des Quellwortes (Anzahl der Nutzdatenbits)
MehrÜbertragungsverfahren der Nachrichtentechnik 2 Ex Beispiele zum 1. Übungstest
Ex Beispiele zum 1. Übungstest 1 PAM Grundlagen Aufgabe 1.1 Zur Übertragung eines einzelnen binären Symbols über einen verzerrungsfreien Kanal mit additivem weißem Gaußschem Rauschen (Leistungsdichtespektrum
MehrEndliche Körper und Codierung SS Übungsblatt. 9. Bestimmen Sie alle primitiven Elemente (Erzeuger der multiplikativen Gruppe) von
Endliche Körper und Codierung SS 2007 1. Übungsblatt 1. Sei p eine Primzahl und 0 j p 1. Zeigen Sie, dass ( ) p 1 j ( 1) j (mod p). 2. Sei R ein kommutativer Ring der Charakteristik p > 0 (prim). Zeigen
MehrIndex. Chien-Suche, 220 CIRC, 234 Code, 2, 9 äquidistanter, 81
Index Abelsche Gruppe, 140 Abgeschlossenheit, 47, 140, 143 Abhängigkeit lineare, 53 Abtastfolge, 226 ACS-Operation, 279 Addition, 46, 163 Alphabet, 1 ARQ, 6, 174 Assoziativität, 47, 52, 140, 143 Audio-CD,
Mehr3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238
3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher
MehrInformationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de
Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de Inhaltsverzeichnis 3. Kanalcodierung 3.1 Nachrichtentheorie für gestörte Kanäle 3.1.1 Transinformation 3.1.2 Kanalkapazität
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Übung 8 Dirk Achenbach 7. Februar 2013 I NSTITUT FÜR K RYPTOGRAPHIE UND S ICHERHEIT KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrFehlererkennung und Fehlerkorrektur in Codes
Fehlererkennung und Fehlerkorrektur in Codes Blockcodes und Hamming Abstand Untersuchungen zu Codierungen von Informationen, die über einen Nachrichtenkanal übertragen werden sollen, konzentrieren sich
Mehr1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen
1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte
MehrBakkalaureatsarbeit. Wiederholungscode. Görtschacher Lukas
Bakkalaureatsarbeit Wiederholungscode Görtschacher Lukas Institut für Signalverarbeitung und Sprachkommunikation Technische Universität Graz Vorstand: Univ.-Prof. Dipl.-Ing. Dr. techn. Gernot Kubin Betreuer:
MehrOptimalcodierung. Thema: Optimalcodierung. Ziele
Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.
MehrEntropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.
Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie
MehrZyklische Codes Rechnernetze Übung SS2010
Zyklische Codes Binärcodes Blockcodes Lineare Codes Nichtlineare Codes Zyklische Codes Systematische Codes Binärcodes Blockcodes Lineare Codes Nichtlineare Codes Zyklische Codes Systematische Codes Durch
MehrEinführung in die Kodierungstheorie
Anton Malevich Einführung in die Kodierungstheorie Skript zu einer im Februar 2013 gehaltenen Kurzvorlesung Fakultät für Mechanik und Mathematik Belorussische Staatliche Universität Institut für Algebra
MehrTrellis Diagramme und Viterbi-Decoder
Trellis Diagramme und Viterbi-Decoder Michael Dienert. März Fehlertolerante Datenübertragung bei Gigabit-Ethernet Um MBit/s auf Kat Kupferkabeln übertragen zu können, sind eine Reihe technischer Kunstgriffe
MehrMusterlösung zur Aufgabe A3.1
Abschnitt: 3.1 Einige Vorbemerkungen zu zweidimensionalen Zufallsgrößen Musterlösung zur Aufgabe A3.1 a) Setzt man faire Würfel voraus, so ergibt sich für die Wahrscheinlichkeit, dass mit dem roten Würfel
MehrDirk W. Hoffmann. Einführung. in die Informations. und Codierungstheorie. ^ Springer Vieweg
Dirk W. Hoffmann Einführung und Codierungstheorie in die Informations ^ Springer Vieweg Inhaltsverzeichnis 1 Geschichte der Nachrichtentechnik 13 1.1 Von Fackeln und Feuern der Antike 15 1.1.1 Fackelpost
MehrTutorübung zur Vorlesung Grundlagen Rechnernetze und Verteilte Systeme Übungsblatt 3 (6. Mai 10. Mai 2013)
Technische Universität München Lehrstuhl Informatik VIII Prof. Dr.-Ing. Georg Carle Dipl.-Ing. Stephan Günther, M.Sc. Nadine Herold, M.Sc. Dipl.-Inf. Stephan Posselt Tutorübung zur Vorlesung Grundlagen
MehrVorlesung Theoretische Grundlagen
Vorlesung Theoretische Grundlagen Fehlerkorrigierende Jörn Müller-Quade 4. Februar 2010 INSTITUT FÜR KRYPTOGRAPHIE UND SICHERHEIT KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009
MehrGrundlagen der Nachrichtentechnik
Universität Bremen Arbeitsbereich Nachrichtentechnik Prof. Dr.-Ing. A. Dekorsy Schriftliche Prüfung im Fach Grundlagen der Nachrichtentechnik Name: Vorname: Mat.-Nr.: BSc./Dipl.: Zeit: Ort: Umfang: 07.
MehrFehlererkennende und fehlerkorrigierende Codes
Fehlererkennende und fehlerkorrigierende Codes Claudiu-Vlad URSACHE, 5AHITN Inhalt 1. Codes... 2 2. Hammingdistanz... 3 3. Fehlererkennende Codes... 4 4. Fehlerkorrigierende Codes... 5 1. Codes a 2 a 00
MehrInformation und Codierung
Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH Inhalt Vorwort zur 1. Auflage der Originalausgabe
MehrZusatzübung zur Theoretischen Informationstechnik
Lehrstuhl für Theoretische Informationstechnik Zusatzübung zur Theoretischen Informationstechnik Prof. Dr. Anke Schmeink, Martijn Arts, Fabian Altenbach, Christoph Schmitz 14.03.2013 TI I: Aufgabe 1-4
Mehri Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
MehrEinführung in die Codierungstheorie
Einführung in die Codierungstheorie Monika König 11.12.2007 Inhaltsverzeichnis 1 Einführung und Definitionen 2 2 Fehlererkennende Codes 3 2.1 Paritycheck - Code............................... 3 2.2 Prüfziffersysteme................................
MehrWann sind Codes eindeutig entschlüsselbar?
Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C
MehrRechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir?
Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2012 Wo sind wir? Quelle Nachricht Senke Sender Signal Übertragungsmedium Empfänger Quelle Nachricht Senke Primäres
MehrInformationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006
Informationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006 Institut für Nachrichtentechnik und Hochfrequenztechnik Bitte beachten Sie: Sie dürfen das Vorlesungsskriptum, einen Taschenrechner
MehrThemen Medientechnik II. Grundlagen der Bildkompression (Teil 1) Claude E. Shannon ( ) Digitale Bildübertragungsstrecke
.4.6 Themen Medientechnik II Grundlagen der Bildkompression (Teil ) Dr. Detlev Marpe Fraunhofer Institut für Nachrichtentechnik HHI Grundlagen der statistischen ignalverarbeitung Mittelwert, Varianz, NR,
Mehr