(Prüfungs-)Aufgaben zur Codierungstheorie
|
|
- Liane Pfaff
- vor 7 Jahren
- Abrufe
Transkript
1 (Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT a) Wie hoch ist die Hamming-Distanz H dieses Codes: b) Wie hoch ist die absolute Redundanz des Codes: (Hinweis: log 2 10 = 3,322) c) Wie hoch ist die relative Redundanz des Codes in Prozent: d) Zeichnen Sie den Codebaum für den CCITT2-Code der Dezimalziffern nach folgendem Konstruktionsprinzip: 0 nach rechts, 1 nach links, Wurzel oben, Blätter unten 2) Gegeben sei der folgende sog. Exzeß-3-Code: Dezimal d c b a a) Wie hoch ist die Hamming-Distanz H dieses Codes:
2 b) Zeichnen Sie den Codebaum für den Exzeß-3-Code nach folgendem Konstruktionsprinzip: 0 nach rechts, 1 nach links, Wurzel oben, Blätter unten 3) Gegeben sei die folgende Shannon sche Nachrichtenquelle: X = { a, b, c, d }, p(a) = 0,1, p(b) = 0,25, p(c) = 0,5, p(d) = 0,15 a) Bestimmen Sie den Informationsgehalt der einzelnen Zeichen sowie die Entropie von X. Hinweis: log 2 10 = 3,32, log 2 6,666 = 2,74 b) Konstruieren Sie den Huffman-Code h für diese Nachrichtenquelle. Konstruktion: Codierung: h(a) = h(b) = h(c) = h(d) = c) Bestimmen Sie die mittlere Wortlänge und die absolute Redundanz des Huffman-Codes. 4) Gegeben sei die folgende Shannon sche Nachrichtenquelle: X = { a, b, c, d }, p(a) = 0,15, p(b) = 0,4, p(c) = 0,25, p(d) = 0,2 a) Bestimmen Sie den Informationsgehalt der einzelnen Zeichen sowie die Entropie von X. Hinweis: log 2 2,5 = 1,322, log 2 5 = 2,322, log 2 6,666 = 2,737 b) Konstruieren Sie eine Huffman-Codierung h für diese Nachrichtenquelle. Konstruktion: Codierung: h(a) = h(b) = h(c) = h(d) = c) Bestimmen Sie die mittlere Wortlänge und die absolute Redundanz des Huffman-Codes. 5) Betrachten Sie das Alphabet A = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}. In der Vorlesung wurden verschiedene Codierungen fester Wortlänge von A angegeben (z.b. BCD- oder Gray-Code), die alle mindestens die Wortlänge 4 und somit eine relativ hohe Redundanz haben. Konstruieren Sie eine binäre Codierung der Einzelzeichen des Alphabets A, die minimale mittlere Wortlänge (und somit auch Redundanz) hat. Zeichnen Sie den Codebaum und bestimmen Sie die mittlere Wortlänge dieses Codes. Hinweis: Betrachten Sie A als Shannon'sche Nachrichtenquelle, in der alle Zeichen gleiche Wahrscheinlichkeit haben.
3 6) Zur Übertragung von 4-bit-Werten wird der folgende Hamming-Code verwendet: 4 Datenbits (a 3, a 5, a 6, a 7 ), 3 Prüfbits (p 1, p 2, p 4 ), Anordnung: p 1 p 2 a 3 p 4 a 5 a 6 a 7. p 1 = a 3 a 5 a 7 ( bezeichnet die XOR-Operation p 2 = a 3 a 6 a 7 zur Bildung des Paritätsbits) p 4 = a 5 a 6 a 7 Bestimmen Sie aus den folgenden empfangenen 7-bit-Worten, welches Bit falsch übertragen wurde (evtl. keines), sowie die korrekten, gesendeten 4-bit-Werte. a) Empfangenes Wort p 1 p 2 a 3 p 4 a 5 a 6 a Welches Bit wurde falsch übertragen? Gesendeter 4-bit- Wert a 3 a 5 a 6 a 7 b) p 1 p 2 a 3 p 4 a 5 a 6 a c) p 1 p 2 a 3 p 4 a 5 a 6 a Nebenrechnungen bitte hier ausführen und mit abgeben: 7) Gegeben sei die folgende Shannon sche Nachrichtenquelle: X = { a, b, c, d }, p(a) = 0.1, p(b) = 0.2, p(c) = 0.5, p(d) = 0.2 a) Bestimmen Sie den Informationsgehalt der einzelnen Zeichen sowie die Entropie von X. Hinweise: log 2 x = log 2 e * ln x = 1,4427 * ln x ln 10 = , ln 5 = , ln 2 = b) Konstruieren Sie eine Huffman-Codierung h für diese Nachrichtenquelle Baum-Konstruktion : Codierung : c) Bestimmen Sie die mittlere Wortlänge und die absolute Redundanz des zuvor entwickelten Huffman-Codes.
4 8) Gegeben sei eine Nachrichtenquelle, die die Zeichen A, B und C jeweils mit den angegebenen Wahrscheinlichkeiten aussendet. Zeichen P i A 0,5 B 0,4 C 0,1 a) Entwerfen Sie den Huffman-Code für die Codierung der einzelnen Zeichen. b) Geben Sie die mittlere Wortlänge des Codes an. c) Geben Sie die Entropie der Nachrichtenquelle an. d) Entwerfen Sie nun den Huffman-Code für die Codierung aller Paare von Zeichen der Nachrichtenquelle. e) Wie groß ist jetzt die mittlere Wortlänge bei der Paarcodierung? Hinweise: log b x = log b a * log a x, ld x = ld e * ln x, ld x = 1,4427 * ln x ld 0,1 = -3,322 ; ld 0,4 = -1,322 ; ld 0,5 = -1,0 ; ld 2,5 = 1,322 ; ld 5 = 2,322 ; ld 10 = 3,322 9) In einem 3-Bit-Code wird eine Hammingdistanz 3 gefordert. a) Wieviele Codewörter sind verwendbar, ohne weitere Bits zuzufügen? b) Berechnen Sie die absolute und relative Redundanz einer derartigen Codierung. c) Geben Sie 2 Beispiele für eine solche Codierung an. d) Was leistet ein derartiger Code im Hinblick auf Fehlererkennung und behebung? 10) Gegeben sei die folgende Shannon sche Nachrichtenquelle: X = { a, b, c, d }, p(a) = 0,15, p(b) = 0,4, p(c) = 0,25, p(d) = 0,2 a) Geben Sie die größte untere Schranke (der Mathematiker würde sagen: das Infimum) für die mittlere Wortlänge einer beliebigen Codierung dieser Shannon'schen Nachrichtenquelle an. Hinweis: log 2 2,5 = 1,322, log 2 5 = 2,322, log 2 6,666 = 2,737 b) Geben Sie eine bestmögliche Codierung der Einzelzeichen für diese Shannon'sche Nachrichtenquelle an und bestimmen Sie die mittlere Wortlänge dieser Codierung. c) Wie würden Sie vorgehen, um eine Codierung dieser Nachrichtenquelle mit kleinerer mittlerer Wortlänge als in b) zu konstruieren? (Keine Ausführung der Konstruktion!)
5 11) Bei einem 4-stelligen Uhrendisplay wird jede Stelle (also 10h, 1h, 10min, 1min) als BCD- Zahl übertragen, so daß 16 Leitungen benötigt werden. Um Leitungen einzusparen, soll die Uhrzeit als binärcodierter Minutenwert übertragen werden. Der Tag hat bekanntlich 24*60 = 1440 Minuten. a) Wie hoch sind die absolute und die relative Redundanz, wenn der Minutenwert als 16-stellige Binärzahl übertragen wird? Hinweis: log 2 (1440) = 10,4919 b) Wieviele Bits (und somit Leitungen) lassen sich also einsparen? Würden die eingesparten Leitungen ausreichen, um die Übertragung mit einer 1-bit- Fehlerkorrektur mittels Hamming-Code zu versehen? Ihre Antwort ist rechnerisch zu begründen. 12) In einer Anwendung sollen die 26 Buchstaben des Alphabets, unterschieden nach Großund Kleinschreibung, codiert werden, insgesamt also 52 Zeichen. Achtung: Bitte alle Antworten mit Begründung oder klar ersichtlichem Lösungsweg! a) Wieviele Bits müssen bei einer Blockcodierung mindestens verwendet werden? b) Wie groß sind bei so einer Blockcodierung die absolute und relative Redundanz? Hinweis: log 2 52 = 5,700. c) Um einen effizienteren Code mit variabler Wortlänge zu erhalten wird das Alphabet als Shannon sche Nachrichtenquelle betrachtet, in der alle Zeichen gleiche Wahrscheinlichkeit haben. Geben Sie die größte untere Schranke (das Infimum) für die mittlere Wortlänge aller möglichen Codierungen an. d) In der Huffman-Codierung der Einzelzeichen dieser Shannon schen Nachrichtenquelle haben 8 Zeichen einen Code der Länge 5, die restlichen 44 Zeichen einen Code der Länge 6. Wie groß ist die mittlere Wortlänge dieser Codierung? e) Wieviele Prüfbits müssen zu dem Blockcode aus a) mindestens hinzugefügt werden, um einen 1-Bit-Fehler-erkennenden Code zu erhalten? Geben Sie an, wie diese(s) Prüfbit(s) berechnet werden können. f) Wieviele Prüfbits müssen zu dem Blockcode aus a) mindestens hinzugefügt werden, um einen 1-Bit-Fehler-korrigierenden Code zu erhalten (mit Begründung). 13) Betrachten Sie das Alphabet A = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}. a) Wie groß ist die Redundanz bei der Codierung von A mit einem 4-Bit-Blockcode (BCDoder Aiken- oder Gray-Code usw.)? Hinweis: log 2 10 = 3,32
6 b) Konstruieren Sie eine binäre Codierung der Einzelzeichen des Alphabets A, die minimale mittlere Wortlänge (und somit auch Redundanz) hat. Zeichnen Sie den Codebaum und bestimmen Sie die mittlere Wortlänge und die Redundanz dieses Codes. Hinweis: Betrachten Sie A als Shannon'sche Nachrichtenquelle, in der alle Zeichen gleiche Wahrscheinlichkeit haben. 14) Gegeben sei die folgende Shannon sche Nachrichtenquelle: X = { a, b, c, d, e }, p(a) = 1/3, p(b) = 1/3, p(c) = 1/6, p(d) = 1/12, p(e) = 1/12 a) Bestimmen Sie den Informationsgehalt der einzelnen Zeichen sowie die Entropie von X. Hinweise: log 2 3 = 1,585, log 2 6 = 2,585, log 2 12 = 3,585 (Eigentlich hätte ja eine der Angaben gereicht, die anderen berechnet man im Kopf, wenn man mit Logarithmen umgehen kann ). b) Konstruieren Sie einen Huffman-Code h für diese Nachrichtenquelle und berechnen Sie dessen mittlere Wortlänge. c) Konstruieren Sie einen weiteren Huffman-Code k für diese Nachrichtenquelle, bei dem die Längen der Codewörter sich von denen bei Ihrem Code h aus Teil b) unterscheiden, und berechnen Sie dessen mittlere Wortlänge. 15) Wir wissen, dass jede Codierung der Dezimalziffern 0, 1,, 9 mit einem 4-Bit-Blockcode keine Fehlererkennung ermöglicht, da sie notwendigerweise Hammingdistanz 1 hat. In der Vorlesung wurden folgende Blockcodes mit mehr als 4 Bit angegeben: Dezimal CCITT2 Biquinär 1 aus a) Bestimmen Sie für jede der 3 Codierungen die Hammingdistanz und geben Sie an, welche Art der Fehlererkennung und der Fehlerbehebung somit jeweils möglich ist. b) Geben Sie einen 1-bit-fehlererkennenden Blockcode minimaler Länge für die Dezimalziffern an. Erklären Sie auch, wie Ihre Codierung entstanden ist. Hinweis: Mit einem der Standardverfahren aus der Vorlesung ist dies sehr einfach. c) Was ist die minimale Länge eines 1-bit-fehlerkorrigierenden Blockcodes für die Dezimalziffern (Begründung)?
7 16) Die Zeichen des Alphabets A = {00, 01,, 98, 99} der mit zwei Dezimalziffern darstellbaren natürlichen Zahlen werden als 2-stellige BCD-Zahl (d.h. im packed decimal genannten Datenformat) binär codiert (also z.b. die Zahl als ). a) Wie groß ist der Entscheidungsgehalt des physikalischen Zeichenvorrats? b) Wie groß ist der Entscheidungsgehalt des semantischen Zeichenvorrats? (Wenn Sie keinen Taschenrechner zur Verfügung haben genügt die Angabe der Stelle[n] vor dem Komma.) c) Wie groß sind die absolute und die relative Redundanz der Codierung? d) Kann die Redundanz der Codierung zur Fehlererkennung und/oder zur Fehlerbehebung genutzt werden? e) Geben Sie einen binären Blockcode minimaler Wortlänge für das Alphabet A an (der Platz hier reicht aus!). 17) Die Zeichen des Alphabets A = {00, 01,, 98, 99} der mit zwei Dezimalziffern darstellbaren natürlichen Zahlen werden durch zwei 8-bit-ASCII-Zeichen binär codiert (also z.b. die Zahl als , weil ASCII(2)= und ASCII(3)= ). a) Wie groß ist der Entscheidungsgehalt des physikalischen Zeichenvorrats? b) Wie groß ist der Entscheidungsgehalt des semantischen Zeichenvorrats? (Wenn Sie keinen Taschenrechner zur Verfügung haben genügt die Angabe der Stelle[n] vor dem Komma.) c) Wie groß sind die absolute und die relative Redundanz der Codierung? d) Kann die Redundanz der Codierung zur Fehlererkennung und/oder zur Fehlerbehebung genutzt werden? e) Geben Sie einen binären Blockcode minimaler Wortlänge für das Alphabet A an (der Platz hier reicht aus!). 18) Eine aus 10 Dezimalziffern bestehende Kennung (für irgendetwas) wird um zwei Prüfziffern ergänzt, in denen die Summe der ersten 10 Ziffern gespeichert wird. Geben Sie jeweils eine kurze Begründung für Ihre Antworten auf die folgenden Fragen. a) Kann mit Hilfe der Prüfziffern erkannt werden, wenn eine der 10 Ziffern falsch ist? Nie Meistens, aber nicht immer Manchmal, aber eher selten Immer b) Kann mit Hilfe der Prüfziffern erkannt werden, wenn zwei der 10 Ziffern falsch sind? Nie Meistens, aber nicht immer Manchmal, aber eher selten Immer
8 c) Kann mit Hilfe der Prüfziffern erkannt werden, wenn zwei der 10 Ziffern vertauscht wurden? Nie Meistens, aber nicht immer Manchmal, aber eher selten Immer 19) Die Zeichen des Alphabets A = {000, 001,, 998, 999} der mit drei Dezimalziffern darstellbaren natürlichen Zahlen werden als 3-stellige BCD-Zahl (d.h. im packed decimal genannten Datenformat) binär codiert (also z.b. die Zahl als ). a) Wie groß ist der Entscheidungsgehalt des physikalischen Zeichenvorrats? b) Wie groß ist der Entscheidungsgehalt des semantischen Zeichenvorrats? (Wenn Sie keinen Taschenrechner zur Verfügung haben genügt die Angabe der Stelle[n] vor dem Komma.) c) Wie groß sind die absolute und die relative Redundanz der Codierung? d) Kann die Redundanz dieser Codierung zur Fehlererkennung und/oder zur Fehlerbehebung genutzt werden? e) Wieviele Bits muss ein binärer Blockcode für das Alphabet A mindestens haben? Geben Sie einen solchen Blockcode minimaler Wortlänge an (der Platz hier reicht aus, wenn auch nicht für das Hinschreiben aller Codewörter).
Codierungstheorie Teil 1: Fehlererkennung und -behebung
Codierungstheorie Teil 1: Fehlererkennung und -behebung von Manuel Sprock 1 Einleitung Eine Codierung ist eine injektive Abbildung von Wortmengen aus einem Alphabet A in über einem Alphabet B. Jedem Wort
MehrTechnische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und
MehrEinführung in die Informatik II Aus der Informationstheorie: Datenkompression
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd
MehrCode-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg
Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem
MehrFehlererkennende und fehlerkorrigierende Codes
Fehlererkennende und fehlerkorrigierende Codes Claudiu-Vlad URSACHE, 5AHITN Inhalt 1. Codes... 2 2. Hammingdistanz... 3 3. Fehlererkennende Codes... 4 4. Fehlerkorrigierende Codes... 5 1. Codes a 2 a 00
Mehr(Prüfungs-)Aufgaben zu Schaltnetzen
(Prüfungs-)Aufgaben zu Schaltnetzen 1) Gegeben sei die binäre Funktion f(a,b,c,d) durch folgende Wertetabelle: a b c d f(a,b,c,d) 0 1 0 0 0 0 1 1 1 1 1 1 0 0 1 1 a) Geben Sie die disjunktive Normalform
MehrGrundlagen der Technischen Informatik. Hamming-Codes. Kapitel 4.3
Hamming-Codes Kapitel 4.3 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Inhalt Welche Eigenschaften müssen Codes haben, um Mehrfachfehler erkennen und sogar korrigieren zu können?
MehrCODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 1. Das Problem 1.1. Kanalcodierung und Fehlerkorrektur. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder 1 übertragen kann, schicken.
MehrOrganisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele
Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung
MehrKlausur Informationstheorie und Codierung
Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte
MehrGrundlagen der Technischen Informatik. 2. Übung
Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit Organisatorisches Übungsblätter zuhause vorbereiten! In der Übung an der Tafel vorrechnen! Bei
MehrCodes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC)
Codes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC) Definitionen: Codewort:= mit zusätzlichen (redundanten) Kontrollbits versehenes Quellwort m:= Länge des Quellwortes (Anzahl der Nutzdatenbits)
MehrÜbungen zur Vorlesung Grundlagen der Rechnernetze. Zusätzliche Übungen
Übungen zur Vorlesung Grundlagen der Rechnernetze Zusätzliche Übungen Hamming-Abstand d Der Hamming-Abstand d zwischen zwei Codewörtern c1 und c2 ist die Anzahl der Bits, in denen sich die beiden Codewörter
MehrCodierungstheorie. Code-Arten und Code-Sicherung
Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem
MehrÜbungsaufgaben zur Vorlesung Quellencodierung
Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = 1 0.1 0.1 0.1 y 2
MehrÜbung zur Vorlesung. Informationstheorie und Codierung
Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.
Mehr, 2015W Übungstermin: Do.,
VU Technische Grundlagen der Informatik Übung 2: Numerik, Codierungstheorie 183.579, 2015W Übungstermin: Do., 29.10.2015 Allgemeine Hinweise: Versuchen Sie beim Lösen der Beispiele keine elektronischen
Mehr2 Informationstheorie
2 Informationstheorie Formale Grundlagen der Informatik I Herbstsemester 2012 Robert Marti Vorlesung teilweise basierend auf Unterlagen von Prof. emer. Helmut Schauer Grundbegriffe Informatik (IT: Information
MehrOptimalcodierung. Thema: Optimalcodierung. Ziele
Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.
Mehr, 2016W Übungstermin: Fr.,
VU Technische Grundlagen der Informatik Übung 2: Numerik, Codierungstheorie 183.579, 2016W Übungstermin: Fr., 28.10.2016 Allgemeine Hinweise: Versuchen Sie beim Lösen der Beispiele keine elektronischen
MehrInformation und Codierung
Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH Inhalt Vorwort zur 1. Auflage der Originalausgabe
MehrRedundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1
Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)
MehrLösungsvorschlag 3. Übung Technische Grundlagen der Informatik II Sommersemester 2009
Fachgebiet Rechnerarchitektur Fachbereich Informatik Lösungsvorschlag 3. Übung Technische Grundlagen der Informatik II Sommersemester 2009 Aufgabe 3.1: Codierungen a) Vervollständigen Sie folge Tabelle,
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Weiterführende Literatur zum Thema Informationstheorie:
MehrPraktikum Digitaltechnik
dig A) Vorbereitungsaufgaben: 1) Ermitteln Sie anhand der gegebenen zwei Blockschaltbilder die Schaltgleichungen und vereinfachen Sie weitmöglich! y 1 =(/(/(x 0 x 1 )/(x 0 +x 1 )))+(/(/(x 0 x 1 )+/(x 0
Mehr1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes
1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon
MehrGrundbegrie der Codierungstheorie
Grundbegrie der Codierungstheorie Pia Lackamp 12. Juni 2017 Inhaltsverzeichnis 1 Einleitung 2 2 Hauptteil 3 2.1 Blockcodes............................ 3 2.1.1 Beispiele.......................... 3 2.2
MehrRechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir?
Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2012 Wo sind wir? Quelle Nachricht Senke Sender Signal Übertragungsmedium Empfänger Quelle Nachricht Senke Primäres
MehrDie Mathematik in der CD
Lehrstuhl D für Mathematik RWTH Aachen Lehrstuhl D für Mathematik RWTH Aachen St.-Michael-Gymnasium Monschau 14. 09. 2006 Codes: Definition und Aufgaben Ein Code ist eine künstliche Sprache zum Speichern
MehrDie Hamming-Distanz definiert eine Metrik.
Die Hamming-Distanz definiert eine Metrik. Satz Metrik Hamming-Distanz Die Hamming-Distanz ist eine Metrik auf {0, 1} n, d.h. für alle x, y, z {0, 1} n gilt: 1 Positivität: d(x, y) 0, Gleichheit gdw x
MehrAlgorithmen und Datenstrukturen
Algorithmen und Datenstrukturen Tafelübung 02 Codierung, Entscheidungsgehalt, Strings, Arrays Clemens Lang T2 4. Mai 2010 14:00 16:00, 00.152 Tafelübung zu AuD 1/14 Organisatorisches Ein weiteres Don t
MehrGrundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch
Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information
MehrProf. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert.
Audiotechnik II Digitale Audiotechnik: 8. Tutorium Prof. Dr. Stefan Weinzierl 9.2.23 Musterlösung: 9. Dezember 23, 8:34 Fehlerkorrektur II Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit
MehrFH Darmstadt FB Informatik Klausurensammlung Rechnergrundlagen Prof. Komar
Matr.Nr.: Name: Leistungsnachweis Rechnergrundlagen SS 2006 Skripte, Umdrucke, Kopien, handschriftliche Aufzeichnungen und Taschenrechner sind zugelassen. Die Lösungs-Ergebnisse sind ausschließlich auf
MehrÜbungsblatt Nr. 7. Lösungsvorschlag
Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nico Döttling Dirk Achenbach Tobias Nilges Vorlesung Theoretische Grundlagen der Informatik Übungsblatt Nr. 7 svorschlag Aufgabe (K)
MehrFehlererkennung und Fehlerkorrektur in Codes
Fehlererkennung und Fehlerkorrektur in Codes Blockcodes und Hamming Abstand Untersuchungen zu Codierungen von Informationen, die über einen Nachrichtenkanal übertragen werden sollen, konzentrieren sich
MehrInformationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006
Informationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006 Institut für Nachrichtentechnik und Hochfrequenztechnik Bitte beachten Sie: Sie dürfen das Vorlesungsskriptum, einen Taschenrechner
MehrKlausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13)
Berlin, 21. Februar 2013 Name:... Matr.-Nr.:... Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13) 1 2 3 4 5 6 7 8 9 Σ Bearbeitungszeit: 90 min. max. Punktezahl:
MehrGrundbegriffe der Informatik Tutorium 3
Grundbegriffe der Informatik Tutorium 3 Tutorium Nr. 16 Philipp Oppermann 18. November 2014 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrCodierung, Codes (variabler Länge)
Codierung, Codes (variabler Länge) A = {a, b, c,...} eine endliche Menge von Nachrichten (Quellalphabet) B = {0, 1} das Kanalalphabet Eine (binäre) Codierung ist eine injektive Abbildung Φ : A B +, falls
MehrInformationsdarstellung 2.2
Beispiele für die Gleitkommadarstellung (mit Basis b = 2): 0,5 = 0,5 2 0-17,0 = - 0,53125 2 5 1,024 = 0,512 2 1-0,001 = - 0,512 2-9 3,141592... = 0,785398... 2 2 n = +/- m 2 e Codierung in m Codierung
MehrError detection and correction
Referat Error detection and correction im Proseminar Computer Science Unplugged Dozent Prof. M. Hofmann Referent Pinto Raul, 48005464 Datum 19.11.2004 Error detection and correction 1. Fehlererkennung
MehrTheoretische Grundlagen der Informatik WS 09/10
Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3
MehrEinführung in die Codierungstheorie
Einführung in die Codierungstheorie Monika König 11.12.2007 Inhaltsverzeichnis 1 Einführung und Definitionen 2 2 Fehlererkennende Codes 3 2.1 Paritycheck - Code............................... 3 2.2 Prüfziffersysteme................................
MehrÜbung 14: Block-Codierung
ZHW, NTM, 26/6, Rur Übung 4: Block-Codierung Aufgabe : Datenübertragung über BSC. Betrachten Sie die folgende binäre Datenübertragung über einen BSC. Encoder.97.3.3.97 Decoder Für den Fehlerschutz stehen
MehrModul Diskrete Mathematik WiSe 2011/12
Modul Diskrete Mathematik WiSe / Ergänzungsskript zum Kapitel 3.4. Hinweis: Dieses Manuskript ist nur verständlich und von Nutzen für Personen, die regelmäßig und aktiv die zugehörige Vorlesung besuchen
MehrRechnergrundlagen SS Vorlesung
Rechnergrundlagen SS 27 4. Vorlesung Inhalt Binäre Darstellung von Integer-Zahlen Vorzeichen-Betrag 2er-Komplement BCD Addition und Subtraktion binär dargestellter Zahlen Carry und Overflow Little Endian
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien
MehrRechnergrundlagen SS Vorlesung
Rechnergrundlagen SS 27 5. Vorlesung Inhalt Interpretation hexadezimal dargestellter Integer-Zahlen Little Endian / Big Endian Umrechnung in eine binäre Darstellung Ausführung von Additionen Optimierte
Mehr9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1
9 Codes 9.1 Charakterisierung und Klassifizierung Definition: Das Ergebnis einer eindeutigen Zuordnung zweier Zeichen- bzw. Zahlenmengen wird Code genannt. Die Zuordnung erfolgt über eine arithmetische
MehrEinleitung. Kapitel 1
Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch
Mehr15 Optimales Kodieren
15 Optimales Kodieren Es soll ein optimaler Kodierer C(T ) entworfen werden, welcher eine Information (z.b. Text T ) mit möglichst geringer Bitanzahl eindeutig überträgt. Die Anforderungen an den optimalen
MehrÜbung Praktische Informatik II
Übung Praktische Informatik II FSS 2009 Benjamin Guthier Lehrstuhl für Praktische Informatik IV Universität Mannheim guthier@pi4.informatik.uni-mannheim.de 06.03.09 2-1 Heutige große Übung Allgemeines
Mehr3 Codierung ... 3.3 Code-Sicherung. 3.3.1 Stellendistanz und Hamming-Distanz. 60 3 Codierung
60 3 Codierung 3 Codierung... 3.3 Code-Sicherung Oft wählt man absichtlich eine redundante Codierung, so dass sich die Code-Wörter zweier Zeichen (Nutzwörter) durch möglichst viele binäre Stellen von allen
Mehr13. Algorithmus der Woche Fehlererkennende Codes Was ist eigentlich ISBN?
13. Algorithmus der Woche Fehlererkennende Codes Was ist eigentlich ISBN? Autor Alexander Souza, Universität Freiburg Schon faszinierend, was man so alles mit Algorithmen machen kann: CDs schnell in Regalen
MehrFormelsammlung. Wahrscheinlichkeit und Information
Formelsammlung Wahrscheinlichkeit und Information Ein Ereignis x trete mit der Wahrscheinlichkeit p(x) auf, dann ist das Auftreten dieses Ereignisses verbunden mit der Information I( x): mit log 2 (z)
MehrEinführung in die Codierungstheorie
11. Dezember 2007 Ausblick Einführung und Definitionen 1 Einführung und Definitionen 2 3 Einführung und Definitionen Code: eindeutige Zuordnung von x i X = {x 1,.., x k } und y j Y = {y 1,..., y n } Sender
MehrEntropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.
Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie
MehrNotation und Einführung
Skriptteil zur Vorlesung: Proinformatik - Funktionale Programmierung Dr. Marco Block-Berlitz 30.Juli 2009 Notation und Einführung Der folgende Abschnitt gibt eine kurze Einführung in die Codierungstheorie.
MehrDekohärenz und Grundprinzip der Quantenfehlerkorrektur
Dekohärenz und Grundprinzip der Quantenfehlerkorrektur Bachelorarbeit Gregor Wurm, Betreuer: Prof. E. Arrigoni Institut für Theoretische Physik der Technischen Universiät Graz 24. Sept. 2010 Übersicht
MehrTheorie der Programmiersprachen
slide 1 Vorlesung Theorie der Programmiersprachen Prof. Dr. Ulrich Ultes-Nitsche Forschungsgruppe Departement für Informatik Universität Freiburg slide 2 Heute Komponenten eines Computers Speicher Die
MehrKommunikationstechnik II Wintersemester 07/08
Kommunikationstechnik II Wintersemester 07/08 Prof. Dr. Stefan Weinzierl Musterlösung: 5. Aufgabenblatt 1. Aufgabe: Kanalkodierung Zweck der Kanalcodierung: - Abbildung der information bits des Quellkodes
MehrKlausur zur Vorlesung Informationstheorie
INSTITUT FÜR INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 0167 Hannover Klausur zur Vorlesung Informationstheorie Datum:.02.2006 Uhrzeit: 9:00 Uhr Zeitdauer: 2 Stunden Hilfsmittel: ausgeteilte
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Übung 8 Dirk Achenbach 7. Februar 2013 I NSTITUT FÜR K RYPTOGRAPHIE UND S ICHERHEIT KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrEinführung in die Kodierungstheorie
Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Informationstheorie INSTITUT FÜR THEORETISCHE KIT 8.2.22 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik INSTITUT
Mehr3 Quellencodierung. 3.1 Einleitung
Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im
MehrUnsicherheit * M RS = 6
Informationstheorie Gegenstand Unsicherheit Überraschung Entropie Relative und maximale Entropie, Redundanz Konditionale Entropie und Verbundentropie Wechselseitige ("Mutual") Information Gegenstand Kodierung,
MehrInformationstheorie und Codierung
Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice
MehrAntwort: h = 5.70 bit Erklärung: Wahrscheinlichkeit p = 1/52, Informationsgehalt h = ld(1/p) => h = ld(52) = 5.70 bit
Übung 1 Achtung: ld(x) = Logarithmus dualis: ld(x) = log(x)/log(2) = ln(x)/ln(2)! Aufgabe 1 Frage: Wie gross ist der Informationsgehalt einer zufällig aus einem Stapel von 52 Bridgekarten gezogenen Spielkarte?
Mehr1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen
1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte
MehrCodierung. Codierung. EAN Europäische Artikelnummer Ziffern 1 und 2 codieren das Hersteller-Land. Ziffer 2 bis 12 codieren Händler und Ware
Codierung Codierung Haydn: Streichquartett op 54.3 aus Largo, Violine I 1 2 Ziffern 1 und 2 codieren das Hersteller-Land Ziffer 2 bis 12 codieren Händler und Ware Die letzte Ziffer ist eine Prüfziffer
MehrProblem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.
Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester
MehrInformationsdarstellung im Rechner
1 Informationsdarstellung im Rechner Wintersemester 12/13 1 Informationsdarstellung 2 Was muss dargestellt werden? Zeichen (Buchstaben, Zahlen, Interpunktionszeichen, Steuerzeichen, grafische Symbole,
MehrCODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.
MehrÜbungsblatt 8. Aufgabe 1 Datentransferrate und Latenz
Übungsblatt 8 Abgabe: 15.12.2011 Aufgabe 1 Datentransferrate und Latenz Der Preußische optische Telegraf (1832-1849) war ein telegrafisches Kommunikationssystem zwischen Berlin und Koblenz in der Rheinprovinz.
MehrGrundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2. Codewörter. Codewörter. Strukturierte Codes
Codewörter Grundlagen der Technischen Informatik Codierung und Fehlerkorrektur Kapitel 4.2 Allgemein: Code ist Vorschrift für eindeutige Zuordnung (Codierung) Die Zuordnung muss nicht umkehrbar eindeutig
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München Prof. Hußmann
Mehr(Prüfungs-)Aufgaben zu formale Sprachen
(Prüfungs-)Aufgaben zu formale Sprachen (siehe auch bei den Aufgaben zu endlichen Automaten) 1) Eine Grammatik G sei gegeben durch: N = {S, A}, T = {a, b, c, d}, P = { (S, Sa), (S, ba), (A, ba), (A, c),
MehrLineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19
Lineare Codes Dipl.-Inform. Wolfgang Globke Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19 Codes Ein Code ist eine eindeutige Zuordnung von Zeichen
MehrKodierung. Kodierung von Zeichen mit dem ASCII-Code
Kodierung Kodierung von Zeichen mit dem ASCII-Code Weiterführende Aspekte zur Kodierung: Speicherplatzsparende Codes Fehlererkennende und -korrigierende Codes Verschlüsselnde Codes Spezielle Codes, Beispiel
MehrReferat zum Thema Huffman-Codes
Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung
MehrZyklische Codes Rechnernetze Übung SS2010
Zyklische Codes Binärcodes Blockcodes Lineare Codes Nichtlineare Codes Zyklische Codes Systematische Codes Binärcodes Blockcodes Lineare Codes Nichtlineare Codes Zyklische Codes Systematische Codes Durch
MehrÜbung zu Drahtlose Kommunikation. 1. Übung
Übung zu Drahtlose Kommunikation 1. Übung 22.10.2012 Termine Übungen wöchentlich, Montags 15 Uhr (s.t.), Raum B 016 Jede Woche 1 Übungsblatt http://userpages.uni-koblenz.de/~vnuml/drako/uebung/ Bearbeitung
MehrDynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
MehrInformationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi
Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de Organisatorisches Vorlesung 2 SWS ( 2,5 LP) - Dienstags. 12:00-13:30 Uhr, Raum L122 Unterlagen - Vorlesungsfolien - Übungsaufgaben
MehrGrundbegriffe der Informatik Tutorium 5
Grundbegriffe der Informatik Tutorium 5 Tutorium Nr. 32 Philipp Oppermann 13. Januar 2015 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrDuE-Tutorien 16 und 17
Tutorien zur Vorlesung Digitaltechnik und Entwurfsverfahren Tutorienwoche 2 am 12.11.2010 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der
MehrPraktische Informatik II FSS 2012 Programmierklausur
Praktische Informatik II FSS 2012 Programmierklausur Prof. Dr. Heiner Stuckenschmidt 20.04.2012 Name, Vorname: Matrikelnummer: CVS-Username: CVS-Password: automatisch generierter Benutzername automatisch
MehrGrundlagen exakter Methoden zur Verschlüsselung von Codewörtern mittels linearer Codes*
Grundlagen exakter Methoden zur Verschlüsselung von Codewörtern mittels linearer Codes* Andrea Kraft andreakraft@gmx.at Elisabeth Pilgerstorfer elisabeth_pilg@hotmail.com Johannes Kepler Universität Linz
Mehr4.0.2 Beispiel (Einfacher Wiederholungscode). Im einfachsten Fall wird die Nachricht einfach wiederholt. D.h. man verwendet die Generatorabbildung
Wir beschäftigen uns mit dem Problem, Nachrichten über einen störungsanfälligen Kanal (z.b. Internet, Satelliten, Schall, Speichermedium) zu übertragen. Wichtigste Aufgabe in diesem Zusammenhang ist es,
MehrMathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1
Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:
MehrCodierung. H.-G. Hopf
Codierung H.-G. Hopf Inhalt Informationsübermittlung Codierung von Zeichen GDI: Codierung / 2 Inhalt Informationsübermittlung Codierung von Zeichen GDI: Codierung / 3 Ideale Kommunikation Übertragungskanal
MehrGrundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2
Codierung und Fehlerkorrektur Kapitel 4.2 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916)
Mehr2. Vorlesung: Boolesche Algebra
2. Vorlesung: Boolesche Algebra Wiederholung Codierung, Decodierung Boolesche Algebra UND-, ODER-Verknüpfung, Negation Boolesche Postulate Boolesche Gesetze 1 Wiederholung 2 Bits und Bitfolgen Bit: Maßeinheit
Mehr