(Prüfungs-)Aufgaben zur Codierungstheorie

Größe: px
Ab Seite anzeigen:

Download "(Prüfungs-)Aufgaben zur Codierungstheorie"

Transkript

1 (Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT a) Wie hoch ist die Hamming-Distanz H dieses Codes: b) Wie hoch ist die absolute Redundanz des Codes: (Hinweis: log 2 10 = 3,322) c) Wie hoch ist die relative Redundanz des Codes in Prozent: d) Zeichnen Sie den Codebaum für den CCITT2-Code der Dezimalziffern nach folgendem Konstruktionsprinzip: 0 nach rechts, 1 nach links, Wurzel oben, Blätter unten 2) Gegeben sei der folgende sog. Exzeß-3-Code: Dezimal d c b a a) Wie hoch ist die Hamming-Distanz H dieses Codes:

2 b) Zeichnen Sie den Codebaum für den Exzeß-3-Code nach folgendem Konstruktionsprinzip: 0 nach rechts, 1 nach links, Wurzel oben, Blätter unten 3) Gegeben sei die folgende Shannon sche Nachrichtenquelle: X = { a, b, c, d }, p(a) = 0,1, p(b) = 0,25, p(c) = 0,5, p(d) = 0,15 a) Bestimmen Sie den Informationsgehalt der einzelnen Zeichen sowie die Entropie von X. Hinweis: log 2 10 = 3,32, log 2 6,666 = 2,74 b) Konstruieren Sie den Huffman-Code h für diese Nachrichtenquelle. Konstruktion: Codierung: h(a) = h(b) = h(c) = h(d) = c) Bestimmen Sie die mittlere Wortlänge und die absolute Redundanz des Huffman-Codes. 4) Gegeben sei die folgende Shannon sche Nachrichtenquelle: X = { a, b, c, d }, p(a) = 0,15, p(b) = 0,4, p(c) = 0,25, p(d) = 0,2 a) Bestimmen Sie den Informationsgehalt der einzelnen Zeichen sowie die Entropie von X. Hinweis: log 2 2,5 = 1,322, log 2 5 = 2,322, log 2 6,666 = 2,737 b) Konstruieren Sie eine Huffman-Codierung h für diese Nachrichtenquelle. Konstruktion: Codierung: h(a) = h(b) = h(c) = h(d) = c) Bestimmen Sie die mittlere Wortlänge und die absolute Redundanz des Huffman-Codes. 5) Betrachten Sie das Alphabet A = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}. In der Vorlesung wurden verschiedene Codierungen fester Wortlänge von A angegeben (z.b. BCD- oder Gray-Code), die alle mindestens die Wortlänge 4 und somit eine relativ hohe Redundanz haben. Konstruieren Sie eine binäre Codierung der Einzelzeichen des Alphabets A, die minimale mittlere Wortlänge (und somit auch Redundanz) hat. Zeichnen Sie den Codebaum und bestimmen Sie die mittlere Wortlänge dieses Codes. Hinweis: Betrachten Sie A als Shannon'sche Nachrichtenquelle, in der alle Zeichen gleiche Wahrscheinlichkeit haben.

3 6) Zur Übertragung von 4-bit-Werten wird der folgende Hamming-Code verwendet: 4 Datenbits (a 3, a 5, a 6, a 7 ), 3 Prüfbits (p 1, p 2, p 4 ), Anordnung: p 1 p 2 a 3 p 4 a 5 a 6 a 7. p 1 = a 3 a 5 a 7 ( bezeichnet die XOR-Operation p 2 = a 3 a 6 a 7 zur Bildung des Paritätsbits) p 4 = a 5 a 6 a 7 Bestimmen Sie aus den folgenden empfangenen 7-bit-Worten, welches Bit falsch übertragen wurde (evtl. keines), sowie die korrekten, gesendeten 4-bit-Werte. a) Empfangenes Wort p 1 p 2 a 3 p 4 a 5 a 6 a Welches Bit wurde falsch übertragen? Gesendeter 4-bit- Wert a 3 a 5 a 6 a 7 b) p 1 p 2 a 3 p 4 a 5 a 6 a c) p 1 p 2 a 3 p 4 a 5 a 6 a Nebenrechnungen bitte hier ausführen und mit abgeben: 7) Gegeben sei die folgende Shannon sche Nachrichtenquelle: X = { a, b, c, d }, p(a) = 0.1, p(b) = 0.2, p(c) = 0.5, p(d) = 0.2 a) Bestimmen Sie den Informationsgehalt der einzelnen Zeichen sowie die Entropie von X. Hinweise: log 2 x = log 2 e * ln x = 1,4427 * ln x ln 10 = , ln 5 = , ln 2 = b) Konstruieren Sie eine Huffman-Codierung h für diese Nachrichtenquelle Baum-Konstruktion : Codierung : c) Bestimmen Sie die mittlere Wortlänge und die absolute Redundanz des zuvor entwickelten Huffman-Codes.

4 8) Gegeben sei eine Nachrichtenquelle, die die Zeichen A, B und C jeweils mit den angegebenen Wahrscheinlichkeiten aussendet. Zeichen P i A 0,5 B 0,4 C 0,1 a) Entwerfen Sie den Huffman-Code für die Codierung der einzelnen Zeichen. b) Geben Sie die mittlere Wortlänge des Codes an. c) Geben Sie die Entropie der Nachrichtenquelle an. d) Entwerfen Sie nun den Huffman-Code für die Codierung aller Paare von Zeichen der Nachrichtenquelle. e) Wie groß ist jetzt die mittlere Wortlänge bei der Paarcodierung? Hinweise: log b x = log b a * log a x, ld x = ld e * ln x, ld x = 1,4427 * ln x ld 0,1 = -3,322 ; ld 0,4 = -1,322 ; ld 0,5 = -1,0 ; ld 2,5 = 1,322 ; ld 5 = 2,322 ; ld 10 = 3,322 9) In einem 3-Bit-Code wird eine Hammingdistanz 3 gefordert. a) Wieviele Codewörter sind verwendbar, ohne weitere Bits zuzufügen? b) Berechnen Sie die absolute und relative Redundanz einer derartigen Codierung. c) Geben Sie 2 Beispiele für eine solche Codierung an. d) Was leistet ein derartiger Code im Hinblick auf Fehlererkennung und behebung? 10) Gegeben sei die folgende Shannon sche Nachrichtenquelle: X = { a, b, c, d }, p(a) = 0,15, p(b) = 0,4, p(c) = 0,25, p(d) = 0,2 a) Geben Sie die größte untere Schranke (der Mathematiker würde sagen: das Infimum) für die mittlere Wortlänge einer beliebigen Codierung dieser Shannon'schen Nachrichtenquelle an. Hinweis: log 2 2,5 = 1,322, log 2 5 = 2,322, log 2 6,666 = 2,737 b) Geben Sie eine bestmögliche Codierung der Einzelzeichen für diese Shannon'sche Nachrichtenquelle an und bestimmen Sie die mittlere Wortlänge dieser Codierung. c) Wie würden Sie vorgehen, um eine Codierung dieser Nachrichtenquelle mit kleinerer mittlerer Wortlänge als in b) zu konstruieren? (Keine Ausführung der Konstruktion!)

5 11) Bei einem 4-stelligen Uhrendisplay wird jede Stelle (also 10h, 1h, 10min, 1min) als BCD- Zahl übertragen, so daß 16 Leitungen benötigt werden. Um Leitungen einzusparen, soll die Uhrzeit als binärcodierter Minutenwert übertragen werden. Der Tag hat bekanntlich 24*60 = 1440 Minuten. a) Wie hoch sind die absolute und die relative Redundanz, wenn der Minutenwert als 16-stellige Binärzahl übertragen wird? Hinweis: log 2 (1440) = 10,4919 b) Wieviele Bits (und somit Leitungen) lassen sich also einsparen? Würden die eingesparten Leitungen ausreichen, um die Übertragung mit einer 1-bit- Fehlerkorrektur mittels Hamming-Code zu versehen? Ihre Antwort ist rechnerisch zu begründen. 12) In einer Anwendung sollen die 26 Buchstaben des Alphabets, unterschieden nach Großund Kleinschreibung, codiert werden, insgesamt also 52 Zeichen. Achtung: Bitte alle Antworten mit Begründung oder klar ersichtlichem Lösungsweg! a) Wieviele Bits müssen bei einer Blockcodierung mindestens verwendet werden? b) Wie groß sind bei so einer Blockcodierung die absolute und relative Redundanz? Hinweis: log 2 52 = 5,700. c) Um einen effizienteren Code mit variabler Wortlänge zu erhalten wird das Alphabet als Shannon sche Nachrichtenquelle betrachtet, in der alle Zeichen gleiche Wahrscheinlichkeit haben. Geben Sie die größte untere Schranke (das Infimum) für die mittlere Wortlänge aller möglichen Codierungen an. d) In der Huffman-Codierung der Einzelzeichen dieser Shannon schen Nachrichtenquelle haben 8 Zeichen einen Code der Länge 5, die restlichen 44 Zeichen einen Code der Länge 6. Wie groß ist die mittlere Wortlänge dieser Codierung? e) Wieviele Prüfbits müssen zu dem Blockcode aus a) mindestens hinzugefügt werden, um einen 1-Bit-Fehler-erkennenden Code zu erhalten? Geben Sie an, wie diese(s) Prüfbit(s) berechnet werden können. f) Wieviele Prüfbits müssen zu dem Blockcode aus a) mindestens hinzugefügt werden, um einen 1-Bit-Fehler-korrigierenden Code zu erhalten (mit Begründung). 13) Betrachten Sie das Alphabet A = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}. a) Wie groß ist die Redundanz bei der Codierung von A mit einem 4-Bit-Blockcode (BCDoder Aiken- oder Gray-Code usw.)? Hinweis: log 2 10 = 3,32

6 b) Konstruieren Sie eine binäre Codierung der Einzelzeichen des Alphabets A, die minimale mittlere Wortlänge (und somit auch Redundanz) hat. Zeichnen Sie den Codebaum und bestimmen Sie die mittlere Wortlänge und die Redundanz dieses Codes. Hinweis: Betrachten Sie A als Shannon'sche Nachrichtenquelle, in der alle Zeichen gleiche Wahrscheinlichkeit haben. 14) Gegeben sei die folgende Shannon sche Nachrichtenquelle: X = { a, b, c, d, e }, p(a) = 1/3, p(b) = 1/3, p(c) = 1/6, p(d) = 1/12, p(e) = 1/12 a) Bestimmen Sie den Informationsgehalt der einzelnen Zeichen sowie die Entropie von X. Hinweise: log 2 3 = 1,585, log 2 6 = 2,585, log 2 12 = 3,585 (Eigentlich hätte ja eine der Angaben gereicht, die anderen berechnet man im Kopf, wenn man mit Logarithmen umgehen kann ). b) Konstruieren Sie einen Huffman-Code h für diese Nachrichtenquelle und berechnen Sie dessen mittlere Wortlänge. c) Konstruieren Sie einen weiteren Huffman-Code k für diese Nachrichtenquelle, bei dem die Längen der Codewörter sich von denen bei Ihrem Code h aus Teil b) unterscheiden, und berechnen Sie dessen mittlere Wortlänge. 15) Wir wissen, dass jede Codierung der Dezimalziffern 0, 1,, 9 mit einem 4-Bit-Blockcode keine Fehlererkennung ermöglicht, da sie notwendigerweise Hammingdistanz 1 hat. In der Vorlesung wurden folgende Blockcodes mit mehr als 4 Bit angegeben: Dezimal CCITT2 Biquinär 1 aus a) Bestimmen Sie für jede der 3 Codierungen die Hammingdistanz und geben Sie an, welche Art der Fehlererkennung und der Fehlerbehebung somit jeweils möglich ist. b) Geben Sie einen 1-bit-fehlererkennenden Blockcode minimaler Länge für die Dezimalziffern an. Erklären Sie auch, wie Ihre Codierung entstanden ist. Hinweis: Mit einem der Standardverfahren aus der Vorlesung ist dies sehr einfach. c) Was ist die minimale Länge eines 1-bit-fehlerkorrigierenden Blockcodes für die Dezimalziffern (Begründung)?

7 16) Die Zeichen des Alphabets A = {00, 01,, 98, 99} der mit zwei Dezimalziffern darstellbaren natürlichen Zahlen werden als 2-stellige BCD-Zahl (d.h. im packed decimal genannten Datenformat) binär codiert (also z.b. die Zahl als ). a) Wie groß ist der Entscheidungsgehalt des physikalischen Zeichenvorrats? b) Wie groß ist der Entscheidungsgehalt des semantischen Zeichenvorrats? (Wenn Sie keinen Taschenrechner zur Verfügung haben genügt die Angabe der Stelle[n] vor dem Komma.) c) Wie groß sind die absolute und die relative Redundanz der Codierung? d) Kann die Redundanz der Codierung zur Fehlererkennung und/oder zur Fehlerbehebung genutzt werden? e) Geben Sie einen binären Blockcode minimaler Wortlänge für das Alphabet A an (der Platz hier reicht aus!). 17) Die Zeichen des Alphabets A = {00, 01,, 98, 99} der mit zwei Dezimalziffern darstellbaren natürlichen Zahlen werden durch zwei 8-bit-ASCII-Zeichen binär codiert (also z.b. die Zahl als , weil ASCII(2)= und ASCII(3)= ). a) Wie groß ist der Entscheidungsgehalt des physikalischen Zeichenvorrats? b) Wie groß ist der Entscheidungsgehalt des semantischen Zeichenvorrats? (Wenn Sie keinen Taschenrechner zur Verfügung haben genügt die Angabe der Stelle[n] vor dem Komma.) c) Wie groß sind die absolute und die relative Redundanz der Codierung? d) Kann die Redundanz der Codierung zur Fehlererkennung und/oder zur Fehlerbehebung genutzt werden? e) Geben Sie einen binären Blockcode minimaler Wortlänge für das Alphabet A an (der Platz hier reicht aus!). 18) Eine aus 10 Dezimalziffern bestehende Kennung (für irgendetwas) wird um zwei Prüfziffern ergänzt, in denen die Summe der ersten 10 Ziffern gespeichert wird. Geben Sie jeweils eine kurze Begründung für Ihre Antworten auf die folgenden Fragen. a) Kann mit Hilfe der Prüfziffern erkannt werden, wenn eine der 10 Ziffern falsch ist? Nie Meistens, aber nicht immer Manchmal, aber eher selten Immer b) Kann mit Hilfe der Prüfziffern erkannt werden, wenn zwei der 10 Ziffern falsch sind? Nie Meistens, aber nicht immer Manchmal, aber eher selten Immer

8 c) Kann mit Hilfe der Prüfziffern erkannt werden, wenn zwei der 10 Ziffern vertauscht wurden? Nie Meistens, aber nicht immer Manchmal, aber eher selten Immer 19) Die Zeichen des Alphabets A = {000, 001,, 998, 999} der mit drei Dezimalziffern darstellbaren natürlichen Zahlen werden als 3-stellige BCD-Zahl (d.h. im packed decimal genannten Datenformat) binär codiert (also z.b. die Zahl als ). a) Wie groß ist der Entscheidungsgehalt des physikalischen Zeichenvorrats? b) Wie groß ist der Entscheidungsgehalt des semantischen Zeichenvorrats? (Wenn Sie keinen Taschenrechner zur Verfügung haben genügt die Angabe der Stelle[n] vor dem Komma.) c) Wie groß sind die absolute und die relative Redundanz der Codierung? d) Kann die Redundanz dieser Codierung zur Fehlererkennung und/oder zur Fehlerbehebung genutzt werden? e) Wieviele Bits muss ein binärer Blockcode für das Alphabet A mindestens haben? Geben Sie einen solchen Blockcode minimaler Wortlänge an (der Platz hier reicht aus, wenn auch nicht für das Hinschreiben aller Codewörter).

Codierungstheorie Teil 1: Fehlererkennung und -behebung

Codierungstheorie Teil 1: Fehlererkennung und -behebung Codierungstheorie Teil 1: Fehlererkennung und -behebung von Manuel Sprock 1 Einleitung Eine Codierung ist eine injektive Abbildung von Wortmengen aus einem Alphabet A in über einem Alphabet B. Jedem Wort

Mehr

Technische Informatik - Eine Einführung

Technische Informatik - Eine Einführung Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und

Mehr

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd

Mehr

Code-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg

Code-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem

Mehr

Fehlererkennende und fehlerkorrigierende Codes

Fehlererkennende und fehlerkorrigierende Codes Fehlererkennende und fehlerkorrigierende Codes Claudiu-Vlad URSACHE, 5AHITN Inhalt 1. Codes... 2 2. Hammingdistanz... 3 3. Fehlererkennende Codes... 4 4. Fehlerkorrigierende Codes... 5 1. Codes a 2 a 00

Mehr

(Prüfungs-)Aufgaben zu Schaltnetzen

(Prüfungs-)Aufgaben zu Schaltnetzen (Prüfungs-)Aufgaben zu Schaltnetzen 1) Gegeben sei die binäre Funktion f(a,b,c,d) durch folgende Wertetabelle: a b c d f(a,b,c,d) 0 1 0 0 0 0 1 1 1 1 1 1 0 0 1 1 a) Geben Sie die disjunktive Normalform

Mehr

Grundlagen der Technischen Informatik. Hamming-Codes. Kapitel 4.3

Grundlagen der Technischen Informatik. Hamming-Codes. Kapitel 4.3 Hamming-Codes Kapitel 4.3 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Inhalt Welche Eigenschaften müssen Codes haben, um Mehrfachfehler erkennen und sogar korrigieren zu können?

Mehr

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 1. Das Problem 1.1. Kanalcodierung und Fehlerkorrektur. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder 1 übertragen kann, schicken.

Mehr

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung

Mehr

Klausur Informationstheorie und Codierung

Klausur Informationstheorie und Codierung Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte

Mehr

Grundlagen der Technischen Informatik. 2. Übung

Grundlagen der Technischen Informatik. 2. Übung Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit Organisatorisches Übungsblätter zuhause vorbereiten! In der Übung an der Tafel vorrechnen! Bei

Mehr

Codes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC)

Codes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC) Codes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC) Definitionen: Codewort:= mit zusätzlichen (redundanten) Kontrollbits versehenes Quellwort m:= Länge des Quellwortes (Anzahl der Nutzdatenbits)

Mehr

Übungen zur Vorlesung Grundlagen der Rechnernetze. Zusätzliche Übungen

Übungen zur Vorlesung Grundlagen der Rechnernetze. Zusätzliche Übungen Übungen zur Vorlesung Grundlagen der Rechnernetze Zusätzliche Übungen Hamming-Abstand d Der Hamming-Abstand d zwischen zwei Codewörtern c1 und c2 ist die Anzahl der Bits, in denen sich die beiden Codewörter

Mehr

Codierungstheorie. Code-Arten und Code-Sicherung

Codierungstheorie. Code-Arten und Code-Sicherung Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem

Mehr

Übungsaufgaben zur Vorlesung Quellencodierung

Übungsaufgaben zur Vorlesung Quellencodierung Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = 1 0.1 0.1 0.1 y 2

Mehr

Übung zur Vorlesung. Informationstheorie und Codierung

Übung zur Vorlesung. Informationstheorie und Codierung Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.

Mehr

, 2015W Übungstermin: Do.,

, 2015W Übungstermin: Do., VU Technische Grundlagen der Informatik Übung 2: Numerik, Codierungstheorie 183.579, 2015W Übungstermin: Do., 29.10.2015 Allgemeine Hinweise: Versuchen Sie beim Lösen der Beispiele keine elektronischen

Mehr

2 Informationstheorie

2 Informationstheorie 2 Informationstheorie Formale Grundlagen der Informatik I Herbstsemester 2012 Robert Marti Vorlesung teilweise basierend auf Unterlagen von Prof. emer. Helmut Schauer Grundbegriffe Informatik (IT: Information

Mehr

Optimalcodierung. Thema: Optimalcodierung. Ziele

Optimalcodierung. Thema: Optimalcodierung. Ziele Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.

Mehr

, 2016W Übungstermin: Fr.,

, 2016W Übungstermin: Fr., VU Technische Grundlagen der Informatik Übung 2: Numerik, Codierungstheorie 183.579, 2016W Übungstermin: Fr., 28.10.2016 Allgemeine Hinweise: Versuchen Sie beim Lösen der Beispiele keine elektronischen

Mehr

Information und Codierung

Information und Codierung Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH Inhalt Vorwort zur 1. Auflage der Originalausgabe

Mehr

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1 Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)

Mehr

Lösungsvorschlag 3. Übung Technische Grundlagen der Informatik II Sommersemester 2009

Lösungsvorschlag 3. Übung Technische Grundlagen der Informatik II Sommersemester 2009 Fachgebiet Rechnerarchitektur Fachbereich Informatik Lösungsvorschlag 3. Übung Technische Grundlagen der Informatik II Sommersemester 2009 Aufgabe 3.1: Codierungen a) Vervollständigen Sie folge Tabelle,

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Weiterführende Literatur zum Thema Informationstheorie:

Mehr

Praktikum Digitaltechnik

Praktikum Digitaltechnik dig A) Vorbereitungsaufgaben: 1) Ermitteln Sie anhand der gegebenen zwei Blockschaltbilder die Schaltgleichungen und vereinfachen Sie weitmöglich! y 1 =(/(/(x 0 x 1 )/(x 0 +x 1 )))+(/(/(x 0 x 1 )+/(x 0

Mehr

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon

Mehr

Grundbegrie der Codierungstheorie

Grundbegrie der Codierungstheorie Grundbegrie der Codierungstheorie Pia Lackamp 12. Juni 2017 Inhaltsverzeichnis 1 Einleitung 2 2 Hauptteil 3 2.1 Blockcodes............................ 3 2.1.1 Beispiele.......................... 3 2.2

Mehr

Rechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir?

Rechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir? Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2012 Wo sind wir? Quelle Nachricht Senke Sender Signal Übertragungsmedium Empfänger Quelle Nachricht Senke Primäres

Mehr

Die Mathematik in der CD

Die Mathematik in der CD Lehrstuhl D für Mathematik RWTH Aachen Lehrstuhl D für Mathematik RWTH Aachen St.-Michael-Gymnasium Monschau 14. 09. 2006 Codes: Definition und Aufgaben Ein Code ist eine künstliche Sprache zum Speichern

Mehr

Die Hamming-Distanz definiert eine Metrik.

Die Hamming-Distanz definiert eine Metrik. Die Hamming-Distanz definiert eine Metrik. Satz Metrik Hamming-Distanz Die Hamming-Distanz ist eine Metrik auf {0, 1} n, d.h. für alle x, y, z {0, 1} n gilt: 1 Positivität: d(x, y) 0, Gleichheit gdw x

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen Algorithmen und Datenstrukturen Tafelübung 02 Codierung, Entscheidungsgehalt, Strings, Arrays Clemens Lang T2 4. Mai 2010 14:00 16:00, 00.152 Tafelübung zu AuD 1/14 Organisatorisches Ein weiteres Don t

Mehr

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information

Mehr

Prof. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert.

Prof. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert. Audiotechnik II Digitale Audiotechnik: 8. Tutorium Prof. Dr. Stefan Weinzierl 9.2.23 Musterlösung: 9. Dezember 23, 8:34 Fehlerkorrektur II Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit

Mehr

FH Darmstadt FB Informatik Klausurensammlung Rechnergrundlagen Prof. Komar

FH Darmstadt FB Informatik Klausurensammlung Rechnergrundlagen Prof. Komar Matr.Nr.: Name: Leistungsnachweis Rechnergrundlagen SS 2006 Skripte, Umdrucke, Kopien, handschriftliche Aufzeichnungen und Taschenrechner sind zugelassen. Die Lösungs-Ergebnisse sind ausschließlich auf

Mehr

Übungsblatt Nr. 7. Lösungsvorschlag

Übungsblatt Nr. 7. Lösungsvorschlag Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nico Döttling Dirk Achenbach Tobias Nilges Vorlesung Theoretische Grundlagen der Informatik Übungsblatt Nr. 7 svorschlag Aufgabe (K)

Mehr

Fehlererkennung und Fehlerkorrektur in Codes

Fehlererkennung und Fehlerkorrektur in Codes Fehlererkennung und Fehlerkorrektur in Codes Blockcodes und Hamming Abstand Untersuchungen zu Codierungen von Informationen, die über einen Nachrichtenkanal übertragen werden sollen, konzentrieren sich

Mehr

Informationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006

Informationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006 Informationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006 Institut für Nachrichtentechnik und Hochfrequenztechnik Bitte beachten Sie: Sie dürfen das Vorlesungsskriptum, einen Taschenrechner

Mehr

Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13)

Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13) Berlin, 21. Februar 2013 Name:... Matr.-Nr.:... Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13) 1 2 3 4 5 6 7 8 9 Σ Bearbeitungszeit: 90 min. max. Punktezahl:

Mehr

Grundbegriffe der Informatik Tutorium 3

Grundbegriffe der Informatik Tutorium 3 Grundbegriffe der Informatik Tutorium 3 Tutorium Nr. 16 Philipp Oppermann 18. November 2014 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

Codierung, Codes (variabler Länge)

Codierung, Codes (variabler Länge) Codierung, Codes (variabler Länge) A = {a, b, c,...} eine endliche Menge von Nachrichten (Quellalphabet) B = {0, 1} das Kanalalphabet Eine (binäre) Codierung ist eine injektive Abbildung Φ : A B +, falls

Mehr

Informationsdarstellung 2.2

Informationsdarstellung 2.2 Beispiele für die Gleitkommadarstellung (mit Basis b = 2): 0,5 = 0,5 2 0-17,0 = - 0,53125 2 5 1,024 = 0,512 2 1-0,001 = - 0,512 2-9 3,141592... = 0,785398... 2 2 n = +/- m 2 e Codierung in m Codierung

Mehr

Error detection and correction

Error detection and correction Referat Error detection and correction im Proseminar Computer Science Unplugged Dozent Prof. M. Hofmann Referent Pinto Raul, 48005464 Datum 19.11.2004 Error detection and correction 1. Fehlererkennung

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

Einführung in die Codierungstheorie

Einführung in die Codierungstheorie Einführung in die Codierungstheorie Monika König 11.12.2007 Inhaltsverzeichnis 1 Einführung und Definitionen 2 2 Fehlererkennende Codes 3 2.1 Paritycheck - Code............................... 3 2.2 Prüfziffersysteme................................

Mehr

Übung 14: Block-Codierung

Übung 14: Block-Codierung ZHW, NTM, 26/6, Rur Übung 4: Block-Codierung Aufgabe : Datenübertragung über BSC. Betrachten Sie die folgende binäre Datenübertragung über einen BSC. Encoder.97.3.3.97 Decoder Für den Fehlerschutz stehen

Mehr

Modul Diskrete Mathematik WiSe 2011/12

Modul Diskrete Mathematik WiSe 2011/12 Modul Diskrete Mathematik WiSe / Ergänzungsskript zum Kapitel 3.4. Hinweis: Dieses Manuskript ist nur verständlich und von Nutzen für Personen, die regelmäßig und aktiv die zugehörige Vorlesung besuchen

Mehr

Rechnergrundlagen SS Vorlesung

Rechnergrundlagen SS Vorlesung Rechnergrundlagen SS 27 4. Vorlesung Inhalt Binäre Darstellung von Integer-Zahlen Vorzeichen-Betrag 2er-Komplement BCD Addition und Subtraktion binär dargestellter Zahlen Carry und Overflow Little Endian

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien

Mehr

Rechnergrundlagen SS Vorlesung

Rechnergrundlagen SS Vorlesung Rechnergrundlagen SS 27 5. Vorlesung Inhalt Interpretation hexadezimal dargestellter Integer-Zahlen Little Endian / Big Endian Umrechnung in eine binäre Darstellung Ausführung von Additionen Optimierte

Mehr

9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1

9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1 9 Codes 9.1 Charakterisierung und Klassifizierung Definition: Das Ergebnis einer eindeutigen Zuordnung zweier Zeichen- bzw. Zahlenmengen wird Code genannt. Die Zuordnung erfolgt über eine arithmetische

Mehr

Einleitung. Kapitel 1

Einleitung. Kapitel 1 Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch

Mehr

15 Optimales Kodieren

15 Optimales Kodieren 15 Optimales Kodieren Es soll ein optimaler Kodierer C(T ) entworfen werden, welcher eine Information (z.b. Text T ) mit möglichst geringer Bitanzahl eindeutig überträgt. Die Anforderungen an den optimalen

Mehr

Übung Praktische Informatik II

Übung Praktische Informatik II Übung Praktische Informatik II FSS 2009 Benjamin Guthier Lehrstuhl für Praktische Informatik IV Universität Mannheim guthier@pi4.informatik.uni-mannheim.de 06.03.09 2-1 Heutige große Übung Allgemeines

Mehr

3 Codierung ... 3.3 Code-Sicherung. 3.3.1 Stellendistanz und Hamming-Distanz. 60 3 Codierung

3 Codierung ... 3.3 Code-Sicherung. 3.3.1 Stellendistanz und Hamming-Distanz. 60 3 Codierung 60 3 Codierung 3 Codierung... 3.3 Code-Sicherung Oft wählt man absichtlich eine redundante Codierung, so dass sich die Code-Wörter zweier Zeichen (Nutzwörter) durch möglichst viele binäre Stellen von allen

Mehr

13. Algorithmus der Woche Fehlererkennende Codes Was ist eigentlich ISBN?

13. Algorithmus der Woche Fehlererkennende Codes Was ist eigentlich ISBN? 13. Algorithmus der Woche Fehlererkennende Codes Was ist eigentlich ISBN? Autor Alexander Souza, Universität Freiburg Schon faszinierend, was man so alles mit Algorithmen machen kann: CDs schnell in Regalen

Mehr

Formelsammlung. Wahrscheinlichkeit und Information

Formelsammlung. Wahrscheinlichkeit und Information Formelsammlung Wahrscheinlichkeit und Information Ein Ereignis x trete mit der Wahrscheinlichkeit p(x) auf, dann ist das Auftreten dieses Ereignisses verbunden mit der Information I( x): mit log 2 (z)

Mehr

Einführung in die Codierungstheorie

Einführung in die Codierungstheorie 11. Dezember 2007 Ausblick Einführung und Definitionen 1 Einführung und Definitionen 2 3 Einführung und Definitionen Code: eindeutige Zuordnung von x i X = {x 1,.., x k } und y j Y = {y 1,..., y n } Sender

Mehr

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b. Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie

Mehr

Notation und Einführung

Notation und Einführung Skriptteil zur Vorlesung: Proinformatik - Funktionale Programmierung Dr. Marco Block-Berlitz 30.Juli 2009 Notation und Einführung Der folgende Abschnitt gibt eine kurze Einführung in die Codierungstheorie.

Mehr

Dekohärenz und Grundprinzip der Quantenfehlerkorrektur

Dekohärenz und Grundprinzip der Quantenfehlerkorrektur Dekohärenz und Grundprinzip der Quantenfehlerkorrektur Bachelorarbeit Gregor Wurm, Betreuer: Prof. E. Arrigoni Institut für Theoretische Physik der Technischen Universiät Graz 24. Sept. 2010 Übersicht

Mehr

Theorie der Programmiersprachen

Theorie der Programmiersprachen slide 1 Vorlesung Theorie der Programmiersprachen Prof. Dr. Ulrich Ultes-Nitsche Forschungsgruppe Departement für Informatik Universität Freiburg slide 2 Heute Komponenten eines Computers Speicher Die

Mehr

Kommunikationstechnik II Wintersemester 07/08

Kommunikationstechnik II Wintersemester 07/08 Kommunikationstechnik II Wintersemester 07/08 Prof. Dr. Stefan Weinzierl Musterlösung: 5. Aufgabenblatt 1. Aufgabe: Kanalkodierung Zweck der Kanalcodierung: - Abbildung der information bits des Quellkodes

Mehr

Klausur zur Vorlesung Informationstheorie

Klausur zur Vorlesung Informationstheorie INSTITUT FÜR INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 0167 Hannover Klausur zur Vorlesung Informationstheorie Datum:.02.2006 Uhrzeit: 9:00 Uhr Zeitdauer: 2 Stunden Hilfsmittel: ausgeteilte

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Übung 8 Dirk Achenbach 7. Februar 2013 I NSTITUT FÜR K RYPTOGRAPHIE UND S ICHERHEIT KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

Einführung in die Kodierungstheorie

Einführung in die Kodierungstheorie Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Informationstheorie INSTITUT FÜR THEORETISCHE KIT 8.2.22 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik INSTITUT

Mehr

3 Quellencodierung. 3.1 Einleitung

3 Quellencodierung. 3.1 Einleitung Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im

Mehr

Unsicherheit * M RS = 6

Unsicherheit * M RS = 6 Informationstheorie Gegenstand Unsicherheit Überraschung Entropie Relative und maximale Entropie, Redundanz Konditionale Entropie und Verbundentropie Wechselseitige ("Mutual") Information Gegenstand Kodierung,

Mehr

Informationstheorie und Codierung

Informationstheorie und Codierung Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice

Mehr

Antwort: h = 5.70 bit Erklärung: Wahrscheinlichkeit p = 1/52, Informationsgehalt h = ld(1/p) => h = ld(52) = 5.70 bit

Antwort: h = 5.70 bit Erklärung: Wahrscheinlichkeit p = 1/52, Informationsgehalt h = ld(1/p) => h = ld(52) = 5.70 bit Übung 1 Achtung: ld(x) = Logarithmus dualis: ld(x) = log(x)/log(2) = ln(x)/ln(2)! Aufgabe 1 Frage: Wie gross ist der Informationsgehalt einer zufällig aus einem Stapel von 52 Bridgekarten gezogenen Spielkarte?

Mehr

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen 1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte

Mehr

Codierung. Codierung. EAN Europäische Artikelnummer Ziffern 1 und 2 codieren das Hersteller-Land. Ziffer 2 bis 12 codieren Händler und Ware

Codierung. Codierung. EAN Europäische Artikelnummer Ziffern 1 und 2 codieren das Hersteller-Land. Ziffer 2 bis 12 codieren Händler und Ware Codierung Codierung Haydn: Streichquartett op 54.3 aus Largo, Violine I 1 2 Ziffern 1 und 2 codieren das Hersteller-Land Ziffer 2 bis 12 codieren Händler und Ware Die letzte Ziffer ist eine Prüfziffer

Mehr

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester

Mehr

Informationsdarstellung im Rechner

Informationsdarstellung im Rechner 1 Informationsdarstellung im Rechner Wintersemester 12/13 1 Informationsdarstellung 2 Was muss dargestellt werden? Zeichen (Buchstaben, Zahlen, Interpunktionszeichen, Steuerzeichen, grafische Symbole,

Mehr

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.

Mehr

Übungsblatt 8. Aufgabe 1 Datentransferrate und Latenz

Übungsblatt 8. Aufgabe 1 Datentransferrate und Latenz Übungsblatt 8 Abgabe: 15.12.2011 Aufgabe 1 Datentransferrate und Latenz Der Preußische optische Telegraf (1832-1849) war ein telegrafisches Kommunikationssystem zwischen Berlin und Koblenz in der Rheinprovinz.

Mehr

Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2. Codewörter. Codewörter. Strukturierte Codes

Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2. Codewörter. Codewörter. Strukturierte Codes Codewörter Grundlagen der Technischen Informatik Codierung und Fehlerkorrektur Kapitel 4.2 Allgemein: Code ist Vorschrift für eindeutige Zuordnung (Codierung) Die Zuordnung muss nicht umkehrbar eindeutig

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München Prof. Hußmann

Mehr

(Prüfungs-)Aufgaben zu formale Sprachen

(Prüfungs-)Aufgaben zu formale Sprachen (Prüfungs-)Aufgaben zu formale Sprachen (siehe auch bei den Aufgaben zu endlichen Automaten) 1) Eine Grammatik G sei gegeben durch: N = {S, A}, T = {a, b, c, d}, P = { (S, Sa), (S, ba), (A, ba), (A, c),

Mehr

Lineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19

Lineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19 Lineare Codes Dipl.-Inform. Wolfgang Globke Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19 Codes Ein Code ist eine eindeutige Zuordnung von Zeichen

Mehr

Kodierung. Kodierung von Zeichen mit dem ASCII-Code

Kodierung. Kodierung von Zeichen mit dem ASCII-Code Kodierung Kodierung von Zeichen mit dem ASCII-Code Weiterführende Aspekte zur Kodierung: Speicherplatzsparende Codes Fehlererkennende und -korrigierende Codes Verschlüsselnde Codes Spezielle Codes, Beispiel

Mehr

Referat zum Thema Huffman-Codes

Referat zum Thema Huffman-Codes Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung

Mehr

Zyklische Codes Rechnernetze Übung SS2010

Zyklische Codes Rechnernetze Übung SS2010 Zyklische Codes Binärcodes Blockcodes Lineare Codes Nichtlineare Codes Zyklische Codes Systematische Codes Binärcodes Blockcodes Lineare Codes Nichtlineare Codes Zyklische Codes Systematische Codes Durch

Mehr

Übung zu Drahtlose Kommunikation. 1. Übung

Übung zu Drahtlose Kommunikation. 1. Übung Übung zu Drahtlose Kommunikation 1. Übung 22.10.2012 Termine Übungen wöchentlich, Montags 15 Uhr (s.t.), Raum B 016 Jede Woche 1 Übungsblatt http://userpages.uni-koblenz.de/~vnuml/drako/uebung/ Bearbeitung

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi

Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de Organisatorisches Vorlesung 2 SWS ( 2,5 LP) - Dienstags. 12:00-13:30 Uhr, Raum L122 Unterlagen - Vorlesungsfolien - Übungsaufgaben

Mehr

Grundbegriffe der Informatik Tutorium 5

Grundbegriffe der Informatik Tutorium 5 Grundbegriffe der Informatik Tutorium 5 Tutorium Nr. 32 Philipp Oppermann 13. Januar 2015 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

DuE-Tutorien 16 und 17

DuE-Tutorien 16 und 17 Tutorien zur Vorlesung Digitaltechnik und Entwurfsverfahren Tutorienwoche 2 am 12.11.2010 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der

Mehr

Praktische Informatik II FSS 2012 Programmierklausur

Praktische Informatik II FSS 2012 Programmierklausur Praktische Informatik II FSS 2012 Programmierklausur Prof. Dr. Heiner Stuckenschmidt 20.04.2012 Name, Vorname: Matrikelnummer: CVS-Username: CVS-Password: automatisch generierter Benutzername automatisch

Mehr

Grundlagen exakter Methoden zur Verschlüsselung von Codewörtern mittels linearer Codes*

Grundlagen exakter Methoden zur Verschlüsselung von Codewörtern mittels linearer Codes* Grundlagen exakter Methoden zur Verschlüsselung von Codewörtern mittels linearer Codes* Andrea Kraft andreakraft@gmx.at Elisabeth Pilgerstorfer elisabeth_pilg@hotmail.com Johannes Kepler Universität Linz

Mehr

4.0.2 Beispiel (Einfacher Wiederholungscode). Im einfachsten Fall wird die Nachricht einfach wiederholt. D.h. man verwendet die Generatorabbildung

4.0.2 Beispiel (Einfacher Wiederholungscode). Im einfachsten Fall wird die Nachricht einfach wiederholt. D.h. man verwendet die Generatorabbildung Wir beschäftigen uns mit dem Problem, Nachrichten über einen störungsanfälligen Kanal (z.b. Internet, Satelliten, Schall, Speichermedium) zu übertragen. Wichtigste Aufgabe in diesem Zusammenhang ist es,

Mehr

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1 Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:

Mehr

Codierung. H.-G. Hopf

Codierung. H.-G. Hopf Codierung H.-G. Hopf Inhalt Informationsübermittlung Codierung von Zeichen GDI: Codierung / 2 Inhalt Informationsübermittlung Codierung von Zeichen GDI: Codierung / 3 Ideale Kommunikation Übertragungskanal

Mehr

Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2

Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2 Codierung und Fehlerkorrektur Kapitel 4.2 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916)

Mehr

2. Vorlesung: Boolesche Algebra

2. Vorlesung: Boolesche Algebra 2. Vorlesung: Boolesche Algebra Wiederholung Codierung, Decodierung Boolesche Algebra UND-, ODER-Verknüpfung, Negation Boolesche Postulate Boolesche Gesetze 1 Wiederholung 2 Bits und Bitfolgen Bit: Maßeinheit

Mehr