Diskrete Mathematik II
|
|
|
- Margarete Schräder
- vor 6 Jahren
- Abrufe
Transkript
1 Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2008 DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 1 / 36
2 Organisatorisches Vorlesung: Mo in HIA, Di in NA 6/99 (3+1 SWS, 6.75 CP) Übung: Di in ND2/99 Assistent: Mathias Herrmann, Korrektor: M. Mansour Al-Sawadi Übung ist zweiwöchentlich: gerade/ungerade Woche Übungsaufgaben werden korrigiert. Gruppenabgaben bis 4 Personen Bonussystem: 1/3-Notenstufe für 50%, 2/3-Notenstufe für 75% Gilt nur, wenn man die Klausur besteht! Musterlösungen Klausur: Ende Juli DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 2 / 36
3 Abstimmungen Zusammensetzung des Auditoriums Vorlesungsform Folienunterstützter Tafelanschrieb Nur Tafelanschrieb (Folien als Skript) DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 3 / 36
4 Themengebiete 1 Kodierungstheorie Komprimierende Codes Beispiel Anwendungen: Kommunikation (Mobilfunk, Internet), Speicher (MP3) Fehlererkennende Codes Ausfalltolerante Codes Beispiel Anwendungen: Mobilfunk, Internet, CD, Secret Sharing, Kryptosystem 2 Algorithmische Zahlentheorie Quadratische Reste Beispiel Anwendungen: Zufallszahlengenerator, Identity-Based Encryption Elliptische Kurven Beispiel Anwendungen: Kryptosystem, Primzahltest 3 Komplexitätstheorie Klassen P und NP Reduktionen Anwendung: Sicherheitsbeweise in der Kryptographie DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 4 / 36
5 Weiterführende Referenzen Kodierungstheorie M. Sudan, Algorithmic Introduction to Coding Theory, Skript MIT W. Trappe, L. Washington, Introduction to Cryptography with Coding Theory, Pearson 2006 J. Blömer, Algorithmische Codierungstheorie, Skript Uni Paderborn J.H. van Lint, Introduction to Coding Theory, Springer 1991 T. Ihringer, Diskrete Mathematik, Teubner 1994 DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 5 / 36
6 Unser Modell Shannon 1948: Informationstheorie und Mathematik der Kommunikation Hamming 1950: Erste Arbeit über fehlerkorrigierende Codes Modell: Sender Kodierer Kanal Dekodierer Empfänger Kanal ist bandbreitenbeschränkt (Kompression) Kanal ist fehleranfällig (Fehlerkorrektur) Bits können ausfallen: 0 ǫ, 1 ǫ Bits können kippen: 0 1, 1 0 DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 6 / 36
7 Motivierendes Bsp: Datenkompression Szenario: Kanal ist fehlerfrei. Übertragen gescannte Nachricht: Wahrscheinlichkeiten: 99% weißer, 1% schwarzer Punkt. Weiße Punkte werden mit 0 kodiert, schwarze mit 1. Kodierer: Splitten Nachricht in Blocks der Größe 10. Wenn Block x= , kodiere mit 0, sonst mit 1x. 1 dient als Trennzeichen beim Dekodieren. Dekodierer: Lese den Code von links nach rechts. Falls 0, dekodiere Falls 1, übernehme die folgenden 10 Symbole. DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 7 / 36
8 Erwartete Codelänge Sei q := Pr[Block ist ] = (0.99) Sei Y Zufallsvariable für die Codelänge eines 10-Bit Blocks: E[Y] = y Pr(Y = y) = 1 q + 11 (1 q) = 11 10q. y {0,1x} D.h. erwartete Länge der Kodierung eines 10-Bit Blocks ist 11 10q 2 Bit. Datenkompression der Nachricht auf 20%. Können wir noch stärker komprimieren? Entropie wird uns Schranke für Komprimierbarkeit liefern. DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 8 / 36
9 Ausblick: fehlerkorrigierende Codes Szenario: Binärer symmetrischer Kanal Bits 0,1 kippen mit Ws p, p < 1 2 zu 1,0. (Warum < 1 2?) Korrekte Übertragung 0 0, 1 1 mit Ws 1 p. In unserem Beispiel p = 0.1. Kodierer: Verdreifache jedes Symbol, d.h , Repetitionscode der Länge 3. Dekodierer: Lese den Code in 3er-Blöcken. Falls mindestens zwei Symbole 0 sind, dekodiere zu 0. Sonst dekodiere zu 1. DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 9 / 36
10 Ws Dekodierfehler Symbol wird falsch dekodiert, falls mind. zwei der drei Bits kippen. Ws(Bit wird falsch dekodiert) = Ws(genau 2 Bits kippen) + Ws(genau 3 Bits kippen) = 3 p 2 (1 p) + p 3 = ( ) Ohne Kodierung Fehlerws von 0.1. Mit Repetitionskode Fehlerws von Nachteil: Codierung ist dreimal so lang wie Nachricht. Ziel: Finde guten Tradeoff zwischen Fehlerws und Codelänge. DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 10 / 36
11 Ausblick: fehlertolerante Codes Szenario: Binärer Ausfallkanal Bits 0,1 gehen mit Ws p, p < 1 2 verloren, d.h. 0 ǫ bzw. 1 ǫ. Korrekte Übertragung 0 0, 1 1 mit Ws 1 p. In unserem Beispiel p = 0.1. Verwenden wieder Repetitionskode der Länge 3. Fehler beim Dekodieren: Alle drei Symbole gehen verloren. Ws(Bit kann nicht dekodiert werden) = p 3 = Fehlerws kleiner beim Ausfallkanal als beim symmetrischen Kanal. DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 11 / 36
12 Definition Code Alphabet A = {a 1,...,a n }, Menge von Symbolen a i Nachricht m A Definition Code Sei A ein Alphabet. Eine (binäre) Codierung C des Alphabets A ist eine injektive Abbildung C : A {0, 1} a i C(a i ). Die Codierung einer Nachricht m = a i1...a il A definieren wir C(m) = C(a i1 )... C(a il ) (Erweiterung von C auf A ). Die Abbildung C heißt Code. DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 12 / 36
13 Bezeichnungen Code Die Elemente c i := C(a i ) bezeichnen wir als Codeworte. Wir bezeichnen sowohl die Abbildung von Nachrichten auf Codeworte als auch die Menge der Codeworte mit dem Buchstaben C. Falls C {0, 1} n spricht man von einem Blockcode der Länge n. In einem Blockcode haben alle Codeworte die gleiche Länge. DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 13 / 36
14 Entschlüsselbarkeit von Codes Szenario: Datenkompression in fehlerfreiem Kanal Definition eindeutig entschlüsselbar Ein Code heißt eindeutig entschlüsselbar, falls jedes Element aus {0, 1} Bild höchstens einer Nachricht ist. D.h. die Erweiterung der Abbildung C auf A muss injektiv sein. Definition Präfixcode Ein Code C = {c 1,..., c n } heißt Präfixcode, falls es keine zwei Codeworte c i c j gibt mit c i ist Präfix (Wortanfang) von c j. DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 14 / 36
15 Beispiel a 1 a 2 a 3 C C C C C 1 ist kein Code, da C : A {0, 1} nicht injektiv. C 2 ist nicht eindeutig entschlüsselbar, da C : A {0, 1} nicht injektiv. C 3 ist eindeutig entschlüsselbar, aber kein Präfixcode. C 4 ist ein Präfixcode. DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 15 / 36
16 Präfixcodes sind eindeutig entschlüsselbar. Satz: Präfixcode eindeutig entschlüsselbar Sei C = {c 1,...,c n } ein Präfixcode. Dann kann jede Nachricht C(m) in Zeit O( C(m) ) eindeutig zu m decodiert werden. Zeichne binären Baum Kanten erhalten Label 0 für linkes Kind, 1 für rechtes Kind. Codewort ci = c i1... c ik ist Label des Endknoten des Pfads von der Wurzel mit den Kantenlabeln i 1,..., i n Präfixeigenschaft: Kein einfacher Pfad von der Wurzel enthält zwei Knoten, die mit Codeworten gelabelt sind. Codewort c i ist Blatt in Tiefe c i DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 16 / 36
17 Algorithmus Dekodierung Präfix Algorithmus Dekodierung Präfix 1 Lese C(m) von links nach rechts. 2 Starte bei der Wurzel. Falls 0, gehe nach links. Falls 1, gehe nach rechts. 3 Falls Blatt mit Codewort c i = C(a i ) erreicht, gib a i aus und iteriere. Laufzeit: O( C(m) ) DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 17 / 36
18 Woher kommen die Nachrichtensymbole? Modell Quelle Q liefert Strom von Symbolen aus A. Quellwahrscheinlichkeit: Ws( Quelle liefert a i ) = p i Ws p i ist unabhängig von der Zeit und vom bisher produzierten Strom (erinnerungslose Quelle) X i : Zufallsvariable für die i-te Position im Strom, d.h. Ws(X i = a j ) = p j für j = 1,...,n und alle i. Ziel: Kodiere Elemente a j mit großer Ws p j mit kleiner Codewortlänge. DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 18 / 36
19 Kompakte Codes Definition Erwartete Codewortlänge Sei Q eine Quelle mit Alphabet A = a 1,..., a n und Quellwahrscheinlichkeiten p 1,..., p n. Die Größe E(C) := n p i C(a i ) i=1 bezeichne die erwartete Codewortlänge. Definition Kompakter Code Ein Code C heißt kompakt bezüglich einer Quelle Q, falls er minimale erwartete Codewortlänge besitzt. DiMA II - Vorlesung Einführung in die Codierungstheorie, Definition Codes 19 / 36
1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes
1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon
Definition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung
Diskrete Mathematik II
Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2011 DiMa II - Vorlesung 01-04.04.2011 1 / 252 Organisatorisches Vorlesung: Mo 12-14 in HZO 70, Di 09-10
Diskrete Mathematik I
Diskrete Mathematik I Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Wintersemester 08/09 DiMa I - Vorlesung 01-13.10.2008 Mengen, Relationen, Funktionen, Indirekter Beweis 1 / 59 Organisatorisches
Definition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009
Die Hamming-Distanz definiert eine Metrik.
Die Hamming-Distanz definiert eine Metrik. Satz Metrik Hamming-Distanz Die Hamming-Distanz ist eine Metrik auf {0, 1} n, d.h. für alle x, y, z {0, 1} n gilt: 1 Positivität: d(x, y) 0, Gleichheit gdw x
Wann sind Codes eindeutig entschlüsselbar?
Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 1. Das Problem 1.1. Kanalcodierung und Fehlerkorrektur. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder 1 übertragen kann, schicken.
Informationsgehalt einer Nachricht
Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner
2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
Kapitel 7: Optimalcodierung und Huffman Coding
Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge
3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238
3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher
Übungsblatt 5 - Musterlösung
Universität Mannheim Lehrstuhl für Praktische Informatik IV Prof. Dr. W. Effelsberg Christoph Kuhmünch, Gerald Kühne Praktische Informatik II SS 2000 Übungsblatt 5 - Musterlösung Aufgabe 1: Huffman-Codierung
Kryptographie I Symmetrische Kryptographie
Kryptographie I Symmetrische Kryptographie Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Wintersemester 2009/10 Krypto I - Vorlesung 01-12.10.2009 Verschlüsselung, Kerckhoffs, Angreifer,
Zahlentheorie. Alexander May. Fakultät für Mathematik Ruhr-Universität Bochum. Sommersemester 2015
Zahlentheorie Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2015 Zahlentheorie - V01 Primzahlen, Landau-Notation, Fermat Primzahl, Mersenne Primzahl 1 / 230 Organisatorisches
Kryptographie I Symmetrische Kryptographie
Kryptographie I Symmetrische Kryptographie Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Wintersemester 2012/13 Krypto I - Vorlesung 01-08.10.2012 Verschlüsselung, Kerckhoffs, Angreifer,
Kryptographie I Symmetrische Kryptographie
Kryptographie I Symmetrische Kryptographie Eike Kiltz 1 Fakultät für Mathematik Ruhr-Universität Bochum Wintersemester 2011/12 1 Basierend auf Folien von Alexander May. Krypto I - Vorlesung 01-10.10.2011
Kryptographie II Asymmetrische Kryptographie
Kryptographie II Asymmetrische Kryptographie Christopher Wolf Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2010 Krypto II - Vorlesung 01-14.04.2010 () Schlüsselverteil-Center, Diffie-Hellman
Klausur Informationstheorie und Codierung
Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte
Technische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und
(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
Erzeugendensystem und Basis
Erzeugendensystem und Basis Definition Erzeugendensystem und Basis eines Unterraums Sei S F n 2 ein Unterraum. Eine Menge G = {g 1,..., g k } S heißt Erzeugendensystem von S, falls jedes x S als Linearkombination
Kryptographie I Symmetrische Kryptographie
Kryptographie I Symmetrische Kryptographie Eike Kiltz 1 Fakultät für Mathematik Ruhr-Universität Bochum Wintersemester 2014/15 1 Basierend auf Folien von Alexander May. Krypto - Vorlesung 01-6.10.2014
Kompression. Tim Kilian
Kompression Tim Kilian Seminar Effiziente Programmierung Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg
Perfekte Codes. Definition Perfekter Code. Sei C {0, 1} n ein (n, M, d)-code. C heißt perfekt, falls
Perfekte Codes Definition Perfekter Code Sei C {0, 1} n ein (n, M, d)-code. C heißt perfekt, falls ( ) d 1 M V n = 2 n. 2 D.h. die maximalen disjunkten Hammingkugeln um die Codeworte partitionieren {0,
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd
Grundlagen der Technischen Informatik. 3. Übung
Grundlagen der Technischen Informatik 3. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 3. Übungsblatt Themen Aufgabe : Aufgabe 2: Aufgabe 3: Informationstheorie Huffman-Code Entropie
Rechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir?
Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2012 Wo sind wir? Quelle Nachricht Senke Sender Signal Übertragungsmedium Empfänger Quelle Nachricht Senke Primäres
3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.
3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle
4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140
4 Woche Decodierung; Maximale, Perfekte und Optimale Codes 4 Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 Szenario für fehlerkorrigierende Codes Definition (n, M)-Code Sei C {0, 1}
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.
Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch
Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information
Übungsblatt Nr. 7. Lösungsvorschlag
Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nico Döttling Dirk Achenbach Tobias Nilges Vorlesung Theoretische Grundlagen der Informatik Übungsblatt Nr. 7 svorschlag Aufgabe (K)
Die Größe A(n, d) und optimale Codes
Die Größe A(n, d) und optimale Codes Definition Optimaler Code Wir definieren A(n, d) = max{m binärer (n, M, d) Code} Ein (n, M, d)-code heißt optimal, falls M = A(n, d). Bestimmung von A(n, d) ist offenes
Kryptographie I Symmetrische Kryptographie
Kryptographie I Symmetrische Kryptographie Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Wintersemester 2010/11 Krypto I - Vorlesung 01-11.10.2010 Verschlüsselung, Kerckhoffs, Angreifer,
2.7 Der Shannon-Fano-Elias Code
2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.
Vorlesung 15a. Quellencodieren und Entropie
Vorlesung 15a Quellencodieren und Entropie 1 1. Volle Binärbäume als gerichtete Graphen und die gewöhnliche Irrfahrt von der Wurzel zu den Blättern 2 3 ein (nicht voller) Binärbaum Merkmale eines Binärbaumes:
Die Mathematik in der CD
Lehrstuhl D für Mathematik RWTH Aachen Lehrstuhl D für Mathematik RWTH Aachen St.-Michael-Gymnasium Monschau 14. 09. 2006 Codes: Definition und Aufgaben Ein Code ist eine künstliche Sprache zum Speichern
Codes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC)
Codes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC) Definitionen: Codewort:= mit zusätzlichen (redundanten) Kontrollbits versehenes Quellwort m:= Länge des Quellwortes (Anzahl der Nutzdatenbits)
Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut
Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,
Proseminar Datenkompression Suchstrategien und Präfixcodes
Proseminar Datenkompression Suchstrategien und Präfixcodes Patrick Sonntag Mittwoch, den 05.02.2003 I. Einführung - Suche elementares Problem in Informatik - hierbei Beschränkung auf binäre Tests nur 2
Algorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 206 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Organisatorisches Weiterer Ablauf: heute und Donnerstag,
5. Woche Perfekte und Optimale Codes, Schranken. 5. Woche: Perfekte und Optimale Codes, Schranken 88/ 142
5 Woche Perfekte und Optimale Codes, Schranken 5 Woche: Perfekte und Optimale Codes, Schranken 88/ 142 Packradius eines Codes (Wiederholung) Definition Packradius eines Codes Sei C ein (n, M, d)-code Der
Einführung in die Codierungstheorie
Einführung in die Codierungstheorie Monika König 11.12.2007 Inhaltsverzeichnis 1 Einführung und Definitionen 2 2 Fehlererkennende Codes 3 2.1 Paritycheck - Code............................... 3 2.2 Prüfziffersysteme................................
Grundbegrie der Codierungstheorie
Grundbegrie der Codierungstheorie Pia Lackamp 12. Juni 2017 Inhaltsverzeichnis 1 Einleitung 2 2 Hauptteil 3 2.1 Blockcodes............................ 3 2.1.1 Beispiele.......................... 3 2.2
21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3
581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv
4.0.2 Beispiel (Einfacher Wiederholungscode). Im einfachsten Fall wird die Nachricht einfach wiederholt. D.h. man verwendet die Generatorabbildung
Wir beschäftigen uns mit dem Problem, Nachrichten über einen störungsanfälligen Kanal (z.b. Internet, Satelliten, Schall, Speichermedium) zu übertragen. Wichtigste Aufgabe in diesem Zusammenhang ist es,
Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg
Vortrag am 25. Januar 200 Werner von Siemens Gymnasium Magdeburg Zeitansatz: 5h (inklusive Programmieraufgaben) Datenkompression Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg
Modul Diskrete Mathematik WiSe 2011/12
Modul Diskrete Mathematik WiSe / Ergänzungsskript zum Kapitel 3.4. Hinweis: Dieses Manuskript ist nur verständlich und von Nutzen für Personen, die regelmäßig und aktiv die zugehörige Vorlesung besuchen
Klausur zur Vorlesung Informationstheorie
INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 07 Hannover Klausur zur Vorlesung Informationstheorie Datum: 0.0.00 Uhrzeit: 09:00 Uhr Zeitdauer:
Referat zum Thema Huffman-Codes
Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung
Diskrete Mathematik 1 WS 2008/09
Ruhr-Universität Bochum Lehrstuhl für Kryptologie und IT-Sicherheit Prof. Dr. Alexander May M. Ritzenhofen, M. Mansour Al Sawadi, A. Meurer Lösungsblatt zur Vorlesung Diskrete Mathematik 1 WS 2008/09 Blatt
Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung
Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft
Grundbegriffe der Informatik Tutorium 3
Grundbegriffe der Informatik Tutorium 3 Tutorium Nr. 16 Philipp Oppermann 18. November 2014 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
Grundbegriffe der Informatik Tutorium 5
Grundbegriffe der Informatik Tutorium 5 Tutorium Nr. 32 Philipp Oppermann 13. Januar 2015 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14
Institut für Theoretische Informatik Prof. Dr. Jörn Müller-Quade Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 23/4 Vorname Nachname Matrikelnummer Hinweise Für die
Einführung in die Codierungstheorie
11. Dezember 2007 Ausblick Einführung und Definitionen 1 Einführung und Definitionen 2 3 Einführung und Definitionen Code: eindeutige Zuordnung von x i X = {x 1,.., x k } und y j Y = {y 1,..., y n } Sender
ChaosSeminar - Informationstheorie
[email protected] [email protected] 18. November 2005 Motivation schnelle Übertragung von Daten über gestörten Kanal Shannon48 Was ist Information? Information ist Abnahme von Unsicherheit
Theoretische Grundlagen der Informatik. Vorlesung am 7. Februar INSTITUT FÜR THEORETISCHE INFORMATIK
Theoretische Grundlagen der Informatik 0 07.02.2019 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Werbung Vorlesung Algorithmen
Tutorium 23 Grundbegriffe der Informatik (6. Sitzung)
Tutorium 23 Grundbegriffe der Informatik (6. Sitzung) Tutor: Felix Stahlberg SOFTWARE DESIGN AND QUALITY GROUP Source: pixelio.de KIT The cooperation of Forschungszentrum Karlsruhe GmbH and Universität
Diskrete Mathematik 1
Ruhr-Universität Bochum Lehrstuhl für Kryptologie und IT-Sicherheit Prof. Dr. Alexander May M. Ritzenhofen, M. Mansour Al Sawadi, A. Meurer Lösungsblatt zur Vorlesung Diskrete Mathematik 1 WS 2008/09 Blatt
Einführung in die Kodierungstheorie
Anton Malevich Einführung in die Kodierungstheorie Skript zu einer im Februar 2013 gehaltenen Kurzvorlesung Fakultät für Mechanik und Mathematik Belorussische Staatliche Universität Institut für Algebra
Digitaltechnik I WS 2006/2007. Klaus Kasper
Digitaltechnik I WS 2006/2007 Klaus Kasper Studium 6 Semester 5. Semester: Praxissemester im Anschluss: Bachelorarbeit 6. Semester: WPs Evaluation der Lehre Mentorensystem 2 Organisation des Studiums Selbständigkeit
6. Komprimierung. (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger
Komprimierung 6. Komprimierung (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger Platz brauchen Motivation: beschleunigt Plattenzugriffe oder Datenübertragungen Voraussetzung:
Theoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Informationstheorie Vorlesungen vom 30. Januar und 1. Februar 2018 INSTITUT FÜR THEORETISCHE 0 30.01.2018 Dorothea Wagner - Theoretische Grundlagen der Informatik
Information und Codierung
Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH Inhalt Vorwort zur 1. Auflage der Originalausgabe
Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.
Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie
Theoretische Grundlagen der Informatik WS 09/10
Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3
Kryptologie und Kodierungstheorie
Kryptologie und Kodierungstheorie Alexander May Horst Görtz Institut für IT-Sicherheit Ruhr-Universität Bochum Lehrerfortbildung 17.01.2012 Kryptologie Verschlüsselung, Substitution, Permutation 1 / 18
Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi
Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi [email protected] Organisatorisches Vorlesung 2 SWS ( 2,5 LP) - Dienstags. 12:00-13:30 Uhr, Raum L122 Unterlagen - Vorlesungsfolien - Übungsaufgaben
durch Einfügen von Knoten konstruiert werden kann.
Satz von Kuratowski Definition Unterteilung eines Graphen Sei G = (V, E) und e = {u, v} E. 1 Das Einfügen eines neuen Knoten w in die Kante e führt zum Graphen G = (V {w}, E \ e {{u, w}, {w, v}}). 2 Der
Übung 14: Block-Codierung
ZHW, NTM, 26/6, Rur Übung 4: Block-Codierung Aufgabe : Datenübertragung über BSC. Betrachten Sie die folgende binäre Datenübertragung über einen BSC. Encoder.97.3.3.97 Decoder Für den Fehlerschutz stehen
Paarweise Unabhängigkeit vs. Unabhängigkeit
Paarweise Unabhängigkeit vs. Unabhängigkeit Beispiel: Wir betrachten das Szenario von zuvor. Wissen bereits, dass A 1, A 2 und A 1, B unabhängig sind. Analog folgt, dass A 2 und B unabhängige Ereignisse
Fachprüfung. Nachrichtencodierung
Fachprüfung Nachrichtencodierung 23. Februar 2010 Prüfer: Prof. Dr. P. Pogatzki Bearbeitungszeit: 2 Stunden Hilfsmittel: Taschenrechner, Vorlesungsscript, Übungsaufgaben Name: Vorname: Matr.-Nr.: Unterschrift:
Grundlagen der Technischen Informatik. Hamming-Codes. Kapitel 4.3
Hamming-Codes Kapitel 4.3 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Inhalt Welche Eigenschaften müssen Codes haben, um Mehrfachfehler erkennen und sogar korrigieren zu können?
