Informationstheorie und Codierung
|
|
|
- Ina Vogt
- vor 9 Jahren
- Abrufe
Transkript
1 Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice Arithmetische Codierung 36
2 Aufgabe der Quellencodierung Übertragungskanal Nachrichtensenke Quellencodierer Quellendecodierer Nachrichtenquelle redundanzfrei oder redundanzarm Quellencodierung: eineindeutige Zuordnung einer Menge von Codeworten zur Menge der Quellensymbole (= Code) Darstellung der Quelleninformation in einer für die Informationsübertragung und -verarbeitung geeigneten Form eineindeutige möglichst redundanzfreie bzw. redundanzarme Darstellung Coderedundanz: R C = l m H 0 l m : mittlere Codewortlänge H: mittlere Quellenentropie 37
3 Gleichmäßiger Code = Codierung mit fester Codewortlänge l (= l m ) Codewortlänge für verschiedene Codierungen: Binärcodierung (zwei Symbole) l log 2 N = ld N; Bsp. X = {0, 1} Ternärcodierung (drei Symbole) l log 3 N; Bsp. X = {-1, 0, +1} Dezimalcodierung (zehn Symbole) l log 10 N =lg N; Bsp. X = {0, 1, 2,, 9} 38
4 Ungleichmäßiger Code = Codierung mit unterschiedlicher Codewortlänge Zuordnung der Codeworte entsprechend der Symbolauftrittswahrscheinlichkeit mittlere Codewortlänge l m = p i l i (l i : Codewortlänge des Zeichen x i ) i l m H Dekodierbarkeitsbedingung: Kein Codewort darf linker Teil eines anderen Codewortes sein! = Präfixcode sonst irreduzibler Code 39
5 Fano-Codierung Realisierungsschritte: 1. Ordnen der Symbole nach fallender Auftrittswahrscheinlichkeit 2. Teilen in (zwei) Gruppen mit möglichst gleicher Summenauftrittswahrscheinlichkeit 3. Zuordnung der 0 zur oberen Gruppe und der 1 zur unteren Gruppe 4. Wiederholung ab 2. für jede Teilgruppe bis nur noch ein Symbol in den sich jeweils neu ergebende Teilgruppe übrig bleibt 5. Kontrolle: Decodierbarkeitsbedingung Hinweis: umgekehrte Zuordnung von 0 und 1 auch möglich 40
6 Huffman-Codierung Verfeinerung der Fano-Codierung teilweise effektiver Realisierungsschritte: 1. Ordnen der Symbole nach fallender Auftrittswahrscheinlichkeit 2. Zusammenfassen der letzten (niedrigsten Wahrscheinlichkeiten zu einer Summenwahrscheinlichkeit 3. Erneutes Ordnen des unter 2. reduzierten Wahrscheinlichkeitsfeldes entsprechend Wiederholung ab 2. bis nur noch zwei Werte übrig bleiben 5. Erstellung eines Codebaums entsprechend dem Reduktionsschema 6. Zuordnung der Codesymbole 0 und 1 7. Kontrolle: Decodierbarkeitsbedingung 41
7 Erstes Shannonsches Codierungstheorem besagt, dass jede diskrete Quelle völlig redundanzfrei kodiert werden kann, auch wenn keine idealen Wahrscheinlichkeiten vorliegen. H l m < H + 1 m H: mittlere Quellenentropie l m : mittlere Codewortlänge m: Anzahl Zeichen je Block Aussage: beliebige Annäherung an die Quellenentropie möglich Realisierung durch m-fache Erweiterung der Quelle (z.b. Zusammenfassen von m Zeichen in Blöcken und anschließendes Codieren bei diskreten Quellen mit unabhängigen Ereignissen) Achtung: Berücksichtigung von Aufwand und Nutzen Optimalcodierung = annähernd redundanzfrei und mit ökonomisch vertretbarem Aufwand realisierbar (Bsp. Fano, Huffman, ) 42
8 Optimalcodierung von Markoff-Quellen I Beispiel für eine Markoff-Quelle erster Ordnung bei Bildung einer Zweiergruppe (Symbolgruppencodierung): p i,j = p i p j i und H i,j = - p i,j ld p i,j i j Ergebnis: 2H 1 > H i,j > 2H 2 (nicht zielführend, da l mi,j > l m2 ) Lösung zustandsabhängige Codierung Berücksichtigung der Übergangsmöglichkeiten ein Codewort je Übergang Codewortbildung über herkömmliche Verfahren (Shannon, Huffman, ) 43
9 Optimalcodierung von Markoff-Quellen II Zusammenhänge für eine optimalcodierte Markoffquelle erster Ordnung: N N l m = p i p j i l i,j l i,j : Codewortlänge für den Übergang von x i nach x j i1 N j1 H M = - p i p j i ld(p j i ) i1 R C = l m - H M N j1 Anmerkungen: N optimale Teilcodes bei N abhängigen x i Codieraufwand für höhere Ordnungen sehr hoch Mehrfachvergabe von gleichen Codeworten (Decodierbarkeitsbedingung!) Decoder benötigt Startzustand und Matrix (p j i ) 44
10 Schwächen von Präfixcodes Nachteile von Präfixcodes nach Fano und Huffman: optimale Redundanzreduktion nur wenn für jedes x i gilt: p i = 2 -n (mit n N >0 ) l m 1 bit Symbol Verringerung dieser Nachteile: Blockcodierung Vermeidung dieser Nachteile: Codierung nach Golomb, Rice Arithmetische Codierung 45
11 Lauflängencode Lauflängencodierung = verlustfreier Kompressionsalgorithmus Praktische Anwendung: Bilddatenkompression (z.b. Windows Bitmap) Bsp.: Text bei Schwarz-Weiß-Bildschirm große Anzahl weißer Pixel, wenige schwarze Pixel WWWWWWWWWWWWSWWWWSWWWSSS 12W1S4W1S3W3S oder Anzahl der weißen bzw. schwarzen Pixel Anzahl der weißen Pixel, auf denen jeweils ein schwarzes Pixel folgt
12 Lauflängencode nach Golomb vordefinierter Code Darstellung aller nichtnegativen Zahlen effizient bei geometrischer Verteilung der Wahrscheinlichkeiten p x = (p 1 ) x p 0 (Wahrscheinlichkeit für x Einsen gefolgt von einer Null ) günstiges Ereignis (hier: 1) ungünstiges Ereignis (hier: 0) Berechnung über Lauflänge r und Steuerparameter m, für die gilt: (p 1 ) m = 0,5 ; p r = (p 1 ) r p 0 47
13 Golomb-Codewörter für verschiedene m m = 1 m = 2 m = 3 m = 4 r p r Codewort p r Codewort p r Codewort p r Codewort 0 1/2 0 0, , , /4 10 0, , , / , , , / , , , / , , , / , , , / , , , / , , , / , , ,
14 Bildung des Codewortes Quotient: Q = r m Rest: R = r Q m = r mod m Hilfsvariable: C = log 2 m = ld m R * = R, wenn R < 2 C m mit l = C 1 R + 2 C m, wenn R 2 C m mit l = C Zusammensetzung des Codewortes = (Q 1 )_0_ (R * ) binär Länge l 49
15 Lauflängencode nach Rice Untermenge des Golomb-Codes mit m = 2 k einfache Realisierung durch Bitshiften und logische Bitoperationen Quotient: Q = r m r k Rest: R = r Q m = r mod m r (m 1) Zusammensetzung des Codewortes = (R) binär _(Q 1 )_0 k Bits 50
16 Rice-Codewörter für verschiedene k k = 0 k = 1 k = 2 k = 3 r Codewort Codewort Codewort Codewort
17 Arithmetische Codierung 1,0 52 d c b a Alternative zur Huffman-Codierung (z.b. JPEG) keine einzelnen Codeworte ein Codewort für das gesamte Signal bessere Annäherung an Quellenentropie Berechnung über Intervallbetrachtung X = {a, b, c, d} (x i ) = (a b c d) mit i = 0,, N 1 (p(x i )) = (p(i)) = (0,4 0,2 0,1 0,3) Summenwahrscheinlichkeiten: p k (i+1) = p k (i) + p(i) mit i = 0,, N 1 und p k (0) = 0,0 (p k (i)) = (0,0 0,4 0,6 0,7 1,0)
18 Bildung des Codewortes I 1. Bestimmung des aktuellen Intervallbereichs: B = OG UG OG: obere Grenze UG: untere Grenze 2. Bestimmung der Intervallgrenzen des betrachteten Symbols: OG* = UG + B p k(i+1) p k (N) UG* = UG + B p k(i) p k (N) 3. Wiederholung ab 1. für alle Symbole der Folge p k (N): Normierung auf das gesamte Startintervall Bildung des Codewortes: Addition negativer 2er-Potenzen, sodass deren Summe innerhalb des letzten Intervalls (UG* Codewort<OG*) liegt Binäre Darstellung entsprechend der einfließenden 2er-Potenzen
19 Bildung des Codewortes II (ergänzend zum Beispiel an der Tafel) neg. 2er- Potenz 2-1 0, , , , , , , , , Dezimalwert Bit Summe , ,
20 Eigenschaften der arithmetischen Codierung 55 Codierung seltener Symbole stärkerer Verengung des Intervalls Decodierung durch Nachvollziehen der Intervallgrenzen Decoder benötigt: Intervallgröße (i.d.r. zwischen 0 und 1) Wahrscheinlichkeiten für alle Symbole Anzahl der übertragenen Symbole oder Kennzeichnung des Endes der Folge Nachteile: Genauigkeit der Intervallgrenzen (Nachkommastellen) Codierung des gesamten Signals vor der Übertragung (ungünstig in der Praxis) Lösung durch schrittweise Übertragung (siehe Festkommaimplementierung)
3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.
3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle
Kapitel 7: Optimalcodierung und Huffman Coding
Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd
Optimalcodierung. Thema: Optimalcodierung. Ziele
Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.
Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1
Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)
Übungsaufgaben zur Vorlesung Quellencodierung
Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = 1 0.1 0.1 0.1 y 2
Technische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und
Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider
Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider Wintersemester 2016/17 Bilder 20 x 14 Pixel (= Bildpunkte) 16 Bit Farben (= 65.536 Farben) 560
Digitale Medien. Übung
Digitale Medien Übung Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm http://www.die-informatiker.net Zwei Stunden pro Woche Praktische Anwendungen des theoretischen Vorlesungsstoffs
2.7 Der Shannon-Fano-Elias Code
2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.
Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
i Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
Arithmetisches Codieren
Arithmetisches Codieren 1. Motivation: Als Alternative zum arithmetischen Codieren bot sich damals als effizientester Algorithmus das Huffmann-Coding an. Dieses jedoch hatte einen entscheidenden Nachteil:
3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238
3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher
Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.
Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
16 - Kompressionsverfahren für Texte
16 - Kompressionsverfahren für Texte Prof. Dr. S. Albers Kompressionsverfahren für Texte Verlustfreie Kompression Original kann perfekt rekonstruiert werden Beispiele: Huffman Code, Lauflängencodierung,
Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele
Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung
Klausur Informationstheorie und Codierung
Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte
2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
Informationstheorie und Codierung
Informationstheorie und Codierung Organisation / Einleitung Vorlesung: Do 17:00 Uhr, Sr K 2002B Seminar: Mi (G) 15:00 Uhr, Sr H 1510 Abschluss: mdl. Prüfung Kontakt - Vorlesung Dr.-Ing. Maik Debes Fakultät
Klausur zur Vorlesung Informationstheorie
INSTITUT FÜR INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 0167 Hannover Klausur zur Vorlesung Informationstheorie Datum:.02.2006 Uhrzeit: 9:00 Uhr Zeitdauer: 2 Stunden Hilfsmittel: ausgeteilte
Codierungstheorie Teil 1: Fehlererkennung und -behebung
Codierungstheorie Teil 1: Fehlererkennung und -behebung von Manuel Sprock 1 Einleitung Eine Codierung ist eine injektive Abbildung von Wortmengen aus einem Alphabet A in über einem Alphabet B. Jedem Wort
Kompressionsverfahren für Texte
Kompressionsverfahren für Texte Prof. Dr. S. Albers Prof. Dr. Th. Ottmann 1 Zeichenkettenverarbeitung Suche in Texten, Textindizes Mustererkennung (Pattern-Matching) Verschlüsseln Komprimiern Analysieren
Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi
Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi [email protected] Inhaltsverzeichnis 2. Quellencodierung 2.1 Motivation 2.2 Shannon sche Informationstheorie 2.3 Binärcodierung nach Shannon
Kapitel 2 Quellencodierung
Kapitel 2 Quellencodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv
Digitalisierung. analoges Signal PAM. Quantisierung
Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste
Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung
Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft
ChaosSeminar - Informationstheorie
[email protected] [email protected] 18. November 2005 Motivation schnelle Übertragung von Daten über gestörten Kanal Shannon48 Was ist Information? Information ist Abnahme von Unsicherheit
Klausur zur Vorlesung Informationstheorie
INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 07 Hannover Klausur zur Vorlesung Informationstheorie Datum: 0.0.00 Uhrzeit: 09:00 Uhr Zeitdauer:
Standbildcodierung. Dipl.-Ing. Guido Heising. Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K.
Standbildcodierung Dipl.-Ing. Guido Heising Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K. Barthel 1 Gliederung der Vorlesung Einführung in die Bildcodierung - verlustlose/verlustbehaftete
Übertragungstechnik. Übertragungstechnik. Copyright Chr. Schaffer, Fachhochschule Hagenberg, MTD 1
Übertragungstechnik Copyright Chr. Schaffer, Fachhochschule Hagenberg, MTD 1 Allgemeines Schema einer Nachrichtenübertragung Modulator Sender Störungen Strecke Nachrichtenquelle Nachrichtensenke Demodulator
Referat zum Thema Huffman-Codes
Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung
Information und Codierung
Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH Inhalt Vorwort zur 1. Auflage der Originalausgabe
Definition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung
Grundlagen der Technischen Informatik. 3. Übung
Grundlagen der Technischen Informatik 3. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 3. Übungsblatt Themen Aufgabe : Aufgabe 2: Aufgabe 3: Informationstheorie Huffman-Code Entropie
Algorithmensammlung Codierungstheorie von Alfred Franz und Hauke Hund Sommersemester 2007
Algorithmensammlung Codierungstheorie von Alfred Franz und Hauke Hund Sommersemester 2007 Inhaltsverzeichnis Hamming-Code... 2 Codewort überprüfen und ggf. korrigieren...2 BCH-Code... 2 Einen BCH-Code
Musterlösung: 11. Dezember 2014, 10:43. Informationstheorie und Entropiekodierung
Audiotechnik II Digitale Audiotechnik: 8. Übung Prof. Dr. Stefan Weinzierl 11.12.2014 Musterlösung: 11. Dezember 2014, 10:43 Informationstheorie und Entropiekodierung Bei der Entropiekodierung werden die
Übung Praktische Informatik II
Übung Praktische Informatik II FSS 2009 Benjamin Guthier Lehrstuhl für Praktische Informatik IV Universität Mannheim [email protected] 06.03.09 2-1 Heutige große Übung Allgemeines
Vorlesung 15a. Quellencodieren und Entropie
Vorlesung 15a Quellencodieren und Entropie 1 1. Volle Binärbäume als gerichtete Graphen und die gewöhnliche Irrfahrt von der Wurzel zu den Blättern 2 3 ein (nicht voller) Binärbaum Merkmale eines Binärbaumes:
2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Weiterführende Literatur zum Thema Informationstheorie:
21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3
581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv
Kompression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Folie 2
Kompression Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Folie 2 1 Inhalte Redundanz Channel Encoding Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression
Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch
Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information
1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen
1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte
Einführung in die Codierungstheorie
11. Dezember 2007 Ausblick Einführung und Definitionen 1 Einführung und Definitionen 2 3 Einführung und Definitionen Code: eindeutige Zuordnung von x i X = {x 1,.., x k } und y j Y = {y 1,..., y n } Sender
Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:
Fachbereich Medieninformatik Hochschule Harz Huffman-Kodierung Referat Henner Wöhler 11459 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung...I 1. Entropiekodierung...1 1.1 Morse Code...2 1.2 Shannon-Fano-Kodierung...3
Informationsgehalt einer Nachricht
Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner
zu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6
zu ufgabe 6: a) 3 5 6 7 p( ) p( ) p( 3 ) p( ) p( 5 ) p( 6 ) p( 7 ) = p( 3 ) = p( 3 ) = p( 3 ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = 8 p( ) = p( ) = p( ) = p( ) Lösung: b) binär 8 p(
Definition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009
Proseminar Datenkompression Suchstrategien und Präfixcodes
Proseminar Datenkompression Suchstrategien und Präfixcodes Patrick Sonntag Mittwoch, den 05.02.2003 I. Einführung - Suche elementares Problem in Informatik - hierbei Beschränkung auf binäre Tests nur 2
Theoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Informationstheorie Vorlesungen vom 30. Januar und 1. Februar 2018 INSTITUT FÜR THEORETISCHE 0 30.01.2018 Dorothea Wagner - Theoretische Grundlagen der Informatik
Kodierung und Sicherheit
Skript zur Vorlesung: Kodierung und Sicherheit 0000 00000 000 0000 0000 000 00 000 Wintersemester 2004-2005 Dr. Andreas Jakoby Institut für Theoretische Informatik Universität zu Lübeck Inhaltsverzeichnis
A2.1: Codierung mit und ohne Verlust
Abschnitt: 2.1 Allgemeine Beschreibung A2.1: Codierung mit und ohne Verlust Man unterscheidet drei Arten von Codierverfahren, nämlich: Leitungscodierung, Kanalcodierung, Quellencodierung. Alle diese grundlegenden
Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.
Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester
2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien
Einführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von
Wann sind Codes eindeutig entschlüsselbar?
Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C
Kapitel 9: Informationstheorie. 2. Entropie
ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE
Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut
Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,
Informations- und Codierungstheorie (Informationstheorie) Vorlesungsunterlagen
J O H A N N E S K E P L E R U N I V E R S I T Ä T L I N Z N e t z w e r k f ü r F o r s c h u n g, L e h r e u n d P r a x i s Informations- und Codierungstheorie (Informationstheorie) Vorlesungsunterlagen
Prof. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert.
Audiotechnik II Digitale Audiotechnik: 8. Tutorium Prof. Dr. Stefan Weinzierl 9.2.23 Musterlösung: 9. Dezember 23, 8:34 Fehlerkorrektur II Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit
Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg
Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Error-Free Compression Hufmann Coding Runlength Coding Lossy Compression
Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg
Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Channel Encoding Error-Free Compression Hufmann Coding Runlength
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 1. Das Problem 1.1. Kanalcodierung und Fehlerkorrektur. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder 1 übertragen kann, schicken.
Fachprüfung. Nachrichtencodierung
Fachprüfung Nachrichtencodierung 6. August 2009 Prüfer: Prof. Dr. P. Pogatzki Bearbeitungszeit: 2 Stunden Hilfsmittel: Taschenrechner, Vorlesungsscript, Übungsaufgaben Name: Vorname: Matr.-Nr.: Unterschrift:
Dynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.
Verlustbehaftete Kompression. JPEG: Joint Photographic Experts Group
Verlustbehaftete Kompression JPEG: Joint Photographic Experts Group ITU T8.1 definiert Zusammenarbeit von ITU, IEC, ISO Verfahren zur verlustbehafteten Bildkodierung (auch Verlustloser Modus vorhanden)
Kompression. Tim Kilian
Kompression Tim Kilian Seminar Effiziente Programmierung Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg
Algorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,
Diskrete Mathematik II
Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2008 DiMA II - Vorlesung 01-07.04.2008 Einführung in die Codierungstheorie, Definition Codes 1 / 36 Organisatorisches
Farb-Fernsehsignal (Composite FBAS)
Farb-Fernsehsignal (Composite FBAS) Quelle: Ze-Nian Li : Script Multimedia Systems, Simon Fraser University, Canada VIDEO- Digitalisierung Gemeinsame Kodierung FBAS Farbbild- Austast- und Synchronsignal
2. Vorlesung: Boolesche Algebra
2. Vorlesung: Boolesche Algebra Wiederholung Codierung, Decodierung Boolesche Algebra UND-, ODER-Verknüpfung, Negation Boolesche Postulate Boolesche Gesetze 1 Wiederholung 2 Bits und Bitfolgen Bit: Maßeinheit
