2. Digitale Codierung und Übertragung

Ähnliche Dokumente
2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

(Prüfungs-)Aufgaben zur Codierungstheorie

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung

Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien 6-32

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

2. Digitale Codierung und Übertragung

Klausur Digitale Medien

Einführung in die Medieninformatik 1

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate

Technische Informatik - Eine Einführung

Die Digitalisierung von Musik

16 - Kompressionsverfahren für Texte

Molekulare Bioinformatik

Digitalisierung. analoges Signal PAM. Quantisierung

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

Optimalcodierung. Thema: Optimalcodierung. Ziele

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate

Audio- und Videodatenströme im Internet

Klausur Informationstheorie und Codierung

Farb-Fernsehsignal (Composite FBAS)

Basisinformationstechnologie II

2 Informationstheorie

Vorkurs Informatik WiSe 16/17

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:

Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt):

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele

Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1

Digitales Video I. Wie wird Video am Computer codiert? Bilder. Bewegte Bilder. Ton. Videoformate. Auflösung Speicherung am Computer

2. Digitale Codierung und Übertragung

Informationstheorie und Codierung

Kompressionsverfahren

Kapitel 2 Quellencodierung

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

Einführung in Kompressionstechniken

Digital Signal Processing

Referat zum Thema Huffman-Codes

Bilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB

Digitalisierung und Kodierung

2. Digitale Codierung und Übertragung

Aktuelle Themen der Angewandten Informatik: Datenkompression Seminar-Unterlagen Sommer Semester 2016

Arne Heyda, Marc Briede, Ulrich Schmidt: Datenformate im Medienbereich, Fachbuchverlag Leipzig 2003, Kapitel 5

Algorithmen und Datenstrukturen (für ET/IT)

Mathematik für Information und Kommunikation

Übung zur Vorlesung. Informationstheorie und Codierung

Proseminar Datenkompression

Sinneswahrnehmungen des Menschen

Multimediatechnik / Video

Kapitel 9: Informationstheorie. 2. Entropie

Kodierung. Bytes. Zahlensysteme. Darstellung: Zahlen

Einführung in die Informatik und Medieninformatik

Textkompression. Komprimierung von Daten. Runlength Komprimierung (2) Runlength Komprimierung (1) Herkömmliche Kodierung. Runlength Komprimierung (3)

Übungsaufgaben zur Vorlesung Quellencodierung

Basisinformationstechnologie II

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.

Multimediatechnik / Video

Digitales Video I Wie wird Video am Computer codiert?

Kodierung. Kodierung von Zeichen mit dem ASCII-Code

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines

MPEG Audio Layer 1. Fachbereich Medieninformatik. Hochschule Harz. Referat. Kolja Schoon. Thema: MPEG Audio Layer 1

Panorama der Mathematik und Informatik

Lossless Codecs. Fachbereich Medieninformatik. Hochschule Harz. Referat. Christian Menschel. Thema: Lossless Codecs

Digitales Video. Digitales Video

Themen Medientechnik II. Grundlagen der Bildkompression (Teil 1) Claude E. Shannon ( ) Digitale Bildübertragungsstrecke

Dynamisches Huffman-Verfahren

Übung zur Vorlesung. Digitale Medien. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau

Hauptdiplomklausur Informatik Februar 2006: Multimedia Systems

Proseminar. Thema: Shannon-Fano und Huffman Verfahren

Datenkompression. Motivation Datenmengen

Kodierungsalgorithmen

Neue Technologien in Internet und WWW. 0. Einleitung. 1. Digitalisierung 1.1 Sampling und Quantisierung (1) 1. Digitalisierung

JPEG Kompression technische Realisierung

2. Repräsentation und Codierung von Daten. Klassen von Codierverfahren

1 Informationsverarbeitung & Wahrscheinlichkeitsrechnung Informationsverarbeitung Wahrscheinlichkeitsrechnung... 2.

Notation und Einführung

Statistische Kenngrößen. Histogramm. Grundlagen zur statistischen Signalverarbeitung. Statistische Beschreibung von Audio

Multimediale Werkzeuge, Audio: Formate, Tools. -Sound/Audio Objekte. Formate, Beispiele:

Diskrete Cosinus-Transformation (DCT)

Prof. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert.

Datenkompression. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 167

Digitaltechnik I WS 2006/2007. Klaus Kasper

Standbildcodierung. Dipl.-Ing. Guido Heising. Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K.

Unsicherheit * M RS = 6

Einordnung (Studiengang IN)

Inhalt. 1. Was ist Information 2. Nachrichtentechnische Definition 3. Algorithmische Definition 4. Darstellung in der Informatik

Code-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg

Musterlösung: 11. Dezember 2014, 10:43. Informationstheorie und Entropiekodierung

1 DATEN - INFORMATION - WISSEN. Marcel Götze

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.

Einleitung. Kapitel 1

1.2.1 Analoges Speichern auf Vinyl Erläutern Sie die prinzipielle Funktionsweise von Langspielplatten bzw. Plattenspielern.

Codes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC)

Transkript:

2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Weiterführende Literatur zum Thema Informationstheorie: Taschenbuch Medieninformatik Kapitel 2 Herbert Klimant, Rudi Piotraschke, Dagmar Schönfeld: Informations- und Kodierungstheorie, Teubner 2003 Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-1

Information und Repräsentation V = Menge von Werten (Interpretationen, Bedeutungen) R = Menge von Repräsentationen (Darstellungswerten) Abbildung I : R! V Interpretation Umkehrung zur Interpretation: Repräsentationsbeziehung I -1 : V! R V I R (nach Broy: Informatik Teil I) Klassische Beispiele: V = Zahlwerte, R = Binärzahlen V = Abbildungen, R = Programme Medienbezogene Beispiele: V = Begriffe, Objekte R = Bilder, R = Klänge,... Konkrete medienbezogene Beispiele: Martinshorn/Blaulicht, Rote Ampel, Halt! Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-2

Informationsverarbeitung Information ist ein abstrakter Begriff. Computer verarbeiten immer Repräsentationen. Informationsverarbeitung ist Repräsentationsverarbeitung. Medien sind spezielle Repräsentationen von Information. V I -1 I R Transformation, Übertragung Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-3

Semiotische Ebenen Semiotik = Theorie der Zeichen und Symbole Klassische Terminologie der Semiotik: Syntax, Semantik, Pragmatik Pragmatik (Wirkung) Sender Semantik (Bedeutung) Empfänger Syntax (Zeichen) Bezug zur traditionellen Informatik: Syntax = Repräsentationen (Menge R) Semantik = Informationsgehalt (Menge V) Pragmatik wird als irrelevant angesehen Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-4

Semiotische Ebenen in der Medieninformatik Für Medien müssen alle semiotischen Ebenen betrachtet werden. Z.B. Wirkung eines Textes abhängig von der grafischen Darstellungsform (Farbe, Größe, Platzierung) Pragmatik (Wirkung) Sender Semantik (Bedeutung) Syntax (Zeichen) Empfänger Kanal (Träger) Für die technische Realisierung sind Eigenschaften des physikalischen Trägers der Repräsentation ebenfalls wesentlich. Z.B. Speicherbedarf, Frequenzspektrum Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-5

Interpretation und Codierung Es gibt Codierungen verschiedener Effizienz für die gleiche Information. Die Informationstheorie betrachtet eine Informationsquelle nach Eigenschaften, die eine bessere (kürzere) Codierung erlauben. Informationsquelle wird durch einen Basiszeichenvorrat mit zusätzlichen Informationen (z.b. Häufigkeitsverteilung) erfasst. V = Identische Information I -1 I A c Bessere (kleinere) Repräsentation B Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-6

Stochastische Informationstheorie: Zeichenvorräte und Codierung Ein Zeichenvorrat ist eine endliche Menge von Zeichen. Eine Nachricht (im Zeichenvorrat A) ist eine Sequenz von Zeichen aus A Seien A und B Zeichenvorräte. Eine Codierung c ist eine Abbildung von Nachrichten in A auf Nachrichten in B. c: A! B* (B* : Zeichenreihen über B) Wir beschränken uns meist auf binäre Codierungen, d.h. B = { 0, 1 } Die Informationstheorie (nach Shannon) befasst sich mit Nachrichtenquellen auf der Ebene der Syntax aus stochastischer Sicht Zeichen und zugehörige Codierung haben immer identische Interpretation A a a b b c c d d B a O L b Beispiel: abca! 00011000 ddc! 111110 Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-7

Einschub: Motivation für Informationstheorie Aufbau eines MPEG-Layer III (MP3) Encoders Details siehe später! PCM Audio Filter- Bank 32 Bänder MDCT Quantisierer Huffman- Codierung FFT 1024 Maskierung Bitstrom- Generator Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-8

Entropie (1) Annahme Stochastische Nachrichtenquelle: Wir kennen die Häufigkeitsverteilung der Zeichen in den Nachrichten. Entscheidungsgehalt (Entropie) der Nachrichtenquelle: Wie viele Ja/Nein-Entscheidungen entsprechen dem Auftreten eines Einzelzeichens? Eine Ja/Nein-Entscheidung = 1 bit Beispiele: Quelle 1 Zeichen a A B C D Häufigk. p a 1 0 0 0 x a 0 - - - p a = Häufigkeit x a = Zahl der Entscheidungen 2 x a = 1/p a Quelle 2 Zeichen a A B C D Häufigk. p a 0.25 0.25 0.25 0.25 x a 2 2 2 2 x a = ld (1/p a ) (Logarithmus zur Basis 2) Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-9

Entropie (2) Durchschnittlicher Entscheidungsgehalt je Zeichen: Entropie H " H = p a ld 1 % $ ' # p a & ) a (A mit x a = ld (1/p a ): H = # a "A p a x a Quelle 1 Zeichen a A B C D Häufigk. p a 1 0 0 0 x a 0 - - - Quelle 2 Zeichen a A B C D Häufigk. p a 0.25 0.25 0.25 0.25 x a 2 2 2 2 Quelle 3 Zeichen a A B C D Häufigk. p a 0.5 0.25 0.125 0.125 x a 1 2 3 3 Entropie ist Maß für Unordnung, Zufälligkeit H = 0 H = 2 H = 1.75 Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-10

Wortlängen und Redundanz Eine (Binär-)Codierung der Nachrichten einer stochastischen Nachrichtenquelle ergibt eine durchschnittliche Wortlänge L. L = # p a c(a) a "A Quelle 2 Zeichen a A B C D Häufigk. p a 0.25 0.25 0.25 0.25 Code c(a) 00 01 10 11 Quelle 3 Zeichen a A B C D Häufigk. p a 0.5 0.25 0.125 0.125 Code c(a) 00 01 10 11 H = 2 L = 2 H = 1.75 L = 2 Redundanz = L H Redundanz ist ein Maß für die Güte der Codierung: möglichst klein! Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-11

Optimale Codierung Eine Codierung ist optimal, wenn die Redundanz 0 ist. Durch geeignete Codierung (z.b. Wortcodierung statt Einzelzeichencodierung) kann man die Redundanz beliebig niedrig wählen. Redundanz ermöglicht andererseits die Rekonstruktion fehlender Nachrichtenteile! B ispi l: Natürlich Sprach Beispiel: Fehlererkennende und -korrigierende Codes (z.b. Paritätsbits) Quelle 3 Zeichen a A B C D Häufigk. p a 0.5 0.25 0.125 0.125 Code c(a) 00 01 10 11 Quelle 3 Zeichen a A B C D Häufigk. p a 0.5 0.25 0.125 0.125 Code c!(a) 0 10 110 111 H = 1.75 L = 2 H = 1.75 L = 1.75 Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-12

2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung Weiterführende Literatur zum Thema Kompression: Taschenbuch Medieninformatik Kapitel 2 Herbert Klimant, Rudi Piotraschke, Dagmar Schönfeld: Informations- und Kodierungstheorie, Teubner 2003 Khalid Sayood: Introduction to Data Compression, 2nd. ed., Morgan Kaufmann 2000 Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-13

Darstellungsräume, Darstellungswerte Jedes (Einzel-)Medium definiert einen Darstellungsraum (= Menge der möglichen Repräsentationen R). Eine konkrete Repräsentation einer Information ist ein Darstellungswert innerhalb des Darstellungsraums. Für Perzeptionsmedien: Ein Darstellungsraum richtet sich an einen bestimmten Sinn des Menschen. Beispiele: Text: Darstellungsraum = Menge aller möglichen Zeichenfolgen Bild: Darstellungsraum = Menge aller möglichen Belegungen der Wiedergabefläche mit Farbinformationen Sprache: Darstellungsraum = (sehr spezifische und komplexe) Teilmenge der möglichen Verteilungen von Luftdruck über die Zeitachse Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-14

Speicherbedarf multimedialer Information Bsp. Schrift Laufschrift (8 bit/zeichen, 40 Zeichen/s): 320 bit/s Bsp. Audio-Signale Sprachsignal niedriger Qualität (Mono, 8 bit, 11 khz): 88 kbit/s CD-Qualität (Stereo, 16 bit, 44,1 khz): 1,4 Mbit/s Bsp. Bilder (9x13cm = 1062x1536 Pixel) Schwarz/weiß (1 bit Farbtiefe): 200 kbyte (1 Byte = 8 bit) TrueColor (24 bit Farbtiefe): 4,9 MByte Bsp. Video (ohne Ton) 720 x 525 Pixel, 25 Bilder/s, 16 bit Farbtiefe: 151,2 Mbit/s 1280 x 720 Pixel, 60 Bilder/s, 24 bit Farbtiefe: 1,32 Gbit/s Kompression der Information ist extrem wichtig! Pixel= Bildpunkt Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-15

Kompressionsverfahren: Übersicht Klassifikationen: Universell vs. speziell (für bestimmte Informationstypen)» Speziell für bestimmte technische Medien (Bild, Ton, Bewegtbild) Verlustfrei vs. Verlustbehaftet In diesem Kapitel: nur universelle & verlustfreie Verfahren Im folgenden vorgestellte Verfahren: Statistische Verfahren:» Huffman-Codierung» Arithmetische Codierung Zeichenorientierte Verfahren:» Lauflängencodierung (RLE Run Length Encoding)» LZW-Codierung Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-16

Grundidee zur Huffman-Codierung Zeichen größerer Häufigkeit werden durch kürzere Codes repräsentiert vgl. Morse-Code Das führt zu einem Code variabler Wortlänge: Kein Codewort darf Anfang eines anderen sein (Fano-Bedingung) In optimalem Code müssen die beiden Symbole der niedrigsten Häufigkeit mit gleicher Länge codiert sein. "Beweis"-Skizze: Wären die Längen verschieden, könnte man das längere Wort bei der Länge des kürzeren abschneiden» Dann sind die beiden Codes verschieden (sonst wäre Fano-Bedingung vorher verletzt gewesen)» Kein anderes Codewort kann länger sein (da Zeichen niedrigster Häufigkeit), also kann die Kürzung nicht die Fano-Bedingung verletzen Dann hätten wir einen neuen Code mit kleinerer durchschnittlicher Wortlänge! Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-17

Huffman-Codierung (1) Gegeben: Zeichenvorrat und Häufigkeitsverteilung Ergebnis: Codierung (optimal, wenn alle Häufigkeiten Kehrwerte von Zweierpotenzen sind) Wiederholte Anwendung dieses Schritts auf die Häufigkeitstabelle: Ersetze die beiden Einträge niedrigster Häufigkeit durch einen Codebaum mit zwei Ästen 0 und L und trage die Summe der Häufigkeiten als Häufigkeit dafür ein. Zeichen A B C D Häufigkeit 0.5 0.25 0.125 0.125 0 1 Zeichen A B C D Häufigkeit 0.5 0.25 0.25 David Huffman 1951 Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-18

Huffman-Codierung (2) 0 1 Zeichen A B C D Häufigkeit 0.5 0.25 0.25 0 1 B 0 1 Zeichen A C D Häufigkeit 0.5 0.5 0 1 A 0 1 B 0 1 C D Resultierender Codebaum Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-19

Huffman-Codierung (3) Eine Nachricht, die sich an die gegebene Häufigkeitsverteilung hält: ababacadaabacdba (Länge = 16 Zeichen) Codierung mit festen Wortlängen (z.b. a = 00, b = 01, c = 10, d = 11) Länge 32 bit Huffman-Codierung ( a = 0, b = 10, c = 110, d = 111) 0100100110011100100110111100 Länge 28 bit (d.h. ca. 12.5% Reduktion) Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-20

Experiment: Huffman-Kompression von Bildern Grautonbild, 256 x 256 Pixel, 8 bit (d.h. 256 Graustufen) Unkomprimiert: 65.536 Bytes Mit Huffman kodiert: 40.543 Bytes ca. 38% Reduktion Einfacher "Zusatztrick": Differenz zwischen benachbarten Pixeln speichern und Huffman dann anwenden 33.880 Bytes ca. 51% Reduktion Keine universelle Kompression mehr, sondern speziell für Pixelbilder Solche "semantischen Kodierungen" siehe später! Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/2008 2-21