Musterlösung: 11. Dezember 2014, 10:43. Informationstheorie und Entropiekodierung

Ähnliche Dokumente
Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele

15 Optimales Kodieren

Signalübertragung und -verarbeitung

2 Informationstheorie

Proseminar WS 2002/2003

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.

Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg

3. Informationsdarstellung

1.3 Digitale Audiosignale

Hauptdiplomklausur Informatik August 2007: Multimedia Technology

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Hardware-kompatible Messdatenkomprimierung. Benjamin Steinwender, MSc KAI Kompetenzzentrum Automobilund Industrie-Elektronik GmbH, 9500 Villach

Übung zur Vorlesung. Informationstheorie und Codierung

Formelsammlung. Wahrscheinlichkeit und Information

2. Digitale Codierung und Übertragung

Übung 1: Quellencodierung

Modulation. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 104


CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

Statistische Kenngrößen. Histogramm. Grundlagen zur statistischen Signalverarbeitung. Statistische Beschreibung von Audio


(Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!)

Kodierung. Kodierung von Zeichen mit dem ASCII-Code

Übung 13: Quellencodierung

Grundlagen Anwendungen Quellen. Steganographie. Ingo Blechschmidt, Michael Hartmann LUGA. 4. Oktober 2006

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

2.4 Darstellung von Zeichen(ketten)

Audio Codecs. Vortrag im Seminar. Digital Audio. Sebastian Kraatz. 15. Dezember 2004

Mathematische Grundlagen III

A1.7: Entropie natürlicher Texte

Codierungstheorie Rudolf Scharlau, SoSe

Einführung in Kompressionstechniken

Informationstheorie als quantitative Methode in der Dialektometrie

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?

Allgemeine Beschreibung von Blockcodes

Digitale Bilder für das Chronik-Archiv

Lage- und Streuungsparameter

MATLAB Kurs 2010 Teil 2 Eine Einführung in die Frequenzanalyse via MATLAB

(H ist Entropie) bei Redundanz Information vielleicht mehrfach. Redundanz zur Fehlererkennung und -korrektur nutzbar

JKU Young Scientists Matheseminar


Kapitel 3: Etwas Informationstheorie

Grundlagen der Videotechnik. Redundanz

3 Sicherheit von Kryptosystemen

Multimediale Werkzeuge, Audio: Formate, Tools. -Sound/Audio Objekte. Formate, Beispiele:

2 Mengen und Abbildungen

Lineare Gleichungssysteme

Sinneswahrnehmungen des Menschen

Kapitel 4 Leitungscodierung

Eigenschaften von Kompressionsverfahren

Quellen- und Leitungskodierung. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 132

3 Quellencodierung. 3.1 Einleitung

Pulse Code Modulation

A2.3: Sinusförmige Kennlinie

Netzwerke - Bitübertragungsschicht (1)

Automaten, Spiele, und Logik

Digitale Bildverarbeitung (DBV)

Motivation. Jede Messung ist mit einem sogenannten Fehler behaftet, d.h. einer Messungenauigkeit

Digitale Bildverarbeitung Einheit 5 Bilder und Statistik

Qualitätskriterien digitaler Bilder im Langzeitarchiv! KOST Veranstaltung in Bern vom Dr. Peter Fornaro

Begriffe aus der Informatik Nachrichten

Der Huffman Algorithmus

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate

Kodierung. Kodierung von Zeichen mit dem ASCII-Code

Digitalisierung. analoges Signal PAM. Quantisierung

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate

2. Digitale Codierung und Übertragung

Codierung, Codes (variabler Länge)

Digitale Signalbearbeitung und statistische Datenanalyse

Berechnung von digitalen Signalen. Jonathan Harrington

Kompakte Graphmodelle handgezeichneter Bilder

Lineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19

Information und Wissen

Adaptive Systeme. Sommersemester Prof. Dr. -Ing. Heinz-Georg Fehn. Prof. Dr. rer. nat. Nikolaus Wulff

Elektrische Messtechnik, Labor Sommersemester 2014

Modulationsverfahren

Industrial Engineering (Arbeitswissenschaft I / Betriebsorganisation)

Übung 3: Einfache Graphiken und Näherungen durch Regression

Werkstoffkunde II - 2. Übung

Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure

Forschungsstatistik I

Kompakte Graphmodelle handgezeichneter Bilder. Einbeziehung in Autentizierung und Bilderkennung

Wichtige Eigenschaft: zeitliche Abnahme der Schallintensität. Akustische Ereignisse sind zeitliche Phänomene mit Anfang und Ende

Viel Spaÿ! Aufgabe 0.1. Laufzeit unter Verdoppelung (-)

Vorkurs Mathematik für Informatiker 3 Logarithmen

Codes und Informationsgehalt

Codierungstheorie. Code-Arten und Code-Sicherung

Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011

P2-61: Operationsverstärker

P1-53,54,55: Vierpole und Leitungen

Proseminar Kompressionsalgorithmen am Beispiel Mp3

Run Length Coding und Variable Length Coding

Elektrotechnik II: Kolloquium 4

Wichtige Eigenschaft: zeitliche Abnahme der Schallintensität. Akustische Ereignisse müssen Jetzt oder Nie gehört werden

Transkript:

Audiotechnik II Digitale Audiotechnik: 8. Übung Prof. Dr. Stefan Weinzierl 11.12.2014 Musterlösung: 11. Dezember 2014, 10:43 Informationstheorie und Entropiekodierung Bei der Entropiekodierung werden die Kodewortlängen in Abhängigkeit der Auftrittswahrscheinlichkeit der Quellenzeichen variiert, wobei Redundanzen im Signal ausgenutzt werden. Die mittlere Kodewortlänge sollte dabei im Idealfall der Entropie entsprechen, so dass die Redundanz verschwindet. a) Erläutern Sie die der Entropiekodierung zugrunde liegenden Begrie des Informationsgehaltes, der Entropie, der mittleren Kodewortlänge und der Redundanz im Sinne der Informationstheorie. Geben Sie jeweils die Berechnungsvorschrift an. Der Informationsgehalt I i ist ein Maÿ für die Unbestimmtheit eines Ereignisses bzw. Zeichens. Je kleiner die Wahrscheinlichkeit eines Zeichens (Audio: Amplitude), desto gröÿer ist I i. I i = log 2 (p i ) [bit/zeichen] mit p i = Auftrittswahrscheinlichkeit eines Zeichen Die Entropie H m ist der mittlere Informationsgehalt einer Quelle (Audio: Signal) und gibt die minimale Anzahl Bits je Symbol an, mit der die Quelle eindeutig kodiert werden kann. Sie ist maximal, wenn die Auftrittswahrscheinlichkeiten aller Amplituden gleich sind (z.b. weiÿes Rauschen) und minimal (= 0), wenn es nur eine Amplitude (Gleichspannung) mit der Wahrscheinlichkeit 1 gibt. H m = I i p i [bit/zeichen] Die mittlere Kodewortlänge l m ergibt sich aus den einzelnen Kodewortlängen sowie ihren Auftrittswahrscheinlichkeiten: l m = l i p i [bit/zeichen] Im Falle einer 16-bit-Kodierung eines Audiosignals im Zweier-Komplement wäre l m = 16 bit/zeichen, da jedes Kodewort die selbe Länge hat und sich die Auftrittswahrscheinlichkeiten zu 1 summieren. Die Redundanz ist durch die Dierenz von mittlerer Kodewortlänge und Entropie gegeben R = l m H m [bit/zeichen]. b) Lesen Sie die Audiodatei music.wav in Matlab ein, und requantisieren Sie das Signal auf eine Wortbreite von w = 3 bit. Benutzen Sie dafür eine mid-tread-kennlinie. Wandeln Sie das Stereosignal als erstes in ein Monosignal um, dessen Amplituden aus dem momentanen Mittelwert der Amplituden der beiden Stereokanäle bestehen. 1

%% b) y = mean( wavread('music.wav'), 2 ); % Quantisierung mit Funktion aus Tutorium 4 w = 3; [y, ~, codebook, ~ ] = xquant(y, w, 'mid-tread', 'none'); c) Wie sind die Auftrittswahrscheinlichkeiten der 2 w Kodewörter im Quellkode? %% c) % Zaehle die Haeufigkeit der Amplituden je Quantisierungsstufe hf = hist(y,codebook); % Kodewortwahrscheinlichkeiten p_i p_i = hf/sum(hf) % Kontrolle: (Summe der p_i muss 1 ergeben) W_ges = sum(p_i) hist(y,codebook) set(gca, 'xtick', codebook, 'xticklabel', -4:3) Die 2 3 = 8 Kodewörter und ihre gemessenen Auftrittswahrscheinlichkeiten: Quellzeichen x 4 x 3 x 2 x 1 x 0 x 1 x 2 x 3 p i 0.0001 0.0029 0.0132 0.0934 0.7643 0.1149 0.009 0.0022 2.5 x 105 2 1.5 1 0.5 0 4 3 2 1 2 3 Abbildung 1: Absolute Häugkeiten der Amplitudenstufen d) Wie groÿ ist die Quellenentropie in bit/quellenzeichen? 2

I i = ld 1 p i H m = p i I i = 1.1632 bit/zeichen %% d) % Bestimme den Informationsgehalt je Zeichen I_i I_i = -log2(p_i); % danach die Entropie H_m: H_m = sum(p_i.*i_i) e) Konstruieren Sie manuell für diese Quelle den Optimalkode nach dem Human-Verfahren. Eigenschaften von Human-Kodes: - Je gröÿer die Auftrittswahrscheinlichkeit eines Kodewortes, desto kürzer ist seine Länge l i. - Präxeigenschaft: Es beginnt kein Kodewort mit der Bitfolge eines anderen, kürzeren Kodewortes. - Redundanz, nur dann optimal (= 0), wenn p i = 2 n 3

1,000 0,2357 0,7643 0,1149 0,1208 0,0274 0,0934 0,0132 0,0142 0,0052 0,009 0,0023 0,0029 0,0001 0,0022 Quellzeichen x 4 x 3 x 2 x 1 x 0 x 1 x 2 x 3 p i 0.0001 0.0029 0.0132 0.0934 0.7643 0.1149 0.009 0.0022 Kodewort 0101000 010101 0100 011 1 00 01011 0101001 Hinweis: Eine anschauliche Anleitung für die Erstellung eines Humann-Kodes nden Sie z.b. hier: http: // www. iti. fh-flensburg. de/ lang/ algorithmen/ code/ huffman/ huffman. htm f) Welche mittlere Kodewortlänge ergibt sich aus dem erstellten Kode? Vergleichen Sie die Koderedundanz des Human-Kodes mit der eines Kodes mit einer festen Länge von 3 bits ( gleichmäÿiger Kode). Die mittlere Kodewortlänge berechnet sich aus Kodewortlänge und Auftrittswahrscheinlichkeit der Kodewörter. l m = p i l i = 1.4056 bit/zeichen 4

%% f) % mittele Kodewortlaenge des Huffman-Kodes: % x_-4... x_3 l_i = [ 7 6 4 3 1 2 5 7 ]; l_m = sum(p_i.*l_i) Als Redundanz bezeichnet man die Dierenz zwischen der mittleren Kodewortlänge und der Entropie. Koderedundanz des Human-Kodes R k, Huffman = l m H m = 1.4056 1.1632 = 0.2424 bit/zeichen Koderedundanz des Kodes konstanter Länge R k, 3 bit = l m H m = 3 1.1632 = 1.8368 bit/zeichen g) Wie groÿ ist der auf diese Weise erzielte Kompressionsfaktor, d.h. um welchen Faktor ist die mittlere Kodewortlänge des Human-Kodes geringer als die des ursprünglichen Quellkodes? c = l 3 bit = 3 l Huffman 1.4056 = 2.13 5