Prof. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert.

Ähnliche Dokumente
Formelsammlung. Wahrscheinlichkeit und Information

Grundlagen Digitaler Systeme (GDS)

Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.

Grundlagen der Technischen Informatik. 2. Übung

Theoretische Grundlagen der Informatik WS 09/10

Single Parity check Codes (1)

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau

2 Informationstheorie

Übung zur Vorlesung. Informationstheorie und Codierung

Angewandte Informationstechnik

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1

Empfänger. Sender. Fehlererkennung und ggf. Fehlerkorrektur durch redundante Informationen. Längssicherung durch Paritätsbildung (Blockweise)

3 Codierung Code-Sicherung Stellendistanz und Hamming-Distanz Codierung

Signalübertragung und -verarbeitung

2. Lernen von Entscheidungsbäumen

Kodierung. Kodierung von Zeichen mit dem ASCII-Code

Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011

15 Optimales Kodieren

Code-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg

Quellen- und Leitungskodierung. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 132

3. Informationsdarstellung

Mathematische Grundlagen III

3 Quellencodierung. 3.1 Einleitung

2. Digitale Codierung und Übertragung

A1.7: Entropie natürlicher Texte

6 Fehlerkorrigierende Codes

Der Huffman Algorithmus

Lineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19

Codierung, Codes (variabler Länge)

Codierungstheorie. Code-Arten und Code-Sicherung

Die allerwichtigsten Raid Systeme

Information in einem Computer ist ein

Kapitel 4 Leitungscodierung

Modulation. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 104

KANALCODIERUNG AUFGABEN. Aufgabe 1. Aufgabe 2

Trainingsaufgaben zur Klausurvorbereitung in Statistik I und II Thema: Satz von Bayes

Einführung in Kompressionstechniken

Kapitel 3: Etwas Informationstheorie

Thema: Hamming-Codes. Titelblatt anonymisiert

Run Length Coding und Variable Length Coding

Grundlagen der Informatik III Wintersemester 2010/2011

4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140

Einführung in die Computerlinguistik Statistische Grundlagen

Einführung in die Kodierungstheorie

Decodierung von Faltungscode- und Turbocode-basierten 2D-Barcodes unter Ausnutzung des Matched-Filter Ansatzes

Übung 1: Quellencodierung

Blockweise und symbolweise Codierung

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

Allgemeine Beschreibung von Blockcodes

0 Im folgenden sei die Wortlänge gleich 8 (d. h.: es wird mit Bytes gearbeitet).

JKU Young Scientists Matheseminar

Binär-Codes. Informationen zu Grundlagen digitaler Systeme (GDS) 1 Codes. 2 Binärcodes Bit-Codes Bit-Codes (Tetradencodes)

Algorithmen zur Integer-Multiplikation

Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi

Grundbegriffe der Informatik

Vorkurs Mathematik für Informatiker 3 Logarithmen

Einführung in die Informatik und Medieninformatik

Grundlagen Anwendungen Quellen. Steganographie. Ingo Blechschmidt, Michael Hartmann LUGA. 4. Oktober 2006

Fakten statt Bauchgefühl: RAID Mathematik für Admins

3 Sicherheit von Kryptosystemen

Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* aller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt:

Informationssicherheit - Lösung Blatt 2

(H ist Entropie) bei Redundanz Information vielleicht mehrfach. Redundanz zur Fehlererkennung und -korrektur nutzbar

Ein (7,4)-Code-Beispiel

Netzwerke - Bitübertragungsschicht (1)

Maschinelles Lernen. Kapitel 5

6 Mehrstufige zufällige Vorgänge Lösungshinweise

Vorlesung - Medizinische Biometrie

Motivation. Jede Messung ist mit einem sogenannten Fehler behaftet, d.h. einer Messungenauigkeit

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining

Willkommen zur Vorlesung Statistik (Master)

Speichermedien, Datensicherheit und RAID. Valerie Haselbek Ton-Seminar SS 05 Matrikel-Nr.: 12322

Synchronisierung. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 73

Codes (1) Beispiele für die Bedeutung eines n-bit-wortes:

Bedingte Wahrscheinlichkeit

Modul 114. Zahlensysteme

Übung 13: Quellencodierung

Weniger ist mehr. Funktion eines Triggers. Messen + Testen

Künstliche Intelligenz Maschinelles Lernen

Serielle Datenauswertung

Mathematik für Information und Kommunikation

Approximationsalgorithmen

Codierungstheorie Rudolf Scharlau, SoSe

Modul IP7: Rechnerstrukturen

Kodierungsalgorithmen

Mathematik ist überall

Datensicherung Richard Eier

Fehlerkorrektur in der Datenübertragung

Universität Koblenz-Landau, Abteilung Koblenz FB 4 Informatik. Seminar Entscheidungsverfahren für logische Theorien. Endliche Modelle.

Überblick über die Vorlesung. 4 Ausgewählte Schutzmaßnahmen Personelle Maßnahmen

Die Schicht unterhalb von GSM/UMTS, DSL, WLAN & DVB

Schriftliche Prüfungsarbeit zum mittleren Schulabschluss 2011 im Fach Mathematik. 18. Mai 2011

Zahlendarstellungen und Rechnerarithmetik*

Kybernetik Systemidentifikation

Hauptdiplomklausur Informatik Juni 2008: Computer Networks

Transkript:

Audiotechnik II Digitale Audiotechnik: 8. Tutorium Prof. Dr. Stefan Weinzierl 9.2.23 Musterlösung: 9. Dezember 23, 8:34 Fehlerkorrektur II Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert. a) Wird bei einer Paritätsprüfung das empfangene Kodewort als fehlerfrei klassifiziert? Je nach Paritäts-Typ würde dieses Wort als gültig oder ungültig erkannt werden. Bei der häufiger anzutreffenden even parity wird das angefügte Prüfbit so gewählt, dass die Anzahl der Einsen im Gesamtwort (9-bit) gerade ist. Für diesen Fall wäre unser Kodewort gültig, auch wenn wir damit die (geringe) Restfehlerwahrscheinlichkeit, dass genau 2, 4, 6 oder gar 8 Bit fehlerhaft sind, außer Acht lassen. Bei odd parity würde das Kodewort als fehlerhaft erkannt werden. JA für even parity NEIN für odd parity Ein Nachteil einfacher Paritätskodes ist, dass nur eine ungeradzahlige Anzahl von fehler-haften Bits erkannt wird. Zudem können diese nicht korrigiert werden, da durch den Paritätscheck nur erkannt wird, dass ein Fehler existiert, nicht aber wo er sich befindet. b) Wie groß ist die Wahrscheinlichkeit einer falschen Klassifizierung, wenn in dem so kodierten Kanal Bitfehler (random bit errors) mit einer Bit Error Rate (BER) von 3 auftreten? Die Wahrscheinlichkeit einer falschen Klassifizierung, d.h. der fälschlichen Akzeptanz eines fehlerhaften Kodewortes durch die Paritätsprüfung kann man mithilfe der Bernoulllischen Formel zur Binominalverteilung berechnen. p k = ( ) n p k ( p) n k k, mit ( ) n = k n! k!(n k)! Sie gibt die Wahrscheinlichkeit an, dass bei einem n mal wiederholten Zufallsexperiment (n voneinander unabhängigen Einzelversuche) das Ereignis A mit der Wahrscheinlichkeit p genau k mal auftritt. Im Kontext der Bitfehlerbetrachtung ist dabei A: Auftreten eines fehlerhaften Bits n = 9 Bit bzw. 9 Versuche je Kodewort k: Anzahl fehlerhafter Bits (Ereignisse) pro Kodewort (Versuchsreihe n) p: Auftretenswahrscheinlichkeit eines Bitfehlers Der Term p k beschreibt die Wahrscheinlichkeit, dass genau k Bits fehlerhaft sind (multiplikative Verknüpfung der Wahrscheinlichkeiten konjunkter Ereignisse: p tot = p(a)p(b)). Der Term ( p) n k beschreibt die Wahrscheinlichkeit, dass die restlichen n k Bits fehlerfrei sind. Die Konjunktivität (Gleichzeitigkeit) der zwei beschriebenen Zustände verlangt die multiplikative Zusammenfassung der zwei Terme. Der Term ( n k) beschreibt die Gesamtanzahl aller verschiedenen Anordnungen von k fehlerhaften Bits in einem n-stelligen Kodewort (Fehlermuster) und muss mit den beiden anderen Termen multipliziert werden. Um nun die Wahrscheinlichkeit für Falschklassifikation bei Paritätskanalcodierung zu bestimmen, muss man sich zuerst klarmachen, welche Fehler zur Falschakzeptanz eines Kodeworts führen. Die

Paritätsprüfung erkennt dann Fehler nicht, wenn sie geradzahlig d.h. 2-, 4-, 6-, 8-fach usw. auftreten. Die Kodewortfehlerwahrscheinlichkeit ergibt sich nach dem Additionstheorem für disjunkte Ereignisse (p tot = p(a) + p(b)) als Summe der Einzelwahrscheinlichkeiten: p Kodewortfehler = p 2 F ehler + p 4 F ehler + p 6 F ehler + p 8 F ehler Man berechnet also die Auftretenswahrscheinlichkeiten p aller Bitfehlermuster, die von der Paritätsprüfung nicht erkannt werden und summiert diese zur Gesamtfehlerwahrscheinlichkeit auf. p Kodewortfehler = p k k = {2, 4, 6, 8} k ( ) 9 p Kodewortfehler = ( 3 2 3) ( ) 7 9 + ( 3 4 3) 5 2 4 ( ) 9 + ( 3 6 3) ( ) 3 9 + ( 3 8 3) 7 6 8 p Kodewortfehler = 3.57 5 +.25 + 8.37 7 + 8.99 24 p Kodewortfehler = 3.57 5 2 Informationstheorie und Entropiekodierung Bei der Entropiekodierung werden die Kodewortlängen in Abhängigkeit der Auftretenswahrscheinlichkeit der Quellenzeichen variiert, wobei Redundanzen im Signal ausgenutzt werden. Die mittlere Kodewortlänge sollte dabei im Idealfall der Entropie entsprechen, so dass die Redundanz minimal ist. a) Erläutern Sie die der Entropiekodierung zugrundeliegenden Begriffe des Informationsgehaltes, der Entropie, der Mittleren Kodewortlänge und der Redundanz im Sinne der Informationstheorie. Geben Sie jeweils die Berechnungsvorschrift und ein Beispiel aus dem Audiobereich an. Der Informationsgehalt H i ist ein Maß für die Unbestimmtheit eines Ereignisses bzw. Zeichens. Je kleiner die Wahrscheinlichkeit eines Zeichens (Audio: Amplitude), desto größer ist H i. H i = log 2 (p i ) [bit/zeichen] mit p i = Auftretenswahrscheinlichkeit eines Zeichen Die Entropie H m ist der mittlere Informationsgehalt einer Quelle (Audio: Signal) und gibt die minimale Anzahl Bits je Symbol an, mit der die Quelle eindeutig kodiert werden kann. Sie ist maximal, wenn die Auftretenswahrscheinlichkeiten aller Amplituden gleich sind (z.b. weißes Rauschen) und minimal (= ), wenn es nur eine Amplitude (Gleichspannung) mit der Wahrscheinlichkeit gibt. H m = H i p i [bit/zeichen] i= Die mittlere Kodewortlänge l m ergibt sich aus den einzelnen Kodewortlängen, sowie ihren Auftretenswahrscheinlichkeiten: l m = l i p i [bit/zeichen] i= 2

Im falle einer 6 bit Kodierung eines Audiosignals im Zweier-Komplementär wäre l m = 6 bit/zeichen, da jedes Kodewort die selbe Länge hat und sich die Auftretenswahrscheinlichkeiten zu summieren. Die Redundanz ist durch die Differenz von mittlerer Kodewortlänge und Entropie gegeben R = l m H m [bit/zeichen]. b) Lesen Sie das Audiofile test.wav in Matlab ein und requantisieren Sie es auf eine Wortbreite von w = 3 bit. Benutzen Sie dafür eine Midtread-Kennlinie. %% b) y = mean(wavread('test.wav'), 2); % Quantisierung mit Funktion aus Tutorium 4 w = 3; [y, ~, ~, codebook] = xquant(y, w, 'mid tread', 'none'); c) Wie ist die Auftretenswahrscheinlichkeiten der 2 w Kodewörter im Quellkode? %% c) % Zaehle die Haeufigkeit der Amplituden je Quantisierungsstufe hf = hist(y,codebook); % Kodewortwahrscheinlichkeiten p_i p_i = hf/sum(hf) % Kontrolle: (Summe der p_i muss ergeben) W_ges = sum(p_i) hist(y,codebook) set(gca, 'xtick', codebook, 'xticklabel', 4:3) Die 2 3 = 8 Kodeworte und ihre gemessenen Auftretenswahrscheinlichkeiten: Quellzeichen x 4 x 3 x 2 x x x x 2 x 3 p i..29.32.934.7643.49.9.22 3

2.5 x 5 2.5.5 4 3 2 2 3 Abbildung : Absolute Häufigkeiten der Amplitdudenstufen d) Wie groß ist die Quellenentropie in bit/quellenzeichen? H i = ld p i H m = p i H i =.632 bit/zeichen i= %% d) % Bestimme den Informationsgehalt je Zeichen H_i H_i = log2(p_i); % danach die Entropie H_m: H_m = sum(p_i.*h_i) e) Konstruieren Sie für diese Quelle Optimalkode nach dem Huffman-Verfahren. Eigenschaften von Huffman-Kodes: - Je größer die Auftretenswahrscheinlichkeit eines Kodeworts, desto kürzer ist seine Länge l i. - Präfixeigenschaft: Es beginnt kein Kodewort mit der Bitfolge eines anderen, kürzeren Kodewortes. - Redundanz, nur dann optimal (= ), wenn p i = 2 n Quellzeichen x 4 x 3 x 2 x x x x 2 x 3 p i..29.32.934.7643.49.9.22 Kodewort Hinweis: Ein gut beschriebenes Beispiel für die Erstellung eines Huffmann-Codes finden Sie z.b. hier: http: // www. iti. fh-flensburg. de/ lang/ algorithmen/ code/ huffman/ huffman. htm 4

.2357.28.23.52.42.274 p 3 p 2 p 4 p 3 p 2 p p..22.29.9.32.934.49.7634 p 5

f) Welche mittlere Kodewortlänge ergibt sich aus dem erstellten Kode? Vergleichen Sie die Koderedundanz des Huffman-Kodes mit der eines gleichmäßigen 3-bit-Kodes. Die Mittlere Kodewortlänge berechnet sich aus Kodewortlänge und Auftretenswahrscheinlichkeit der Kodewörter. l m = p i l i =.456 bit/zeichen i= %% f) % mittele Kodewortl?nge des Huffman Kodes: l_i = [7 6 4 3 2 5 7]; l_m = sum(p_i.*l_i) Als Redundanz bezeichnet man die Differenz zwischen der mittleren Kodewortlänge und der Entropie. Koderedundanz des Huffman-Kodes R k, Huffman = l m H m =.456.632 =.2424 bit/zeichen Koderedundanz des gleichmäßigen Kodes R k, 3 bit = l m H m = 3.632 =.8368 bit/zeichen g) Wie groß ist der auf diese Weise erzielte Kompressionsfaktor, d.h. um welchen Faktor ist die mittlere Kodewortlänge des Huffman-Kodes geringer als die des ursprünglichen Quellkodes? c = l 3 bit = 3 l Huffman.456 = 2.3 6