Musterlösung: 11. Dezember 2014, 10:43. Informationstheorie und Entropiekodierung

Größe: px
Ab Seite anzeigen:

Download "Musterlösung: 11. Dezember 2014, 10:43. Informationstheorie und Entropiekodierung"

Transkript

1 Audiotechnik II Digitale Audiotechnik: 8. Übung Prof. Dr. Stefan Weinzierl Musterlösung: 11. Dezember 2014, 10:43 Informationstheorie und Entropiekodierung Bei der Entropiekodierung werden die Kodewortlängen in Abhängigkeit der Auftrittswahrscheinlichkeit der Quellenzeichen variiert, wobei Redundanzen im Signal ausgenutzt werden. Die mittlere Kodewortlänge sollte dabei im Idealfall der Entropie entsprechen, so dass die Redundanz verschwindet. a) Erläutern Sie die der Entropiekodierung zugrunde liegenden Begrie des Informationsgehaltes, der Entropie, der mittleren Kodewortlänge und der Redundanz im Sinne der Informationstheorie. Geben Sie jeweils die Berechnungsvorschrift an. Der Informationsgehalt I i ist ein Maÿ für die Unbestimmtheit eines Ereignisses bzw. Zeichens. Je kleiner die Wahrscheinlichkeit eines Zeichens (Audio: Amplitude), desto gröÿer ist I i. I i = log 2 (p i ) [bit/zeichen] mit p i = Auftrittswahrscheinlichkeit eines Zeichen Die Entropie H m ist der mittlere Informationsgehalt einer Quelle (Audio: Signal) und gibt die minimale Anzahl Bits je Symbol an, mit der die Quelle eindeutig kodiert werden kann. Sie ist maximal, wenn die Auftrittswahrscheinlichkeiten aller Amplituden gleich sind (z.b. weiÿes Rauschen) und minimal (= 0), wenn es nur eine Amplitude (Gleichspannung) mit der Wahrscheinlichkeit 1 gibt. H m = I i p i [bit/zeichen] Die mittlere Kodewortlänge l m ergibt sich aus den einzelnen Kodewortlängen sowie ihren Auftrittswahrscheinlichkeiten: l m = l i p i [bit/zeichen] Im Falle einer 16-bit-Kodierung eines Audiosignals im Zweier-Komplement wäre l m = 16 bit/zeichen, da jedes Kodewort die selbe Länge hat und sich die Auftrittswahrscheinlichkeiten zu 1 summieren. Die Redundanz ist durch die Dierenz von mittlerer Kodewortlänge und Entropie gegeben R = l m H m [bit/zeichen]. b) Lesen Sie die Audiodatei music.wav in Matlab ein, und requantisieren Sie das Signal auf eine Wortbreite von w = 3 bit. Benutzen Sie dafür eine mid-tread-kennlinie. Wandeln Sie das Stereosignal als erstes in ein Monosignal um, dessen Amplituden aus dem momentanen Mittelwert der Amplituden der beiden Stereokanäle bestehen. 1

2 %% b) y = mean( wavread('music.wav'), 2 ); % Quantisierung mit Funktion aus Tutorium 4 w = 3; [y, ~, codebook, ~ ] = xquant(y, w, 'mid-tread', 'none'); c) Wie sind die Auftrittswahrscheinlichkeiten der 2 w Kodewörter im Quellkode? %% c) % Zaehle die Haeufigkeit der Amplituden je Quantisierungsstufe hf = hist(y,codebook); % Kodewortwahrscheinlichkeiten p_i p_i = hf/sum(hf) % Kontrolle: (Summe der p_i muss 1 ergeben) W_ges = sum(p_i) hist(y,codebook) set(gca, 'xtick', codebook, 'xticklabel', -4:3) Die 2 3 = 8 Kodewörter und ihre gemessenen Auftrittswahrscheinlichkeiten: Quellzeichen x 4 x 3 x 2 x 1 x 0 x 1 x 2 x 3 p i x Abbildung 1: Absolute Häugkeiten der Amplitudenstufen d) Wie groÿ ist die Quellenentropie in bit/quellenzeichen? 2

3 I i = ld 1 p i H m = p i I i = bit/zeichen %% d) % Bestimme den Informationsgehalt je Zeichen I_i I_i = -log2(p_i); % danach die Entropie H_m: H_m = sum(p_i.*i_i) e) Konstruieren Sie manuell für diese Quelle den Optimalkode nach dem Human-Verfahren. Eigenschaften von Human-Kodes: - Je gröÿer die Auftrittswahrscheinlichkeit eines Kodewortes, desto kürzer ist seine Länge l i. - Präxeigenschaft: Es beginnt kein Kodewort mit der Bitfolge eines anderen, kürzeren Kodewortes. - Redundanz, nur dann optimal (= 0), wenn p i = 2 n 3

4 1,000 0,2357 0,7643 0,1149 0,1208 0,0274 0,0934 0,0132 0,0142 0,0052 0,009 0,0023 0,0029 0,0001 0,0022 Quellzeichen x 4 x 3 x 2 x 1 x 0 x 1 x 2 x 3 p i Kodewort Hinweis: Eine anschauliche Anleitung für die Erstellung eines Humann-Kodes nden Sie z.b. hier: http: // www. iti. fh-flensburg. de/ lang/ algorithmen/ code/ huffman/ huffman. htm f) Welche mittlere Kodewortlänge ergibt sich aus dem erstellten Kode? Vergleichen Sie die Koderedundanz des Human-Kodes mit der eines Kodes mit einer festen Länge von 3 bits ( gleichmäÿiger Kode). Die mittlere Kodewortlänge berechnet sich aus Kodewortlänge und Auftrittswahrscheinlichkeit der Kodewörter. l m = p i l i = bit/zeichen 4

5 %% f) % mittele Kodewortlaenge des Huffman-Kodes: % x_-4... x_3 l_i = [ ]; l_m = sum(p_i.*l_i) Als Redundanz bezeichnet man die Dierenz zwischen der mittleren Kodewortlänge und der Entropie. Koderedundanz des Human-Kodes R k, Huffman = l m H m = = bit/zeichen Koderedundanz des Kodes konstanter Länge R k, 3 bit = l m H m = = bit/zeichen g) Wie groÿ ist der auf diese Weise erzielte Kompressionsfaktor, d.h. um welchen Faktor ist die mittlere Kodewortlänge des Human-Kodes geringer als die des ursprünglichen Quellkodes? c = l 3 bit = 3 l Huffman =

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,

Mehr

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen 1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte

Mehr

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung

Mehr

15 Optimales Kodieren

15 Optimales Kodieren 15 Optimales Kodieren Es soll ein optimaler Kodierer C(T ) entworfen werden, welcher eine Information (z.b. Text T ) mit möglichst geringer Bitanzahl eindeutig überträgt. Die Anforderungen an den optimalen

Mehr

Signalübertragung und -verarbeitung

Signalübertragung und -verarbeitung ILehrstuhl für Informationsübertragung Schriftliche Prüfung im Fach Signalübertragung und -verarbeitung 6. Oktober 008 5Aufgaben 90 Punkte Hinweise: Beachten Sie die Hinweise zu den einzelnen Teilaufgaben.

Mehr

2 Informationstheorie

2 Informationstheorie 2 Informationstheorie Formale Grundlagen der Informatik I Herbstsemester 2012 Robert Marti Vorlesung teilweise basierend auf Unterlagen von Prof. emer. Helmut Schauer Grundbegriffe Informatik (IT: Information

Mehr

Proseminar WS 2002/2003

Proseminar WS 2002/2003 Technische Universität Chemnitz Fakultät für Informatik Professur Theoretische Informatik Proseminar WS 2002/2003 Thema: Datenkompression Dynamisches / Adaptives Huffman-Verfahren Danny Grobe Rainer Kuhn

Mehr

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Codierung Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Ein bisschen Informationstheorie Betrachten wir das folgende Problem: Wie lautet eine sinnvolle Definition für das quantitative

Mehr

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester

Mehr

Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg

Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg Vortrag am 25. Januar 200 Werner von Siemens Gymnasium Magdeburg Zeitansatz: 5h (inklusive Programmieraufgaben) Datenkompression Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg

Mehr

3. Informationsdarstellung

3. Informationsdarstellung Fakultät Informatik Institut Systemarchitektur Professur Datenschutz und Datensicherheit WS 204/205 3. Informationsdarstellung Dr.-Ing. Elke Franz Elke.Franz@tu-dresden.de 3 Informationsdarstellung Bitfolgen

Mehr

1.3 Digitale Audiosignale

1.3 Digitale Audiosignale Seite 22 von 86 Abb. 1.2.12 - Wirkung der Schallverzögerung Effekte sind: Delay, Echo, Reverb, Flanger und Chorus Hört man ein akustisches Signal im Raum, dann werden die Signale von Wänden und anderen

Mehr

Hauptdiplomklausur Informatik August 2007: Multimedia Technology

Hauptdiplomklausur Informatik August 2007: Multimedia Technology Universität Mannheim Fakultät für Mathematik und Informatik Lehrstuhl für Praktische Informatik IV Prof. Dr.-Ing. W. Effelsberg Hauptdiplomklausur Informatik August 2007: Multimedia Technology Name: Matrikel-Nr.:

Mehr

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1 Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)

Mehr

Hardware-kompatible Messdatenkomprimierung. Benjamin Steinwender, MSc KAI Kompetenzzentrum Automobilund Industrie-Elektronik GmbH, 9500 Villach

Hardware-kompatible Messdatenkomprimierung. Benjamin Steinwender, MSc KAI Kompetenzzentrum Automobilund Industrie-Elektronik GmbH, 9500 Villach Hardware-kompatible Messdatenkomprimierung für LabVIEW FPGA Benjamin Steinwender, MSc KAI Kompetenzzentrum Automobilund Industrie-Elektronik GmbH, 9500 Villach Agenda Leistungshalbleiter & Stresstest Systeme

Mehr

Übung zur Vorlesung. Informationstheorie und Codierung

Übung zur Vorlesung. Informationstheorie und Codierung Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.

Mehr

Formelsammlung. Wahrscheinlichkeit und Information

Formelsammlung. Wahrscheinlichkeit und Information Formelsammlung Wahrscheinlichkeit und Information Ein Ereignis x trete mit der Wahrscheinlichkeit p(x) auf, dann ist das Auftreten dieses Ereignisses verbunden mit der Information I( x): mit log 2 (z)

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München Prof. Hußmann

Mehr

Übung 1: Quellencodierung

Übung 1: Quellencodierung ZHAW, NTM2, Rumc, /7 Übung : Quellencodierung Aufgabe : Huffman-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten

Mehr

Modulation. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 104

Modulation. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 104 Modulation Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 104 Datenfernübertragung I Über kurze Entfernungen können Daten über Kupferkabel übertragen werden, indem jedes Bit mit einer positiven

Mehr

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.

Mehr

Statistische Kenngrößen. Histogramm. Grundlagen zur statistischen Signalverarbeitung. Statistische Beschreibung von Audio

Statistische Kenngrößen. Histogramm. Grundlagen zur statistischen Signalverarbeitung. Statistische Beschreibung von Audio 8.3.6 Statistische Kenngrößen Grundlagen zur statistischen Signalverarbeitung Dr. Detlev Marpe Fraunhofer Institut für achrichtentechnik HHI Histogramm Wahrscheinlichkeitsdichteverteilung Mittelwert µ

Mehr

- - CodE 11 CodE 0 0 0 0 0 0 0 0 2.o C 1 10.0 C 2 off 3 3.0 4 2.0 5 off 6 1 8 20.0 9 60 C 7 4.0 10 80 C 1 38 C 12 8 k 13 on 14 30.0 15 10 16 - - CodE 11 CodE 0 0 0 0 0 0 0 0 2.o C 1 10.0 C 2

Mehr

(Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!)

(Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!) Teil 1: Fragen und Kurzaufgaben (Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!) Frage 1 (6 Punkte) Es wird ein analoges

Mehr

Kodierung. Kodierung von Zeichen mit dem ASCII-Code

Kodierung. Kodierung von Zeichen mit dem ASCII-Code Kodierung Kodierung von Zeichen mit dem ASCII-Code Weiterführende Aspekte zur Kodierung: Speicherplatzsparende Codes Fehlererkennende und -korrigierende Codes Verschlüsselnde Codes Spezielle Codes, Beispiel

Mehr

Übung 13: Quellencodierung

Übung 13: Quellencodierung ZHAW, NTM, FS2008, Rumc, /5 Übung 3: Quellencodierung Aufgabe : Huffmann-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten

Mehr

Grundlagen Anwendungen Quellen. Steganographie. Ingo Blechschmidt, Michael Hartmann LUGA. 4. Oktober 2006

Grundlagen Anwendungen Quellen. Steganographie. Ingo Blechschmidt, Michael Hartmann LUGA. 4. Oktober 2006 Grundlagen Anwendungen Quellen Ingo Blechschmidt, Michael Hartmann LUGA 4. Oktober 2006 Grundlagen Anwendungen Quellen Inhalt 1 Grundlagen Definition der Beispiele für Historische Anwendungen der Abgrenzung

Mehr

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft

Mehr

2.4 Darstellung von Zeichen(ketten)

2.4 Darstellung von Zeichen(ketten) 2.4 Darstellung von Zeichen(ketten) ASCII (American Standard for Coded Information Interchange): Abbildungsvorschrift (Norm) zur binären Kodierung von Zeichen Umfasst Klein-/Großbuchstaben des lateinischen

Mehr

Audio Codecs. Vortrag im Seminar. Digital Audio. Sebastian Kraatz. 15. Dezember 2004

Audio Codecs. Vortrag im Seminar. Digital Audio. Sebastian Kraatz. 15. Dezember 2004 Vortrag im Seminar Digital Audio 15. Dezember 2004 1 Motivation Unkomprimierte digitale Daten Was ist ein Codec? 2 Hörschwellenmaskierung Frequenzmaskierung Zeitmaskierung 3 Motivation Unkomprimierte digitale

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Informationstheorie Prof Dr. Matthew Crocker Universität des Saarlandes 22. Juni 205 Matthew Crocker (UdS) Mathe III 22. Juni 205 / 43 Informationstheorie Entropie (H) Wie

Mehr

A1.7: Entropie natürlicher Texte

A1.7: Entropie natürlicher Texte A1.7: Entropie natürlicher Texte Anfang der 1950er Jahre hat Claude E. Shannon die Entropie H der englischen Sprache mit einem bit pro Zeichen abgeschätzt. Kurz darauf kam Karl Küpfmüller bei einer empirischen

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Einführung in Kompressionstechniken

Einführung in Kompressionstechniken Einführung in Kompressionstechniken W. Kowarschick 7. Februar 997. November 9 W. Kowarschick Motivation Dateigrößen Text Vektorgraphiken Rasterbilder Tomographien Telephon CD-Stereo Bildfolgen VD7 VD7

Mehr

Informationstheorie als quantitative Methode in der Dialektometrie

Informationstheorie als quantitative Methode in der Dialektometrie Informationstheorie als quantitative Methode in der Dialektometrie 1 Informationstheorie als quantitative Methode in der Dialektometrie Informationstheorie als quantitative Methode in der Dialektometrie

Mehr

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?

Übrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus? Huffman-Code Dieser Text ist als Hintergrundinformation ausschliesslich für die Lehrperson gedacht. Der Text ist deshalb eher technisch gehalten. Er lehnt sich an das entsprechende Kapitel in "Turing Omnibus"

Mehr

Allgemeine Beschreibung von Blockcodes

Allgemeine Beschreibung von Blockcodes Allgemeine Beschreibung von Blockcodes Bei Blockcodierung wird jeweils eine Sequenz von m q binären Quellensymbolen (M q = 2) durch einen Block von m c Codesymbolen mit dem Symbolumfang M c dargestellt.

Mehr

Digitale Bilder für das Chronik-Archiv

Digitale Bilder für das Chronik-Archiv Digitale Bilder für das Chronik-Archiv Ernst Pisch 18. März 2008 Das Foto ist nur die Hälfte der benötigten Daten Es existieren im 'alten' Fotoarchiv der Dorfchronik eine Unzahl an Fotos bester Qualität,

Mehr

Lage- und Streuungsparameter

Lage- und Streuungsparameter Lage- und Streuungsparameter Beziehen sich auf die Verteilung der Ausprägungen von intervall- und ratio-skalierten Variablen Versuchen, diese Verteilung durch Zahlen zu beschreiben, statt sie graphisch

Mehr

MATLAB Kurs 2010 Teil 2 Eine Einführung in die Frequenzanalyse via MATLAB

MATLAB Kurs 2010 Teil 2 Eine Einführung in die Frequenzanalyse via MATLAB MATLAB Kurs 2010 Teil 2 Eine Einführung in die via MATLAB 26.11.2010 & 03.12.2010 nhaltsverzeichnis 1 2 3 Ziele Kurze Einführung in die -Analyse Ziele Kurze Einführung in die -Analyse MATLAB Routinen für

Mehr

(H ist Entropie) bei Redundanz Information vielleicht mehrfach. Redundanz zur Fehlererkennung und -korrektur nutzbar

(H ist Entropie) bei Redundanz Information vielleicht mehrfach. Redundanz zur Fehlererkennung und -korrektur nutzbar Redundanz Anzahl der Bits H (H ist Entropie) Redundanz = Anzahl der Bits H bei Redundanz Information vielleicht mehrfach Redundanz zur Fehlererkennung und -korrektur nutzbar Redundanz in Programmen kann

Mehr

JKU Young Scientists Matheseminar

JKU Young Scientists Matheseminar JKU Young Scientists Matheseminar Matheseminar WS 2013/14 Codierung und Information Das grundlegende Problem der Kommunikation besteht darin, an einer Stelle entweder genau oder angenähert eine Nachricht

Mehr

Kapitel 3: Etwas Informationstheorie

Kapitel 3: Etwas Informationstheorie Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens

Mehr

Grundlagen der Videotechnik. Redundanz

Grundlagen der Videotechnik. Redundanz Grundlagen der Videotechnik Redundanz Redundanz beruht auf: - statistischen Abhängigkeiten im Signal, - Information, die vorher schon gesendet wurde - generell eine Art Gedächtnis im Signal Beispiel: Ein

Mehr

3 Sicherheit von Kryptosystemen

3 Sicherheit von Kryptosystemen 3 Sicherheit von Kryptosystemen 43 3 Sicherheit von Kryptosystemen 3.1 Informationstheoretische Sicherheit Claude E. Shannon untersuchte die Sicherheit kryptographischer Systeme auf informationstheoretischer

Mehr

Multimediale Werkzeuge, Audio: Formate, Tools. -Sound/Audio Objekte. Formate, Beispiele:

Multimediale Werkzeuge, Audio: Formate, Tools. -Sound/Audio Objekte. Formate, Beispiele: Multimediale Werkzeuge, Audio: Formate, Tools -Sound/Audio Objekte Formate, Beispiele: - Mp3 (Kurz für MPEG1/2 Layer 3) - PCM (z.b. Wave Datei), übliche Formate: CD: 44100 HZ Abtastrate, 16 Bits/Abtastwert.

Mehr

2 Mengen und Abbildungen

2 Mengen und Abbildungen 2.1 Mengen Unter einer Menge verstehen wir eine Zusammenfassung von Objekten zu einem Ganzen. Die Objekte heiÿen Elemente. Ist M eine Menge und x ein Element von M so schreiben wir x M. Wir sagen auch:

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Dr. H. Macholdt 7. September 2005 1 Motivation Viele Probleme aus dem Bereich der Technik und der Naturwissenschaften stellen uns vor die Aufgabe mehrere unbekannte Gröÿen gleichzeitig

Mehr

Sinneswahrnehmungen des Menschen

Sinneswahrnehmungen des Menschen Sinneswahrnehmungen des Menschen Tastsinn Gleichgewicht Geruch Sehen Gehör Sprache Aktion Multimedia - Kanäle des Menschen Techniken für Medien im Wandel Multimediale Kommunikation Text : Bücher, Zeitschriften

Mehr

Kapitel 4 Leitungscodierung

Kapitel 4 Leitungscodierung Kapitel 4 Leitungscodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv

Mehr

Eigenschaften von Kompressionsverfahren

Eigenschaften von Kompressionsverfahren 6 Textkompression Eigenschaften von Kompressionsverfahren Das Ziel der Datenkompression ist es, eine gegebene Information (Datenquelle) auf eine kompaktere Weise zu repräsentieren. Dies geschieht, indem

Mehr

Quellen- und Leitungskodierung. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 132

Quellen- und Leitungskodierung. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 132 Quellen- und Leitungskodierung 0 1 Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 132 Begriffe Quellencodierung: Dient der Optimierung des Durchsatzes Dazu gehört auch Kompression Kanalcodierung:

Mehr

3 Quellencodierung. 3.1 Einleitung

3 Quellencodierung. 3.1 Einleitung Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im

Mehr

Pulse Code Modulation

Pulse Code Modulation Fachbereich Medieninformatik Hochschule Harz Pulse Code Modulation Referat Johannes Bastian 11038 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung / Vorwort...1 1 Analoge Signale als Grundlage von PCM...1

Mehr

A2.3: Sinusförmige Kennlinie

A2.3: Sinusförmige Kennlinie A2.3: Sinusförmige Kennlinie Wie betrachten ein System mit Eingang x(t) und Ausgang y(t). Zur einfacheren Darstellung werden die Signale als dimensionslos betrachtet. Der Zusammenhang zwischen dem Eingangssignal

Mehr

Netzwerke - Bitübertragungsschicht (1)

Netzwerke - Bitübertragungsschicht (1) Netzwerke - Bitübertragungsschicht (1) Theoretische Grundlagen Fourier-Analyse Jedes Signal kann als Funktion über die Zeit f(t) beschrieben werden Signale lassen sich aus einer (möglicherweise unendlichen)

Mehr

Automaten, Spiele, und Logik

Automaten, Spiele, und Logik Automaten, Spiele, und Logik Woche 2 25. April 2014 Inhalt der heutigen Vorlesung 1. Reguläre Ausdrücke 2. der Satz von Kleene 3. Brzozowski Methode 4. grep und perl Reguläre Ausdrücke Rekursive Definition,

Mehr

Digitale Bildverarbeitung (DBV)

Digitale Bildverarbeitung (DBV) Digitale Bildverarbeitung (DBV) Prof. Dr. Ing. Heinz Jürgen Przybilla Labor für Photogrammetrie Email: heinz juergen.przybilla@hs bochum.de Tel. 0234 32 10517 Sprechstunde: Montags 13 14 Uhr und nach Vereinbarung

Mehr

Motivation. Jede Messung ist mit einem sogenannten Fehler behaftet, d.h. einer Messungenauigkeit

Motivation. Jede Messung ist mit einem sogenannten Fehler behaftet, d.h. einer Messungenauigkeit Fehlerrechnung Inhalt: 1. Motivation 2. Was sind Messfehler, statistische und systematische 3. Verteilung statistischer Fehler 4. Fehlerfortpflanzung 5. Graphische Auswertung und lineare Regression 6.

Mehr

Digitale Bildverarbeitung Einheit 5 Bilder und Statistik

Digitale Bildverarbeitung Einheit 5 Bilder und Statistik Digitale Bildverarbeitung Einheit 5 Bilder und Statistik Lehrauftrag SS 2007 Fachbereich M+I der FH-Offenburg Dr. Bernard Haasdonk Albert-Ludwigs-Universität Freiburg Ziele der Einheit Verstehen, welche

Mehr

Qualitätskriterien digitaler Bilder im Langzeitarchiv! KOST Veranstaltung in Bern vom Dr. Peter Fornaro

Qualitätskriterien digitaler Bilder im Langzeitarchiv! KOST Veranstaltung in Bern vom Dr. Peter Fornaro Qualitätskriterien digitaler Bilder im Langzeitarchiv! KOST Veranstaltung in Bern vom 11. 11. 2009 Dr. Peter Fornaro Workflow Aufnahme Nachbearbeitung Archivierung Das Archivieren beginnt bei der Aufnahme!

Mehr

Begriffe aus der Informatik Nachrichten

Begriffe aus der Informatik Nachrichten Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung

Mehr

Der Huffman Algorithmus

Der Huffman Algorithmus Der Huffman Algorithmus Für das Folgende setzen wir voraus, dass die Quellensymbole q ν einem Alphabet {q μ } = {A, B, C,...} mit dem Symbolumfang M entstammen und statistisch voneinander unabhängig seien.

Mehr

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate Kompression und Datenformate Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate Digitale Speicherung von Bildern Digitalisierung Informationsgehalt Speicherbedarf Kompression von Multimediadaten

Mehr

Kodierung. Kodierung von Zeichen mit dem ASCII-Code

Kodierung. Kodierung von Zeichen mit dem ASCII-Code Kodierung Kodierung von Zeichen mit dem ASCII-Code Weiterführende Aspekte zur Kodierung: Speicherplatzsparende Codes Fehlererkennende und -korrigierende Codes Verschlüsselnde Codes Spezielle Codes, Beispiel

Mehr

Digitalisierung. analoges Signal PAM. Quantisierung

Digitalisierung. analoges Signal PAM. Quantisierung Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste

Mehr

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate

Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate Kompression und Datenformate Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate AGENDA Digitale Speicherung von Bildern Digitalisierung Informationsgehalt Speicherbedarf Kompression von

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien

Mehr

Codierung, Codes (variabler Länge)

Codierung, Codes (variabler Länge) Codierung, Codes (variabler Länge) A = {a, b, c,...} eine endliche Menge von Nachrichten (Quellalphabet) B = {0, 1} das Kanalalphabet Eine (binäre) Codierung ist eine injektive Abbildung Φ : A B +, falls

Mehr

Digitale Signalbearbeitung und statistische Datenanalyse

Digitale Signalbearbeitung und statistische Datenanalyse Digitale Signalbearbeitung und statistische Datenanalyse Teil 5 8 Aus ontinuierlichem Signal werden in onstanten Zeitintervallen Daten entnommen ontinuierliches Signal x(t) Einheitsimpulsfuntion Gewichtete

Mehr

Berechnung von digitalen Signalen. Jonathan Harrington

Berechnung von digitalen Signalen. Jonathan Harrington Berechnung von digitalen Signalen Jonathan Harrington Analog Signale 1. Digitalisierung: Abtasten, Quantisierung Praat Digitale Zeitsignale 2. Anwendung von einem Fenster EMU-tkassp Zeitsignal-Aufteilung

Mehr

Kompakte Graphmodelle handgezeichneter Bilder

Kompakte Graphmodelle handgezeichneter Bilder Kompakte Graphmodelle handgezeichneter Bilder Einbeziehung in Authentizierung und Bilderkennung Inhaltsverzeichnis Seminar Mustererkennung WS 006/07 Autor: Stefan Lohs 1 Einleitung 1 Das graphische Modell.1

Mehr

Lineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19

Lineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19 Lineare Codes Dipl.-Inform. Wolfgang Globke Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19 Codes Ein Code ist eine eindeutige Zuordnung von Zeichen

Mehr

Information und Wissen

Information und Wissen Information und Wissen Informationstheorie nutzt bekannte Wahrscheinlichkeiten Wahrscheinlichkeit hängt von Erwartung des Betrachters ab (wirklich alle Zahlen gleich wahrscheinlich?) Erwartung hängt vom

Mehr

Adaptive Systeme. Sommersemester Prof. Dr. -Ing. Heinz-Georg Fehn. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Sommersemester Prof. Dr. -Ing. Heinz-Georg Fehn. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Sommersemester 2015 Prof. Dr. -Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Prof. Dr. H.-G. Fehn und Prof. Dr. N. Wulff 1 Adaptive Systeme Adaptives System: ein System, das

Mehr

Elektrische Messtechnik, Labor Sommersemester 2014

Elektrische Messtechnik, Labor Sommersemester 2014 Institut für Elektrische Messtechnik und Messsignalverarbeitung Elektrische Messtechnik, Labor Sommersemester 2014 Rechnerunterstützte Erfassung und Analyse von Messdaten Übungsleiter: Dipl.-Ing. GALLIEN

Mehr

Modulationsverfahren

Modulationsverfahren Funktions- und Fehleranalyse Herr Rößger 2011 2012 Modulationsverfahren Definition: Modulation ist die Beeinflussung einer Trägerschwingung durch eine Information. Trägerschwingung: Informationsparameter:

Mehr

Industrial Engineering (Arbeitswissenschaft I / Betriebsorganisation)

Industrial Engineering (Arbeitswissenschaft I / Betriebsorganisation) Industrial Engineering (Arbeitswissenschaft I / Betriebsorganisation) Musterlösung zur Übung der Lehreinheit 11 Computergestützte Büroarbeit Wintersemester 2009/2010 Dipl.-Inform. Nicole Jochems Lehrstuhl

Mehr

Übung 3: Einfache Graphiken und Näherungen durch Regression

Übung 3: Einfache Graphiken und Näherungen durch Regression Übung 3: Einfache Graphiken und Näherungen durch Regression M. Schlup, 9. August 010 Aufgabe 1 Einfache Graphik Für die abgegebene Leistung P = UI eines linearen, aktiven Zweipols mit Leerlaufspannung

Mehr

Werkstoffkunde II - 2. Übung

Werkstoffkunde II - 2. Übung Werkstoffkunde II - 2. Übung Mechanisches Werkstoffverhalten von Kunststoffen Barbara Heesel heesel@ikv.rwth-aachen.de Hendrik Kremer kremer_h@ikv.rwth-aachen.de Anika van Aaken vanaaken@ikv.rwth-aachen.de

Mehr

Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure

Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure Von Prof. Hubert Weber Fachhochschule Regensburg 3., überarbeitete und erweiterte Auflage Mit zahlreichen Bildern, Tabellen sowie

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt. Stock, Taubertsberg R. 0-0 (Persike) R. 0-1 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet0.sowi.uni-mainz.de/

Mehr

Kompakte Graphmodelle handgezeichneter Bilder. Einbeziehung in Autentizierung und Bilderkennung

Kompakte Graphmodelle handgezeichneter Bilder. Einbeziehung in Autentizierung und Bilderkennung Kompakte Graphmodelle handgezeichneter Bilder Einbeziehung in Autentizierung und Bilderkennung Inhaltsverzeichnis 1 Einleitung Das graphische Model.1 Image Thinning................................. 3.

Mehr

Wichtige Eigenschaft: zeitliche Abnahme der Schallintensität. Akustische Ereignisse sind zeitliche Phänomene mit Anfang und Ende

Wichtige Eigenschaft: zeitliche Abnahme der Schallintensität. Akustische Ereignisse sind zeitliche Phänomene mit Anfang und Ende Schallaufzeichnung Wichtige Eigenschaft: zeitliche Abnahme der Schallintensität Akustische Ereignisse sind zeitliche Phänomene mit Anfang und Ende Akustische Ereignisse sind vergänglich Akustische Ereignisse

Mehr

Viel Spaÿ! Aufgabe 0.1. Laufzeit unter Verdoppelung (-)

Viel Spaÿ! Aufgabe 0.1. Laufzeit unter Verdoppelung (-) Datenstrukturen (DS) Sommersemester 2015 Prof. Dr. Georg Schnitger Dipl-Inf. Bert Besser Hannes Seiwert, M.Sc. Institut für Informatik AG Theoretische Informatik Übung 0 Ausgabe: 14.04.2015 Abgabe: - Wenn

Mehr

Vorkurs Mathematik für Informatiker 3 Logarithmen

Vorkurs Mathematik für Informatiker 3 Logarithmen 3 Logarithmen Michael Bader, Thomas Huckle, Stefan Zimmer 1. 9. Oktober 2008 Kap. 3: Logarithmen 1 Logarithmen: Definition Definition: Zu x > 0 und b > 0, b 1 sei der Logarithmus von x zur Basis b folgende

Mehr

Codes und Informationsgehalt

Codes und Informationsgehalt Aufgaben 2 Codes und Informationsgehalt Auf wie viele Dezimalziffern genau können vorzeichenlose ganze Zahlen in einem binären Code der Länge 32 bit dargestellt werden? 2 Codes und Informationsgehalt Auf

Mehr

Codierungstheorie. Code-Arten und Code-Sicherung

Codierungstheorie. Code-Arten und Code-Sicherung Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem

Mehr

Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011

Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011 Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011 Ziel: Nachrichten fehlerfrei übertragen und ökonomisch (wenig Redundanz) übertragen Was ist der Hamming-Abstand?

Mehr

P2-61: Operationsverstärker

P2-61: Operationsverstärker Physikalisches Anfängerpraktikum (P2) P2-61: Operationsverstärker Auswertung Matthias Ernst Matthias Faulhaber Karlsruhe, den 16.12.2009 Durchführung: 09.12.2009 1 Transistor in Emitterschaltung 1.1 Transistorverstärker

Mehr

P1-53,54,55: Vierpole und Leitungen

P1-53,54,55: Vierpole und Leitungen Physikalisches Anfängerpraktikum (P1) - Auswertung P1-53,54,55: Vierpole und Leitungen Benedikt Zimmermann, Matthias Ernst (Gruppe Mo-24) 1 Durchführung 1.1 Messungen des Übertragungsverhaltens des einfachen

Mehr

Proseminar Kompressionsalgorithmen am Beispiel Mp3

Proseminar Kompressionsalgorithmen am Beispiel Mp3 Proseminar Kompressionsalgorithmen am Beispiel Mp3 Von S. Kortler und E. Yueksekdag bei Dr. Gerhard Schrott 22. Mai 2003 TUM Sommersemester 2003 Gliederung 1. Wozu eigentlich Audiokompression 2. Verschiedene

Mehr

Run Length Coding und Variable Length Coding

Run Length Coding und Variable Length Coding Fachbereich Medieninformatik Hochschule Harz Run Length Coding und Variable Length Coding Referat Matthias Zittlau 11034 Abgabe: 15.01.2007 Inhaltsverzeichnis 1. RLC...1 2.1 Einführung...1 2.2 Prinzip...1

Mehr

Elektrotechnik II: Kolloquium 4

Elektrotechnik II: Kolloquium 4 Elektrotechnik II: Kolloquium 4 Digitalschaltungen Hubert Abgottspon: abgottspon@eeh.ee.ethz.ch Markus Imhof: imhof@eeh.ee.ethz.ch Inhalt des Kolloquium: Digitale Messkette Sensor 1) Filter S&H- Versträker

Mehr

Wichtige Eigenschaft: zeitliche Abnahme der Schallintensität. Akustische Ereignisse müssen Jetzt oder Nie gehört werden

Wichtige Eigenschaft: zeitliche Abnahme der Schallintensität. Akustische Ereignisse müssen Jetzt oder Nie gehört werden Audiodesign Aufzeichnung akustischer Ereignisse Wichtige Eigenschaft: zeitliche Abnahme der Schallintensität Akustische Ereignisse sind zeitliche Phänomene mit Anfang und Ende Akustische Ereignisse sind

Mehr