Musterlösung: 11. Dezember 2014, 10:43. Informationstheorie und Entropiekodierung
|
|
- Martin Fuhrmann
- vor 7 Jahren
- Abrufe
Transkript
1 Audiotechnik II Digitale Audiotechnik: 8. Übung Prof. Dr. Stefan Weinzierl Musterlösung: 11. Dezember 2014, 10:43 Informationstheorie und Entropiekodierung Bei der Entropiekodierung werden die Kodewortlängen in Abhängigkeit der Auftrittswahrscheinlichkeit der Quellenzeichen variiert, wobei Redundanzen im Signal ausgenutzt werden. Die mittlere Kodewortlänge sollte dabei im Idealfall der Entropie entsprechen, so dass die Redundanz verschwindet. a) Erläutern Sie die der Entropiekodierung zugrunde liegenden Begrie des Informationsgehaltes, der Entropie, der mittleren Kodewortlänge und der Redundanz im Sinne der Informationstheorie. Geben Sie jeweils die Berechnungsvorschrift an. Der Informationsgehalt I i ist ein Maÿ für die Unbestimmtheit eines Ereignisses bzw. Zeichens. Je kleiner die Wahrscheinlichkeit eines Zeichens (Audio: Amplitude), desto gröÿer ist I i. I i = log 2 (p i ) [bit/zeichen] mit p i = Auftrittswahrscheinlichkeit eines Zeichen Die Entropie H m ist der mittlere Informationsgehalt einer Quelle (Audio: Signal) und gibt die minimale Anzahl Bits je Symbol an, mit der die Quelle eindeutig kodiert werden kann. Sie ist maximal, wenn die Auftrittswahrscheinlichkeiten aller Amplituden gleich sind (z.b. weiÿes Rauschen) und minimal (= 0), wenn es nur eine Amplitude (Gleichspannung) mit der Wahrscheinlichkeit 1 gibt. H m = I i p i [bit/zeichen] Die mittlere Kodewortlänge l m ergibt sich aus den einzelnen Kodewortlängen sowie ihren Auftrittswahrscheinlichkeiten: l m = l i p i [bit/zeichen] Im Falle einer 16-bit-Kodierung eines Audiosignals im Zweier-Komplement wäre l m = 16 bit/zeichen, da jedes Kodewort die selbe Länge hat und sich die Auftrittswahrscheinlichkeiten zu 1 summieren. Die Redundanz ist durch die Dierenz von mittlerer Kodewortlänge und Entropie gegeben R = l m H m [bit/zeichen]. b) Lesen Sie die Audiodatei music.wav in Matlab ein, und requantisieren Sie das Signal auf eine Wortbreite von w = 3 bit. Benutzen Sie dafür eine mid-tread-kennlinie. Wandeln Sie das Stereosignal als erstes in ein Monosignal um, dessen Amplituden aus dem momentanen Mittelwert der Amplituden der beiden Stereokanäle bestehen. 1
2 %% b) y = mean( wavread('music.wav'), 2 ); % Quantisierung mit Funktion aus Tutorium 4 w = 3; [y, ~, codebook, ~ ] = xquant(y, w, 'mid-tread', 'none'); c) Wie sind die Auftrittswahrscheinlichkeiten der 2 w Kodewörter im Quellkode? %% c) % Zaehle die Haeufigkeit der Amplituden je Quantisierungsstufe hf = hist(y,codebook); % Kodewortwahrscheinlichkeiten p_i p_i = hf/sum(hf) % Kontrolle: (Summe der p_i muss 1 ergeben) W_ges = sum(p_i) hist(y,codebook) set(gca, 'xtick', codebook, 'xticklabel', -4:3) Die 2 3 = 8 Kodewörter und ihre gemessenen Auftrittswahrscheinlichkeiten: Quellzeichen x 4 x 3 x 2 x 1 x 0 x 1 x 2 x 3 p i x Abbildung 1: Absolute Häugkeiten der Amplitudenstufen d) Wie groÿ ist die Quellenentropie in bit/quellenzeichen? 2
3 I i = ld 1 p i H m = p i I i = bit/zeichen %% d) % Bestimme den Informationsgehalt je Zeichen I_i I_i = -log2(p_i); % danach die Entropie H_m: H_m = sum(p_i.*i_i) e) Konstruieren Sie manuell für diese Quelle den Optimalkode nach dem Human-Verfahren. Eigenschaften von Human-Kodes: - Je gröÿer die Auftrittswahrscheinlichkeit eines Kodewortes, desto kürzer ist seine Länge l i. - Präxeigenschaft: Es beginnt kein Kodewort mit der Bitfolge eines anderen, kürzeren Kodewortes. - Redundanz, nur dann optimal (= 0), wenn p i = 2 n 3
4 1,000 0,2357 0,7643 0,1149 0,1208 0,0274 0,0934 0,0132 0,0142 0,0052 0,009 0,0023 0,0029 0,0001 0,0022 Quellzeichen x 4 x 3 x 2 x 1 x 0 x 1 x 2 x 3 p i Kodewort Hinweis: Eine anschauliche Anleitung für die Erstellung eines Humann-Kodes nden Sie z.b. hier: http: // www. iti. fh-flensburg. de/ lang/ algorithmen/ code/ huffman/ huffman. htm f) Welche mittlere Kodewortlänge ergibt sich aus dem erstellten Kode? Vergleichen Sie die Koderedundanz des Human-Kodes mit der eines Kodes mit einer festen Länge von 3 bits ( gleichmäÿiger Kode). Die mittlere Kodewortlänge berechnet sich aus Kodewortlänge und Auftrittswahrscheinlichkeit der Kodewörter. l m = p i l i = bit/zeichen 4
5 %% f) % mittele Kodewortlaenge des Huffman-Kodes: % x_-4... x_3 l_i = [ ]; l_m = sum(p_i.*l_i) Als Redundanz bezeichnet man die Dierenz zwischen der mittleren Kodewortlänge und der Entropie. Koderedundanz des Human-Kodes R k, Huffman = l m H m = = bit/zeichen Koderedundanz des Kodes konstanter Länge R k, 3 bit = l m H m = = bit/zeichen g) Wie groÿ ist der auf diese Weise erzielte Kompressionsfaktor, d.h. um welchen Faktor ist die mittlere Kodewortlänge des Human-Kodes geringer als die des ursprünglichen Quellkodes? c = l 3 bit = 3 l Huffman =
Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut
Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,
Mehr1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen
1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte
MehrOrganisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele
Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung
Mehr15 Optimales Kodieren
15 Optimales Kodieren Es soll ein optimaler Kodierer C(T ) entworfen werden, welcher eine Information (z.b. Text T ) mit möglichst geringer Bitanzahl eindeutig überträgt. Die Anforderungen an den optimalen
MehrSignalübertragung und -verarbeitung
ILehrstuhl für Informationsübertragung Schriftliche Prüfung im Fach Signalübertragung und -verarbeitung 6. Oktober 008 5Aufgaben 90 Punkte Hinweise: Beachten Sie die Hinweise zu den einzelnen Teilaufgaben.
Mehr2 Informationstheorie
2 Informationstheorie Formale Grundlagen der Informatik I Herbstsemester 2012 Robert Marti Vorlesung teilweise basierend auf Unterlagen von Prof. emer. Helmut Schauer Grundbegriffe Informatik (IT: Information
MehrProseminar WS 2002/2003
Technische Universität Chemnitz Fakultät für Informatik Professur Theoretische Informatik Proseminar WS 2002/2003 Thema: Datenkompression Dynamisches / Adaptives Huffman-Verfahren Danny Grobe Rainer Kuhn
MehrCodierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau
Codierung Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Ein bisschen Informationstheorie Betrachten wir das folgende Problem: Wie lautet eine sinnvolle Definition für das quantitative
MehrProblem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.
Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester
MehrDatenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg
Vortrag am 25. Januar 200 Werner von Siemens Gymnasium Magdeburg Zeitansatz: 5h (inklusive Programmieraufgaben) Datenkompression Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg
Mehr3. Informationsdarstellung
Fakultät Informatik Institut Systemarchitektur Professur Datenschutz und Datensicherheit WS 204/205 3. Informationsdarstellung Dr.-Ing. Elke Franz Elke.Franz@tu-dresden.de 3 Informationsdarstellung Bitfolgen
Mehr1.3 Digitale Audiosignale
Seite 22 von 86 Abb. 1.2.12 - Wirkung der Schallverzögerung Effekte sind: Delay, Echo, Reverb, Flanger und Chorus Hört man ein akustisches Signal im Raum, dann werden die Signale von Wänden und anderen
MehrHauptdiplomklausur Informatik August 2007: Multimedia Technology
Universität Mannheim Fakultät für Mathematik und Informatik Lehrstuhl für Praktische Informatik IV Prof. Dr.-Ing. W. Effelsberg Hauptdiplomklausur Informatik August 2007: Multimedia Technology Name: Matrikel-Nr.:
MehrRedundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1
Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)
MehrHardware-kompatible Messdatenkomprimierung. Benjamin Steinwender, MSc KAI Kompetenzzentrum Automobilund Industrie-Elektronik GmbH, 9500 Villach
Hardware-kompatible Messdatenkomprimierung für LabVIEW FPGA Benjamin Steinwender, MSc KAI Kompetenzzentrum Automobilund Industrie-Elektronik GmbH, 9500 Villach Agenda Leistungshalbleiter & Stresstest Systeme
MehrÜbung zur Vorlesung. Informationstheorie und Codierung
Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.
MehrFormelsammlung. Wahrscheinlichkeit und Information
Formelsammlung Wahrscheinlichkeit und Information Ein Ereignis x trete mit der Wahrscheinlichkeit p(x) auf, dann ist das Auftreten dieses Ereignisses verbunden mit der Information I( x): mit log 2 (z)
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München Prof. Hußmann
MehrÜbung 1: Quellencodierung
ZHAW, NTM2, Rumc, /7 Übung : Quellencodierung Aufgabe : Huffman-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten
MehrModulation. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 104
Modulation Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 104 Datenfernübertragung I Über kurze Entfernungen können Daten über Kupferkabel übertragen werden, indem jedes Bit mit einer positiven
MehrCODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.
MehrStatistische Kenngrößen. Histogramm. Grundlagen zur statistischen Signalverarbeitung. Statistische Beschreibung von Audio
8.3.6 Statistische Kenngrößen Grundlagen zur statistischen Signalverarbeitung Dr. Detlev Marpe Fraunhofer Institut für achrichtentechnik HHI Histogramm Wahrscheinlichkeitsdichteverteilung Mittelwert µ
Mehr- - CodE 11 CodE 0 0 0 0 0 0 0 0 2.o C 1 10.0 C 2 off 3 3.0 4 2.0 5 off 6 1 8 20.0 9 60 C 7 4.0 10 80 C 1 38 C 12 8 k 13 on 14 30.0 15 10 16 - - CodE 11 CodE 0 0 0 0 0 0 0 0 2.o C 1 10.0 C 2
Mehr(Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!)
Teil 1: Fragen und Kurzaufgaben (Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!) Frage 1 (6 Punkte) Es wird ein analoges
MehrKodierung. Kodierung von Zeichen mit dem ASCII-Code
Kodierung Kodierung von Zeichen mit dem ASCII-Code Weiterführende Aspekte zur Kodierung: Speicherplatzsparende Codes Fehlererkennende und -korrigierende Codes Verschlüsselnde Codes Spezielle Codes, Beispiel
MehrÜbung 13: Quellencodierung
ZHAW, NTM, FS2008, Rumc, /5 Übung 3: Quellencodierung Aufgabe : Huffmann-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten
MehrGrundlagen Anwendungen Quellen. Steganographie. Ingo Blechschmidt, Michael Hartmann LUGA. 4. Oktober 2006
Grundlagen Anwendungen Quellen Ingo Blechschmidt, Michael Hartmann LUGA 4. Oktober 2006 Grundlagen Anwendungen Quellen Inhalt 1 Grundlagen Definition der Beispiele für Historische Anwendungen der Abgrenzung
MehrSeminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung
Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft
Mehr2.4 Darstellung von Zeichen(ketten)
2.4 Darstellung von Zeichen(ketten) ASCII (American Standard for Coded Information Interchange): Abbildungsvorschrift (Norm) zur binären Kodierung von Zeichen Umfasst Klein-/Großbuchstaben des lateinischen
MehrAudio Codecs. Vortrag im Seminar. Digital Audio. Sebastian Kraatz. 15. Dezember 2004
Vortrag im Seminar Digital Audio 15. Dezember 2004 1 Motivation Unkomprimierte digitale Daten Was ist ein Codec? 2 Hörschwellenmaskierung Frequenzmaskierung Zeitmaskierung 3 Motivation Unkomprimierte digitale
MehrMathematische Grundlagen III
Mathematische Grundlagen III Informationstheorie Prof Dr. Matthew Crocker Universität des Saarlandes 22. Juni 205 Matthew Crocker (UdS) Mathe III 22. Juni 205 / 43 Informationstheorie Entropie (H) Wie
MehrA1.7: Entropie natürlicher Texte
A1.7: Entropie natürlicher Texte Anfang der 1950er Jahre hat Claude E. Shannon die Entropie H der englischen Sprache mit einem bit pro Zeichen abgeschätzt. Kurz darauf kam Karl Küpfmüller bei einer empirischen
MehrCodierungstheorie Rudolf Scharlau, SoSe 2006 9
Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets
MehrEinführung in Kompressionstechniken
Einführung in Kompressionstechniken W. Kowarschick 7. Februar 997. November 9 W. Kowarschick Motivation Dateigrößen Text Vektorgraphiken Rasterbilder Tomographien Telephon CD-Stereo Bildfolgen VD7 VD7
MehrInformationstheorie als quantitative Methode in der Dialektometrie
Informationstheorie als quantitative Methode in der Dialektometrie 1 Informationstheorie als quantitative Methode in der Dialektometrie Informationstheorie als quantitative Methode in der Dialektometrie
MehrÜbrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?
Huffman-Code Dieser Text ist als Hintergrundinformation ausschliesslich für die Lehrperson gedacht. Der Text ist deshalb eher technisch gehalten. Er lehnt sich an das entsprechende Kapitel in "Turing Omnibus"
MehrAllgemeine Beschreibung von Blockcodes
Allgemeine Beschreibung von Blockcodes Bei Blockcodierung wird jeweils eine Sequenz von m q binären Quellensymbolen (M q = 2) durch einen Block von m c Codesymbolen mit dem Symbolumfang M c dargestellt.
MehrDigitale Bilder für das Chronik-Archiv
Digitale Bilder für das Chronik-Archiv Ernst Pisch 18. März 2008 Das Foto ist nur die Hälfte der benötigten Daten Es existieren im 'alten' Fotoarchiv der Dorfchronik eine Unzahl an Fotos bester Qualität,
MehrLage- und Streuungsparameter
Lage- und Streuungsparameter Beziehen sich auf die Verteilung der Ausprägungen von intervall- und ratio-skalierten Variablen Versuchen, diese Verteilung durch Zahlen zu beschreiben, statt sie graphisch
MehrMATLAB Kurs 2010 Teil 2 Eine Einführung in die Frequenzanalyse via MATLAB
MATLAB Kurs 2010 Teil 2 Eine Einführung in die via MATLAB 26.11.2010 & 03.12.2010 nhaltsverzeichnis 1 2 3 Ziele Kurze Einführung in die -Analyse Ziele Kurze Einführung in die -Analyse MATLAB Routinen für
Mehr(H ist Entropie) bei Redundanz Information vielleicht mehrfach. Redundanz zur Fehlererkennung und -korrektur nutzbar
Redundanz Anzahl der Bits H (H ist Entropie) Redundanz = Anzahl der Bits H bei Redundanz Information vielleicht mehrfach Redundanz zur Fehlererkennung und -korrektur nutzbar Redundanz in Programmen kann
MehrJKU Young Scientists Matheseminar
JKU Young Scientists Matheseminar Matheseminar WS 2013/14 Codierung und Information Das grundlegende Problem der Kommunikation besteht darin, an einer Stelle entweder genau oder angenähert eine Nachricht
MehrKapitel 3: Etwas Informationstheorie
Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens
MehrGrundlagen der Videotechnik. Redundanz
Grundlagen der Videotechnik Redundanz Redundanz beruht auf: - statistischen Abhängigkeiten im Signal, - Information, die vorher schon gesendet wurde - generell eine Art Gedächtnis im Signal Beispiel: Ein
Mehr3 Sicherheit von Kryptosystemen
3 Sicherheit von Kryptosystemen 43 3 Sicherheit von Kryptosystemen 3.1 Informationstheoretische Sicherheit Claude E. Shannon untersuchte die Sicherheit kryptographischer Systeme auf informationstheoretischer
MehrMultimediale Werkzeuge, Audio: Formate, Tools. -Sound/Audio Objekte. Formate, Beispiele:
Multimediale Werkzeuge, Audio: Formate, Tools -Sound/Audio Objekte Formate, Beispiele: - Mp3 (Kurz für MPEG1/2 Layer 3) - PCM (z.b. Wave Datei), übliche Formate: CD: 44100 HZ Abtastrate, 16 Bits/Abtastwert.
Mehr2 Mengen und Abbildungen
2.1 Mengen Unter einer Menge verstehen wir eine Zusammenfassung von Objekten zu einem Ganzen. Die Objekte heiÿen Elemente. Ist M eine Menge und x ein Element von M so schreiben wir x M. Wir sagen auch:
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Dr. H. Macholdt 7. September 2005 1 Motivation Viele Probleme aus dem Bereich der Technik und der Naturwissenschaften stellen uns vor die Aufgabe mehrere unbekannte Gröÿen gleichzeitig
MehrSinneswahrnehmungen des Menschen
Sinneswahrnehmungen des Menschen Tastsinn Gleichgewicht Geruch Sehen Gehör Sprache Aktion Multimedia - Kanäle des Menschen Techniken für Medien im Wandel Multimediale Kommunikation Text : Bücher, Zeitschriften
MehrKapitel 4 Leitungscodierung
Kapitel 4 Leitungscodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv
MehrEigenschaften von Kompressionsverfahren
6 Textkompression Eigenschaften von Kompressionsverfahren Das Ziel der Datenkompression ist es, eine gegebene Information (Datenquelle) auf eine kompaktere Weise zu repräsentieren. Dies geschieht, indem
MehrQuellen- und Leitungskodierung. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 132
Quellen- und Leitungskodierung 0 1 Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 132 Begriffe Quellencodierung: Dient der Optimierung des Durchsatzes Dazu gehört auch Kompression Kanalcodierung:
Mehr3 Quellencodierung. 3.1 Einleitung
Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im
MehrPulse Code Modulation
Fachbereich Medieninformatik Hochschule Harz Pulse Code Modulation Referat Johannes Bastian 11038 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung / Vorwort...1 1 Analoge Signale als Grundlage von PCM...1
MehrA2.3: Sinusförmige Kennlinie
A2.3: Sinusförmige Kennlinie Wie betrachten ein System mit Eingang x(t) und Ausgang y(t). Zur einfacheren Darstellung werden die Signale als dimensionslos betrachtet. Der Zusammenhang zwischen dem Eingangssignal
MehrNetzwerke - Bitübertragungsschicht (1)
Netzwerke - Bitübertragungsschicht (1) Theoretische Grundlagen Fourier-Analyse Jedes Signal kann als Funktion über die Zeit f(t) beschrieben werden Signale lassen sich aus einer (möglicherweise unendlichen)
MehrAutomaten, Spiele, und Logik
Automaten, Spiele, und Logik Woche 2 25. April 2014 Inhalt der heutigen Vorlesung 1. Reguläre Ausdrücke 2. der Satz von Kleene 3. Brzozowski Methode 4. grep und perl Reguläre Ausdrücke Rekursive Definition,
MehrDigitale Bildverarbeitung (DBV)
Digitale Bildverarbeitung (DBV) Prof. Dr. Ing. Heinz Jürgen Przybilla Labor für Photogrammetrie Email: heinz juergen.przybilla@hs bochum.de Tel. 0234 32 10517 Sprechstunde: Montags 13 14 Uhr und nach Vereinbarung
MehrMotivation. Jede Messung ist mit einem sogenannten Fehler behaftet, d.h. einer Messungenauigkeit
Fehlerrechnung Inhalt: 1. Motivation 2. Was sind Messfehler, statistische und systematische 3. Verteilung statistischer Fehler 4. Fehlerfortpflanzung 5. Graphische Auswertung und lineare Regression 6.
MehrDigitale Bildverarbeitung Einheit 5 Bilder und Statistik
Digitale Bildverarbeitung Einheit 5 Bilder und Statistik Lehrauftrag SS 2007 Fachbereich M+I der FH-Offenburg Dr. Bernard Haasdonk Albert-Ludwigs-Universität Freiburg Ziele der Einheit Verstehen, welche
MehrQualitätskriterien digitaler Bilder im Langzeitarchiv! KOST Veranstaltung in Bern vom Dr. Peter Fornaro
Qualitätskriterien digitaler Bilder im Langzeitarchiv! KOST Veranstaltung in Bern vom 11. 11. 2009 Dr. Peter Fornaro Workflow Aufnahme Nachbearbeitung Archivierung Das Archivieren beginnt bei der Aufnahme!
MehrBegriffe aus der Informatik Nachrichten
Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung
MehrDer Huffman Algorithmus
Der Huffman Algorithmus Für das Folgende setzen wir voraus, dass die Quellensymbole q ν einem Alphabet {q μ } = {A, B, C,...} mit dem Symbolumfang M entstammen und statistisch voneinander unabhängig seien.
MehrKompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate
Kompression und Datenformate Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate Digitale Speicherung von Bildern Digitalisierung Informationsgehalt Speicherbedarf Kompression von Multimediadaten
MehrKodierung. Kodierung von Zeichen mit dem ASCII-Code
Kodierung Kodierung von Zeichen mit dem ASCII-Code Weiterführende Aspekte zur Kodierung: Speicherplatzsparende Codes Fehlererkennende und -korrigierende Codes Verschlüsselnde Codes Spezielle Codes, Beispiel
MehrDigitalisierung. analoges Signal PAM. Quantisierung
Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste
MehrKompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate
Kompression und Datenformate Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate AGENDA Digitale Speicherung von Bildern Digitalisierung Informationsgehalt Speicherbedarf Kompression von
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien
MehrCodierung, Codes (variabler Länge)
Codierung, Codes (variabler Länge) A = {a, b, c,...} eine endliche Menge von Nachrichten (Quellalphabet) B = {0, 1} das Kanalalphabet Eine (binäre) Codierung ist eine injektive Abbildung Φ : A B +, falls
MehrDigitale Signalbearbeitung und statistische Datenanalyse
Digitale Signalbearbeitung und statistische Datenanalyse Teil 5 8 Aus ontinuierlichem Signal werden in onstanten Zeitintervallen Daten entnommen ontinuierliches Signal x(t) Einheitsimpulsfuntion Gewichtete
MehrBerechnung von digitalen Signalen. Jonathan Harrington
Berechnung von digitalen Signalen Jonathan Harrington Analog Signale 1. Digitalisierung: Abtasten, Quantisierung Praat Digitale Zeitsignale 2. Anwendung von einem Fenster EMU-tkassp Zeitsignal-Aufteilung
MehrKompakte Graphmodelle handgezeichneter Bilder
Kompakte Graphmodelle handgezeichneter Bilder Einbeziehung in Authentizierung und Bilderkennung Inhaltsverzeichnis Seminar Mustererkennung WS 006/07 Autor: Stefan Lohs 1 Einleitung 1 Das graphische Modell.1
MehrLineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19
Lineare Codes Dipl.-Inform. Wolfgang Globke Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19 Codes Ein Code ist eine eindeutige Zuordnung von Zeichen
MehrInformation und Wissen
Information und Wissen Informationstheorie nutzt bekannte Wahrscheinlichkeiten Wahrscheinlichkeit hängt von Erwartung des Betrachters ab (wirklich alle Zahlen gleich wahrscheinlich?) Erwartung hängt vom
MehrAdaptive Systeme. Sommersemester Prof. Dr. -Ing. Heinz-Georg Fehn. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Sommersemester 2015 Prof. Dr. -Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Prof. Dr. H.-G. Fehn und Prof. Dr. N. Wulff 1 Adaptive Systeme Adaptives System: ein System, das
MehrElektrische Messtechnik, Labor Sommersemester 2014
Institut für Elektrische Messtechnik und Messsignalverarbeitung Elektrische Messtechnik, Labor Sommersemester 2014 Rechnerunterstützte Erfassung und Analyse von Messdaten Übungsleiter: Dipl.-Ing. GALLIEN
MehrModulationsverfahren
Funktions- und Fehleranalyse Herr Rößger 2011 2012 Modulationsverfahren Definition: Modulation ist die Beeinflussung einer Trägerschwingung durch eine Information. Trägerschwingung: Informationsparameter:
MehrIndustrial Engineering (Arbeitswissenschaft I / Betriebsorganisation)
Industrial Engineering (Arbeitswissenschaft I / Betriebsorganisation) Musterlösung zur Übung der Lehreinheit 11 Computergestützte Büroarbeit Wintersemester 2009/2010 Dipl.-Inform. Nicole Jochems Lehrstuhl
MehrÜbung 3: Einfache Graphiken und Näherungen durch Regression
Übung 3: Einfache Graphiken und Näherungen durch Regression M. Schlup, 9. August 010 Aufgabe 1 Einfache Graphik Für die abgegebene Leistung P = UI eines linearen, aktiven Zweipols mit Leerlaufspannung
MehrWerkstoffkunde II - 2. Übung
Werkstoffkunde II - 2. Übung Mechanisches Werkstoffverhalten von Kunststoffen Barbara Heesel heesel@ikv.rwth-aachen.de Hendrik Kremer kremer_h@ikv.rwth-aachen.de Anika van Aaken vanaaken@ikv.rwth-aachen.de
MehrEinführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure
Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure Von Prof. Hubert Weber Fachhochschule Regensburg 3., überarbeitete und erweiterte Auflage Mit zahlreichen Bildern, Tabellen sowie
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt. Stock, Taubertsberg R. 0-0 (Persike) R. 0-1 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet0.sowi.uni-mainz.de/
MehrKompakte Graphmodelle handgezeichneter Bilder. Einbeziehung in Autentizierung und Bilderkennung
Kompakte Graphmodelle handgezeichneter Bilder Einbeziehung in Autentizierung und Bilderkennung Inhaltsverzeichnis 1 Einleitung Das graphische Model.1 Image Thinning................................. 3.
MehrWichtige Eigenschaft: zeitliche Abnahme der Schallintensität. Akustische Ereignisse sind zeitliche Phänomene mit Anfang und Ende
Schallaufzeichnung Wichtige Eigenschaft: zeitliche Abnahme der Schallintensität Akustische Ereignisse sind zeitliche Phänomene mit Anfang und Ende Akustische Ereignisse sind vergänglich Akustische Ereignisse
MehrViel Spaÿ! Aufgabe 0.1. Laufzeit unter Verdoppelung (-)
Datenstrukturen (DS) Sommersemester 2015 Prof. Dr. Georg Schnitger Dipl-Inf. Bert Besser Hannes Seiwert, M.Sc. Institut für Informatik AG Theoretische Informatik Übung 0 Ausgabe: 14.04.2015 Abgabe: - Wenn
MehrVorkurs Mathematik für Informatiker 3 Logarithmen
3 Logarithmen Michael Bader, Thomas Huckle, Stefan Zimmer 1. 9. Oktober 2008 Kap. 3: Logarithmen 1 Logarithmen: Definition Definition: Zu x > 0 und b > 0, b 1 sei der Logarithmus von x zur Basis b folgende
MehrCodes und Informationsgehalt
Aufgaben 2 Codes und Informationsgehalt Auf wie viele Dezimalziffern genau können vorzeichenlose ganze Zahlen in einem binären Code der Länge 32 bit dargestellt werden? 2 Codes und Informationsgehalt Auf
MehrCodierungstheorie. Code-Arten und Code-Sicherung
Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem
MehrFrank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011
Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011 Ziel: Nachrichten fehlerfrei übertragen und ökonomisch (wenig Redundanz) übertragen Was ist der Hamming-Abstand?
MehrP2-61: Operationsverstärker
Physikalisches Anfängerpraktikum (P2) P2-61: Operationsverstärker Auswertung Matthias Ernst Matthias Faulhaber Karlsruhe, den 16.12.2009 Durchführung: 09.12.2009 1 Transistor in Emitterschaltung 1.1 Transistorverstärker
MehrP1-53,54,55: Vierpole und Leitungen
Physikalisches Anfängerpraktikum (P1) - Auswertung P1-53,54,55: Vierpole und Leitungen Benedikt Zimmermann, Matthias Ernst (Gruppe Mo-24) 1 Durchführung 1.1 Messungen des Übertragungsverhaltens des einfachen
MehrProseminar Kompressionsalgorithmen am Beispiel Mp3
Proseminar Kompressionsalgorithmen am Beispiel Mp3 Von S. Kortler und E. Yueksekdag bei Dr. Gerhard Schrott 22. Mai 2003 TUM Sommersemester 2003 Gliederung 1. Wozu eigentlich Audiokompression 2. Verschiedene
MehrRun Length Coding und Variable Length Coding
Fachbereich Medieninformatik Hochschule Harz Run Length Coding und Variable Length Coding Referat Matthias Zittlau 11034 Abgabe: 15.01.2007 Inhaltsverzeichnis 1. RLC...1 2.1 Einführung...1 2.2 Prinzip...1
MehrElektrotechnik II: Kolloquium 4
Elektrotechnik II: Kolloquium 4 Digitalschaltungen Hubert Abgottspon: abgottspon@eeh.ee.ethz.ch Markus Imhof: imhof@eeh.ee.ethz.ch Inhalt des Kolloquium: Digitale Messkette Sensor 1) Filter S&H- Versträker
MehrWichtige Eigenschaft: zeitliche Abnahme der Schallintensität. Akustische Ereignisse müssen Jetzt oder Nie gehört werden
Audiodesign Aufzeichnung akustischer Ereignisse Wichtige Eigenschaft: zeitliche Abnahme der Schallintensität Akustische Ereignisse sind zeitliche Phänomene mit Anfang und Ende Akustische Ereignisse sind
Mehr