2. Digitale Codierung und Übertragung
|
|
|
- Jasmin Dunkle
- vor 9 Jahren
- Abrufe
Transkript
1 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Weiterführende Literatur zum Thema Informationstheorie: Taschenbuch Medieninformatik Kapitel 2 Herbert Klimant, Rudi Piotraschke, Dagmar Schönfeld: Informations- und Kodierungstheorie, Teubner 2003 Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
2 Information und Repräsentation V = Menge von Werten (Interpretationen, Bedeutungen) R = Menge von Repräsentationen (Darstellungswerten) Abbildung I : R! V Interpretation Umkehrung zur Interpretation: Repräsentationsbeziehung I -1 : V! R V I R (nach Broy: Informatik Teil I) Klassische Beispiele: V = Zahlwerte, R = Binärzahlen V = Abbildungen, R = Programme Medienbezogene Beispiele: V = Begriffe, Objekte R = Bilder, R = Klänge,... Konkrete medienbezogene Beispiele: Martinshorn/Blaulicht, Rote Ampel, Halt! Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
3 Informationsverarbeitung Information ist ein abstrakter Begriff. Computer verarbeiten immer Repräsentationen. Informationsverarbeitung ist Repräsentationsverarbeitung. Medien sind spezielle Repräsentationen von Information. V I -1 I R Transformation, Übertragung Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
4 Semiotische Ebenen Semiotik = Theorie der Zeichen und Symbole Klassische Terminologie der Semiotik: Syntax, Semantik, Pragmatik Pragmatik (Wirkung) Sender Semantik (Bedeutung) Empfänger Syntax (Zeichen) Bezug zur traditionellen Informatik: Syntax = Repräsentationen (Menge R) Semantik = Informationsgehalt (Menge V) Pragmatik wird als irrelevant angesehen Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
5 Semiotische Ebenen in der Medieninformatik Für Medien müssen alle semiotischen Ebenen betrachtet werden. Z.B. Wirkung eines Textes abhängig von der grafischen Darstellungsform (Farbe, Größe, Platzierung) Pragmatik (Wirkung) Sender Semantik (Bedeutung) Syntax (Zeichen) Empfänger Kanal (Träger) Für die technische Realisierung sind Eigenschaften des physikalischen Trägers der Repräsentation ebenfalls wesentlich. Z.B. Speicherbedarf, Frequenzspektrum Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
6 Interpretation und Codierung Es gibt Codierungen verschiedener Effizienz für die gleiche Information. Die Informationstheorie betrachtet eine Informationsquelle nach Eigenschaften, die eine bessere (kürzere) Codierung erlauben. Informationsquelle wird durch einen Basiszeichenvorrat mit zusätzlichen Informationen (z.b. Häufigkeitsverteilung) erfasst. V = Identische Information I -1 I A c Bessere (kleinere) Repräsentation B Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
7 Stochastische Informationstheorie: Zeichenvorräte und Codierung Ein Zeichenvorrat ist eine endliche Menge von Zeichen. Eine Nachricht (im Zeichenvorrat A) ist eine Sequenz von Zeichen aus A Seien A und B Zeichenvorräte. Eine Codierung c ist eine Abbildung von Nachrichten in A auf Nachrichten in B. c: A! B* (B* : Zeichenreihen über B) Wir beschränken uns meist auf binäre Codierungen, d.h. B = { 0, 1 } Die Informationstheorie (nach Shannon) befasst sich mit Nachrichtenquellen auf der Ebene der Syntax aus stochastischer Sicht Zeichen und zugehörige Codierung haben immer identische Interpretation A a a b b c c d d B a O L b Beispiel: abca! ddc! Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
8 Einschub: Motivation für Informationstheorie Aufbau eines MPEG-Layer III (MP3) Encoders Details siehe später! PCM Audio Filter- Bank 32 Bänder MDCT Quantisierer Huffman- Codierung FFT 1024 Maskierung Bitstrom- Generator Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
9 Entropie (1) Annahme Stochastische Nachrichtenquelle: Wir kennen die Häufigkeitsverteilung der Zeichen in den Nachrichten. Entscheidungsgehalt (Entropie) der Nachrichtenquelle: Wie viele Ja/Nein-Entscheidungen entsprechen dem Auftreten eines Einzelzeichens? Eine Ja/Nein-Entscheidung = 1 bit Beispiele: Quelle 1 Zeichen a A B C D Häufigk. p a x a p a = Häufigkeit x a = Zahl der Entscheidungen 2 x a = 1/p a Quelle 2 Zeichen a A B C D Häufigk. p a x a x a = ld (1/p a ) (Logarithmus zur Basis 2) Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
10 Entropie (2) Durchschnittlicher Entscheidungsgehalt je Zeichen: Entropie H " H = p a ld 1 % $ ' # p a & ) a (A mit x a = ld (1/p a ): H = # a "A p a x a Quelle 1 Zeichen a A B C D Häufigk. p a x a Quelle 2 Zeichen a A B C D Häufigk. p a x a Quelle 3 Zeichen a A B C D Häufigk. p a x a Entropie ist Maß für Unordnung, Zufälligkeit H = 0 H = 2 H = 1.75 Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
11 Wortlängen und Redundanz Eine (Binär-)Codierung der Nachrichten einer stochastischen Nachrichtenquelle ergibt eine durchschnittliche Wortlänge L. L = # p a c(a) a "A Quelle 2 Zeichen a A B C D Häufigk. p a Code c(a) Quelle 3 Zeichen a A B C D Häufigk. p a Code c(a) H = 2 L = 2 H = 1.75 L = 2 Redundanz = L H Redundanz ist ein Maß für die Güte der Codierung: möglichst klein! Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
12 Optimale Codierung Eine Codierung ist optimal, wenn die Redundanz 0 ist. Durch geeignete Codierung (z.b. Wortcodierung statt Einzelzeichencodierung) kann man die Redundanz beliebig niedrig wählen. Redundanz ermöglicht andererseits die Rekonstruktion fehlender Nachrichtenteile! B ispi l: Natürlich Sprach Beispiel: Fehlererkennende und -korrigierende Codes (z.b. Paritätsbits) Quelle 3 Zeichen a A B C D Häufigk. p a Code c(a) Quelle 3 Zeichen a A B C D Häufigk. p a Code c!(a) H = 1.75 L = 2 H = 1.75 L = 1.75 Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
13 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung Weiterführende Literatur zum Thema Kompression: Taschenbuch Medieninformatik Kapitel 2 Herbert Klimant, Rudi Piotraschke, Dagmar Schönfeld: Informations- und Kodierungstheorie, Teubner 2003 Khalid Sayood: Introduction to Data Compression, 2nd. ed., Morgan Kaufmann 2000 Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
14 Darstellungsräume, Darstellungswerte Jedes (Einzel-)Medium definiert einen Darstellungsraum (= Menge der möglichen Repräsentationen R). Eine konkrete Repräsentation einer Information ist ein Darstellungswert innerhalb des Darstellungsraums. Für Perzeptionsmedien: Ein Darstellungsraum richtet sich an einen bestimmten Sinn des Menschen. Beispiele: Text: Darstellungsraum = Menge aller möglichen Zeichenfolgen Bild: Darstellungsraum = Menge aller möglichen Belegungen der Wiedergabefläche mit Farbinformationen Sprache: Darstellungsraum = (sehr spezifische und komplexe) Teilmenge der möglichen Verteilungen von Luftdruck über die Zeitachse Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
15 Speicherbedarf multimedialer Information Bsp. Schrift Laufschrift (8 bit/zeichen, 40 Zeichen/s): 320 bit/s Bsp. Audio-Signale Sprachsignal niedriger Qualität (Mono, 8 bit, 11 khz): 88 kbit/s CD-Qualität (Stereo, 16 bit, 44,1 khz): 1,4 Mbit/s Bsp. Bilder (9x13cm = 1062x1536 Pixel) Schwarz/weiß (1 bit Farbtiefe): 200 kbyte (1 Byte = 8 bit) TrueColor (24 bit Farbtiefe): 4,9 MByte Bsp. Video (ohne Ton) 720 x 525 Pixel, 25 Bilder/s, 16 bit Farbtiefe: 151,2 Mbit/s 1280 x 720 Pixel, 60 Bilder/s, 24 bit Farbtiefe: 1,32 Gbit/s Kompression der Information ist extrem wichtig! Pixel= Bildpunkt Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
16 Kompressionsverfahren: Übersicht Klassifikationen: Universell vs. speziell (für bestimmte Informationstypen)» Speziell für bestimmte technische Medien (Bild, Ton, Bewegtbild) Verlustfrei vs. Verlustbehaftet In diesem Kapitel: nur universelle & verlustfreie Verfahren Im folgenden vorgestellte Verfahren: Statistische Verfahren:» Huffman-Codierung» Arithmetische Codierung Zeichenorientierte Verfahren:» Lauflängencodierung (RLE Run Length Encoding)» LZW-Codierung Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
17 Grundidee zur Huffman-Codierung Zeichen größerer Häufigkeit werden durch kürzere Codes repräsentiert vgl. Morse-Code Das führt zu einem Code variabler Wortlänge: Kein Codewort darf Anfang eines anderen sein (Fano-Bedingung) In optimalem Code müssen die beiden Symbole der niedrigsten Häufigkeit mit gleicher Länge codiert sein. "Beweis"-Skizze: Wären die Längen verschieden, könnte man das längere Wort bei der Länge des kürzeren abschneiden» Dann sind die beiden Codes verschieden (sonst wäre Fano-Bedingung vorher verletzt gewesen)» Kein anderes Codewort kann länger sein (da Zeichen niedrigster Häufigkeit), also kann die Kürzung nicht die Fano-Bedingung verletzen Dann hätten wir einen neuen Code mit kleinerer durchschnittlicher Wortlänge! Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
18 Huffman-Codierung (1) Gegeben: Zeichenvorrat und Häufigkeitsverteilung Ergebnis: Codierung (optimal, wenn alle Häufigkeiten Kehrwerte von Zweierpotenzen sind) Wiederholte Anwendung dieses Schritts auf die Häufigkeitstabelle: Ersetze die beiden Einträge niedrigster Häufigkeit durch einen Codebaum mit zwei Ästen 0 und L und trage die Summe der Häufigkeiten als Häufigkeit dafür ein. Zeichen A B C D Häufigkeit Zeichen A B C D Häufigkeit David Huffman 1951 Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
19 Huffman-Codierung (2) 0 1 Zeichen A B C D Häufigkeit B 0 1 Zeichen A C D Häufigkeit A 0 1 B 0 1 C D Resultierender Codebaum Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
20 Huffman-Codierung (3) Eine Nachricht, die sich an die gegebene Häufigkeitsverteilung hält: ababacadaabacdba (Länge = 16 Zeichen) Codierung mit festen Wortlängen (z.b. a = 00, b = 01, c = 10, d = 11) Länge 32 bit Huffman-Codierung ( a = 0, b = 10, c = 110, d = 111) Länge 28 bit (d.h. ca. 12.5% Reduktion) Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
21 Experiment: Huffman-Kompression von Bildern Grautonbild, 256 x 256 Pixel, 8 bit (d.h. 256 Graustufen) Unkomprimiert: Bytes Mit Huffman kodiert: Bytes ca. 38% Reduktion Einfacher "Zusatztrick": Differenz zwischen benachbarten Pixeln speichern und Huffman dann anwenden Bytes ca. 51% Reduktion Keine universelle Kompression mehr, sondern speziell für Pixelbilder Solche "semantischen Kodierungen" siehe später! Ludwig-Maximilians-Universität München, Medieninformatik, Prof. Hußmann Digitale Medien WS2007/
2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München Prof. Hußmann
2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien
2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.1.1 Abtasttheorem 2.1.2Stochastische Nachrichtenquelle, Entropie, Redundanz 2.2 Verlustfreie universelle Kompression Medieninformatik-Buch:
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd
(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch
Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information
2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München Prof.
2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München, Medieninformatik
Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien 6-32
6. Ton und Klang 6.1 Ton: Physikalische und physiologische Aspekte 6.2 Kompression von Audio-Signalen: MPEG-Audio 6.3 Audio-Datenformate: Übersicht 6.4 Klangerzeugung und MIDI Ludwig-Maximilians-Universität
Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1
Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)
2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München Prof. Hußmann
Klausur Digitale Medien
Klausur Digitale Medien Sommersemester 2003 LMU München LFE Medieninformatik Prof. H. Hußmann Dauer: 90 Minuten Auf jedes Blatt sind Name und Matrikelnummer einzutragen! Blätter ohne Namen oder ohne Matrikelnummer
Einführung in die Medieninformatik 1
Einführung in die Medieninformatik 1 Wintersemester 2007/08 Prof. Dr. Rainer Malaka, Digitale Medien Medieninformatik 1 1 Plan (vorläufig) 31.10. Einführung 7.11. Menschen: Wahrnehmung 14.11. Menschen:
Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate
Kompression und Datenformate Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate AGENDA Digitale Speicherung von Bildern Digitalisierung Informationsgehalt Speicherbedarf Kompression von
Technische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und
Die Digitalisierung von Musik
Die Digitalisierung von Musik 1 Analoges Speichern Speicherung von Musik auf einer LP Die Daten sind analog gespeichert Analysis 2 Digitale Datenerfassung 1.Sampling Das (akustische) elektrische Signal
16 - Kompressionsverfahren für Texte
16 - Kompressionsverfahren für Texte Prof. Dr. S. Albers Kompressionsverfahren für Texte Verlustfreie Kompression Original kann perfekt rekonstruiert werden Beispiele: Huffman Code, Lauflängencodierung,
Molekulare Bioinformatik
Molekulare Bioinformatik Wintersemester 203/204 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 07.0.204 Molekulare Bioinformatik - Vorlesung 0 Wiederhohlung Die Entropie
Digitalisierung. analoges Signal PAM. Quantisierung
Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste
Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut
Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,
Optimalcodierung. Thema: Optimalcodierung. Ziele
Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.
Kompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate
Kompression und Datenformate Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate Digitale Speicherung von Bildern Digitalisierung Informationsgehalt Speicherbedarf Kompression von Multimediadaten
Audio- und Videodatenströme im Internet
Audio- und Videodatenströme im Internet Jürgen Quittek Institut für Informatik Freie Universität Berlin C&C Research Laboratories NEC Europe Ltd., Berlin Vorlesung Rechnernetze Institut für Informatik
Klausur Informationstheorie und Codierung
Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte
Farb-Fernsehsignal (Composite FBAS)
Farb-Fernsehsignal (Composite FBAS) Quelle: Ze-Nian Li : Script Multimedia Systems, Simon Fraser University, Canada VIDEO- Digitalisierung Gemeinsame Kodierung FBAS Farbbild- Austast- und Synchronsignal
Basisinformationstechnologie II
Basisinformationstechnologie II Sommersemester 2015 13. Mai 2015 Algorithmen der Bildverarbeitung I: Kompression Universität zu Köln. Historisch-Kulturwissenschaftliche Informationsverarbeitung Dr. Jan
2 Informationstheorie
2 Informationstheorie Formale Grundlagen der Informatik I Herbstsemester 2012 Robert Marti Vorlesung teilweise basierend auf Unterlagen von Prof. emer. Helmut Schauer Grundbegriffe Informatik (IT: Information
Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:
Fachbereich Medieninformatik Hochschule Harz Huffman-Kodierung Referat Henner Wöhler 11459 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung...I 1. Entropiekodierung...1 1.1 Morse Code...2 1.2 Shannon-Fano-Kodierung...3
Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt):
Beispielhafte Testfragen (auch aus Schülerreferaten, Fragen können redundant sein, keine Audio Kompression berücksichtigt): Was versteht man unter PCM, DPCM, DM, ADPCM? Skizze! Was versteht man unter PCM
Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele
Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung
Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1
Informationsgehalt Kapitel 4.1 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916) Quelle Sender
Digitales Video I. Wie wird Video am Computer codiert? Bilder. Bewegte Bilder. Ton. Videoformate. Auflösung Speicherung am Computer
Digitales Video I Wie wird Video am Computer codiert? Bilder Auflösung Speicherung am Computer Bewegte Bilder Interlacing Kompression / Codec Ton Audioformate / Codecs Videoformate Bilder Auflösung: z.b.:
2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München, Medieninformatik
Informationstheorie und Codierung
Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice
Kompressionsverfahren
Kompressionsverfahren Quelle: Steinmetz, Ralf: Multimedia-Technologie: Einführung und Grundlagen, Springer, Verlag Verlustlose Kompressionsalgorithmen RLC Huffman Adaptive Huffman Kodierung Arithmetische
Kapitel 2 Quellencodierung
Kapitel 2 Quellencodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv
1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen
1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte
Einführung in Kompressionstechniken
Einführung in Kompressionstechniken W. Kowarschick 7. Februar 997. November 9 W. Kowarschick Motivation Dateigrößen Text Vektorgraphiken Rasterbilder Tomographien Telephon CD-Stereo Bildfolgen VD7 VD7
Digital Signal Processing
- for Master Study by TFH Bochum - Analog Signal I OO O I I I O O O Digital Signal Seite 1 Zielsetzung der Signalverarbeitung Analyse: H(t), H(f) Modellieren y(t) {} Physikalische Größe und Prozesse Synthese
Referat zum Thema Huffman-Codes
Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung
Bilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB
Bilddatenformate BMP Bezeichnung: Microsoft Windows Bitmap, BMP, DIB Format: Raster Farben: 1 Bit (s/w), 4 Bit (16 Farben), 8 Bit (256 Farben), 24 Bit (16,7 Mio. Farben) Kompression: Keine (meist) oder
Digitalisierung und Kodierung
Digitalisierung und Kodierung Digitale Medien liegen in digitaler Form vor Deshalb werden analoge Medien digitalisiert und geeignet kodiert Ziel der Digitalisierung: effiziente Berechnung wenig Verluste
2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien
Aktuelle Themen der Angewandten Informatik: Datenkompression Seminar-Unterlagen Sommer Semester 2016
Institut für Informatik Graphische Datenverarbeitung - Proseminar-Unterlagen 1 / 7 Johann Wolfgang Goethe Universität Frankfurt am Main-InformatikDK SS2007 Dr.-Ing The Anh Vuong, Frankfurt - Bielefeld
Algorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Sommersemester 206 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Organisatorisches Weiterer Ablauf: heute und Donnerstag,
Mathematik für Information und Kommunikation
Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html
Übung zur Vorlesung. Informationstheorie und Codierung
Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.
Proseminar Datenkompression
Proseminar Datenkompression Soundkompression Michael Grünert Markus Rickert Übersicht Fähigkeiten von MPEG Digitalisierung / Sampling Das Psychoakustische Modell Hörschwelle Simultane Maskierung Zeitliche
Sinneswahrnehmungen des Menschen
Sinneswahrnehmungen des Menschen Tastsinn Gleichgewicht Geruch Sehen Gehör Sprache Aktion Multimedia - Kanäle des Menschen Techniken für Medien im Wandel Multimediale Kommunikation Text : Bücher, Zeitschriften
Multimediatechnik / Video
Multimediatechnik / Video Video-Kompression Zusammenfassung http://www.nanocosmos.de/lietz/mtv 2009 1 Motivation: Video-Kompression Unkomprimierte Datenmengen sind zu groß! TV: 20 MB/s = 72 GB/h (720x576x2x25)
Kapitel 9: Informationstheorie. 2. Entropie
ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE
Kodierung. Bytes. Zahlensysteme. Darstellung: Zahlen
2 Einführung in die Informationstechnik VI Information und ihre Darstellung: Zahlen, Zeichen, Texte Heute 1. Information und Daten 2. Informationsdarstellung 1. Zahlen 1. Binärsystem 2. Dezimalsystem 3.
Einführung in die Informatik und Medieninformatik
Name, Vorname Matrikelnummer Klausur zur Vorlesung Einführung in die Informatik und Medieninformatik LVNr. 36 600, SS 2013, im Studiengang Medieninformatik Dienstag, 23. Juli 2013 12:00 14:00 Uhr (120
Textkompression. Komprimierung von Daten. Runlength Komprimierung (2) Runlength Komprimierung (1) Herkömmliche Kodierung. Runlength Komprimierung (3)
Komprimierung von Daten Textkompression Effiziente Algorithmen VU 2.0 WS 2008/09 Bin Hu Ziel: Platz und Zeit sparen Kompression durch - Effiziente Kodierung - Verminderung der Redundanzen (verlustfrei)
Übungsaufgaben zur Vorlesung Quellencodierung
Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = 1 0.1 0.1 0.1 y 2
Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.
Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie
Multimediatechnik / Video
Multimediatechnik / Video Codierung, Datenreduktion Quantisierung, Lauflängencodierung DCT, JPEG http://www.nanocosmos.de/lietz/mtv Inhalt Codierung digitaler Signale Datenreduktion (Kompression) Verlustfrei
Digitales Video I Wie wird Video am Computer codiert?
Digitales Video I Wie wird Video am Computer codiert? Bilder Auflösung Speicherung am Computer Bewegte Bilder Interlacing Kompression / Codec Ton Audioformate / Codecs Videoformate Bilder Auflösung: z.b.:
Kodierung. Kodierung von Zeichen mit dem ASCII-Code
Kodierung Kodierung von Zeichen mit dem ASCII-Code Weiterführende Aspekte zur Kodierung: Speicherplatzsparende Codes Fehlererkennende und -korrigierende Codes Verschlüsselnde Codes Spezielle Codes, Beispiel
MPEG Audio Layer 1. Fachbereich Medieninformatik. Hochschule Harz. Referat. Kolja Schoon. Thema: MPEG Audio Layer 1
Fachbereich Medieninformatik Hochschule Harz MPEG Audio Layer 1 Referat Kolja Schoon 10952 Abgabe: 15.01.2007 Stand: (Januar 2007) Autor: Kolja Schoon Seite 1 Inhaltsverzeichnis 1. Einleitung / Vorwort...3
Lossless Codecs. Fachbereich Medieninformatik. Hochschule Harz. Referat. Christian Menschel. Thema: Lossless Codecs
Fachbereich Medieninformatik Hochschule Harz Lossless Codecs Referat Christian Menschel 11487 Abgabe: 15.01.2007 Inhaltsverzeichnis Abkürzungen...I 1 Einleitung...1 2 Entropiekodierung...2 3 MPEG - 4 Audio
Digitales Video. Digitales Video
Digitales Video Analoges Signal ist durch Bildwandlung weitgehend quantisiert Zeitlich in Einzelbilder und räumlich in Zeilen Beim Einsatz eines CCD-Bildwandlers werden Bildpunkte gebildet Videosignal
Themen Medientechnik II. Grundlagen der Bildkompression (Teil 1) Claude E. Shannon ( ) Digitale Bildübertragungsstrecke
.4.6 Themen Medientechnik II Grundlagen der Bildkompression (Teil ) Dr. Detlev Marpe Fraunhofer Institut für Nachrichtentechnik HHI Grundlagen der statistischen ignalverarbeitung Mittelwert, Varianz, NR,
Dynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
Übung zur Vorlesung. Digitale Medien. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider
Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider Wintersemester 2015/16 Frequenzraum 0 5 10 15 20 Zeit (ms) f = 1/T T = 10ms = 0,01s f = 1/ 0,01s
Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau
Codierung Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Ein bisschen Informationstheorie Betrachten wir das folgende Problem: Wie lautet eine sinnvolle Definition für das quantitative
Proseminar. Thema: Shannon-Fano und Huffman Verfahren
Proseminar Datenkompression Thema: Shannon-Fano und Huffman Verfahren Gehalten am 27.11.2002 von Lars Donat 1. Huffman Code Bei diesem bereits 1951 von David A. Huffman veröffentlichtem Algorithmus handelt
Datenkompression. Motivation Datenmengen
Motivation Übersicht, Informationstheorie, Modellierung Verlustfreie : Huffman-Codierung, Arithmetische Codierung,... Verlustbehaftete : Fourier-Analyse, JPEG, MPEG,... Datenorganisation 6 Seite Motivation
Kodierungsalgorithmen
Kodierungsalgorithmen Komprimierung Verschlüsselung Komprimierung Zielsetzung: Reduktion der Speicherkapazität Schnellere Übertragung Prinzipien: Wiederholungen in den Eingabedaten kompakter speichern
JPEG Kompression technische Realisierung
Experimentalphysik V 20. Januar 2005 Schema der JPEG Kompression Farbraumkonvertierung RGB YCbCr Subsampling der Farbkomponenten Cb, Cr Zerlegung in Blöcke 8 8 2D Kosinustransformation (DCT) Quantisierung
2. Repräsentation und Codierung von Daten. Klassen von Codierverfahren
2. Repräsentation und Codierung von Daten Klassen von Codierverfahren SS 2009 Multimediale Informationsverarbeitung: Repräsentation und Codierung 1 Klassen von Codierverfahren SS 2009 Multimediale Informationsverarbeitung:
1 Informationsverarbeitung & Wahrscheinlichkeitsrechnung Informationsverarbeitung Wahrscheinlichkeitsrechnung... 2.
Inhaltsverzeichnis 1 Informationsverarbeitung & Wahrscheinlichkeitsrechnung 2 1.1 Informationsverarbeitung............................. 2 1.2 Wahrscheinlichkeitsrechnung........................... 2 2
Statistische Kenngrößen. Histogramm. Grundlagen zur statistischen Signalverarbeitung. Statistische Beschreibung von Audio
8.3.6 Statistische Kenngrößen Grundlagen zur statistischen Signalverarbeitung Dr. Detlev Marpe Fraunhofer Institut für achrichtentechnik HHI Histogramm Wahrscheinlichkeitsdichteverteilung Mittelwert µ
Multimediale Werkzeuge, Audio: Formate, Tools. -Sound/Audio Objekte. Formate, Beispiele:
Multimediale Werkzeuge, Audio: Formate, Tools -Sound/Audio Objekte Formate, Beispiele: - Mp3 (Kurz für MPEG1/2 Layer 3) - PCM (z.b. Wave Datei), übliche Formate: CD: 44100 HZ Abtastrate, 16 Bits/Abtastwert.
Diskrete Cosinus-Transformation (DCT)
Diskrete Cosinus-Transformation (DCT) Prinzip von DCT: (in einer oder zwei Dimensionen...) Menge von Datenpunkten f(x) bzw. f(x,y) (für x,y = 1, N) Forward DCT (FDCT) Inverse DCT (IDCT) Rekonstruktion
Prof. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert.
Audiotechnik II Digitale Audiotechnik: 8. Tutorium Prof. Dr. Stefan Weinzierl 9.2.23 Musterlösung: 9. Dezember 23, 8:34 Fehlerkorrektur II Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit
Digitaltechnik I WS 2006/2007. Klaus Kasper
Digitaltechnik I WS 2006/2007 Klaus Kasper Studium 6 Semester 5. Semester: Praxissemester im Anschluss: Bachelorarbeit 6. Semester: WPs Evaluation der Lehre Mentorensystem 2 Organisation des Studiums Selbständigkeit
Standbildcodierung. Dipl.-Ing. Guido Heising. Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K.
Standbildcodierung Dipl.-Ing. Guido Heising Digitale Videotechnik, SS 02, TFH Berlin, Dipl.-Ing. G. Heising G. Heising, K. Barthel 1 Gliederung der Vorlesung Einführung in die Bildcodierung - verlustlose/verlustbehaftete
Inhalt. 1. Was ist Information 2. Nachrichtentechnische Definition 3. Algorithmische Definition 4. Darstellung in der Informatik
Kapitel 2 Information Information ist der grundlegende Begriff der Informatik. Mehr noch: Der Begriff der Information ist vermutlich das zentrale interdisziplinäre Brückenkonzept der modernen Wissenschaften
Code-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg
Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem
Musterlösung: 11. Dezember 2014, 10:43. Informationstheorie und Entropiekodierung
Audiotechnik II Digitale Audiotechnik: 8. Übung Prof. Dr. Stefan Weinzierl 11.12.2014 Musterlösung: 11. Dezember 2014, 10:43 Informationstheorie und Entropiekodierung Bei der Entropiekodierung werden die
1 DATEN - INFORMATION - WISSEN. Marcel Götze
GRUNDKURS INFORMATIK 1 DATEN - INFORMATION - WISSEN Marcel Götze Überblick 1. Daten, Information, Wissen 2. Fortsetzung Informationsdarstellung 1. Zahlensysteme 1. Binärsystem, Hexadezimalsystem 2. Bilder
Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.
Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester
1.2.1 Analoges Speichern auf Vinyl Erläutern Sie die prinzipielle Funktionsweise von Langspielplatten bzw. Plattenspielern.
1 Digitalisierung https://de.wikipedia.org/wiki/digitalisierung 1.1 Was versteht man unter Digitalisierung 1.2 Digital vs. Analog 1.2.1 Analoges Speichern auf Vinyl Erläutern Sie die prinzipielle Funktionsweise
Codes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC)
Codes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC) Definitionen: Codewort:= mit zusätzlichen (redundanten) Kontrollbits versehenes Quellwort m:= Länge des Quellwortes (Anzahl der Nutzdatenbits)
