Eike Müller. Kompression-Algorithmen für Bilder. 3. Juli 2013

Größe: px
Ab Seite anzeigen:

Download "Eike Müller. Kompression-Algorithmen für Bilder. 3. Juli 2013"

Transkript

1 Eike Müller Kompression-Algorithmen für Bilder 3. Juli 23 Inhaltsverzeichnis Huffman-Kodierung 2. Präfixfreie Codes Huffman Code Beispiel Nachteile der Huffman Kodierung Diskrete Kosinustransformation (DCT) 5 2. Durchführung der Transformation Unzulänglichkeiten der Diskreten Kosinustransformation Wavelets 7 3. Mehrstufen Transformation Zweidimensionale Transformation JPEG2 Standard Fraktale Kompression 4. Grundlagen Rekonstruktion des Bildes Konstruktion des Hutchinson Operators Graustufen und Farbe Vergleich 6 Literatur 2

2 Huffman-Kodierung. Präfixfreie Codes Ein Code ist eine Vorschrift, die eine Nachricht in eine andere Sprache umwandelt. Hierbei wird jedem Symbol des Alphabets der Nachricht ein Codewort zugeordnet. Der vielleicht bekannteste Code ist die ASCII Kodierung, der jedem Symbol eine - Folge der Länge 8 zuordnet. Problematisch hierbei ist, dass diese Codes nicht eindeutig sein müssen. Ist zum Beispiel der folgende Code C gegeben C(a) = C(b) = C(c) =, so kann man nicht entscheiden, ob die kodierte Nachricht zu c oder zu ab dekodiert werden soll. Deswegen ist die Familie der präfixfreien Codes besonders interessant. Ein Code heißt präfixfrei, genau dann wenn jedes Codewort nicht Präfix von einem anderen Codewort ist. Da nur ein Codewort Präfix der kodierten Nachricht sein kann, folgt aus dieser Eigenschaft, dass jede kodierte Nachricht eindeutigt dekodiert werden kann. Solche Codes werden gerne in einem Binären Baum dargestellt, wobei die Kanten nach rechts mit und die nach links mit beschriftet werden. Jedes Blatt ist dann mit einem eigenen Symbol markiert und das Codewort für dieses Symbol ergibt sich aus den Kanten von der Wurzel hin zu diesem Blatt. Der binäre Baum zu dem präfixfreien Code C ist der Baum in Abbildung. C(a) = C(b) = C(c) =, c a b Abbildung : Code-Baum für den Code C(a) =, C(b) = und C(c) =. 2

3 .2 Huffman Code Die Huffman Kodierung wurde 952 von David Albert Huffman veröffentlicht. Sie weist einer Nachricht einen präfixfreien Code zu, mit dem die Nachricht möglichst kurz kodiert wird. Das heißt, es gibt keinen anderen präfixfreien Code, mit der die Nachricht kürzer kodiert werden kann. Folglich ist der Huffman Code die optimale Kompression unter den präfixfreien Codes. Um den Huffman Baum zu dem Code zu generieren, werden nur die relativen Häufigkeiten der einzelnen Symbole benötigt, die in der Nachricht vorkommen. Der Algorithmus läuft dabei wie folgt ab: Algorithm Generierung des Huffman Baumes Verpacke jedes Symbol a einzeln in einen Baum. while Anzahl der Bäume > do Vereinige die beiden Bäume mit kleinster Gesamthäufigkeit end while Da für den Huffman Baum nur die relativen Häufigkeiten benötigt werden, sieht der Baum für alle lange deutsche Texte immer gleich aus. Werden nur solche Texte kodiert, so muss nicht jedes mal der Huffman-Baum neu berechnet werden. Dies hat dann auch den Vorteil, dass für die Dekodierung der Baum auch nicht extra übertragen werden muss..3 Beispiel Als Beispiel betrachten wir das Wort mississippi. Es hat je 4 mal die Buchstaben i und s, zweimal den Buchstaben p und einmal den Buchstaben m. Die einzelnen Schritte des Algorithmus werden in Abbildung 2 dargestellt. Der Code der dabei entsteht ist der Folgende: C(m) = C(p) = C(i) = C(s) =. Somit wird das Wort mississippi zu kodiert..4 Nachteile der Huffman Kodierung Bei der Huffman Kodierung wird angenommen, das jedes auftretende Symbol unabhängig von den Symbolen in der Umgebung ist. Während dies einigermaßen bei Texten gegeben ist, so stimmt es bei Bildern nicht. Denn die Farbwerte benachbarter Pixel unterscheiden sich im Regelfall nur gering. Zusätzlich ist es bei Bildern möglich Informationen zu vergessen, ohne das dies sichtbar wird. Ändert man in einem Bild die einzelnen Farbwerte nur um kleine Werte, so ist dies mit dem bloßen Auge so gut wie nicht wahrnehmbar. Mit der Huffman-Kodierung ist aber nur eine verlustfreie Komprimierung möglich, was dazu führt, dass man solche Eigenschaften nicht ausnutzen kann. 3

4 Schritt Häufigkeit Symbole m i s p Schritt 2 Häufigkeit Symbole i s Schritt 3 Häufigkeit Symbole m p 7 4 s m Schritt 4 Häufigkeit Symbole p i s m p i Abbildung 2: Generierung das Huffman-Baum für das Wort mississippi. 4

5 Dies bedeutet natürlich nicht, dass die Huffman Kodierung bei Bilder nicht eingesetzt wird. Nur sie kann nicht alleine verwendet werden. 2 Diskrete Kosinustransformation (DCT) Bei der Diskreten Kosinustransformation (DCT) wird das Eingangssignal a i als Auswertungen einer Funktion f an den Stellen i dargestellt. Die Funktion f wird dabei als Linearkombination f = b k f k dargestellt. Die f k sind dabei Kosinusfunktionen unterschiedlicher Frequenzen: f (i) = 2 f k (i) = cos ( kπ n ( i + )) 2 für k. Eine Folge b k beschreibt durch die Formel a i = b n 2 + ( ( kπ b k cos i + )) n 2 k= das Eingangssignal a i. Dieses Auswerten wird auch Inverse Diskrete Kosinustransformation genannt. Der Vorteil dieser Darstellung ist, dass die b k mit k groß nur Einfluss auf die Farbveränderung benachbarter Pixel besitzen. Da man aber davon ausgehen kann, dass diese Pixel ähnliche Farbwerte haben, sind diese Einträge klein. Somit sind die Auswirkungen grober Quantisierungen dieser Werte nicht ausschlaggebend. Damit kann die Information dieser Werte verringert werden, ohne dass die Bildqualität besonders leidet. 2. Durchführung der Transformation Die Berechnung der b k aus den a i wird Diskrete Kosinustransformation genannt und erfolgt nach der Regel n ( ( πk b k = a i cos i + )). n 2 i= Diese Formeln beschreiben aber erstmal nur wie eindimensionale Signale transformiert werden. Bilder sind aber zweidimensionale Signale. Für die zweidimensionale Variante wird zuerst jede Zeile des Bildes einzeln betrachtet. Jede dieser Zeilen ist ein eindimensionales Signal, sodass man diese mit Hilfe der Transformation transformieren kann. Tut man dieses für jede einzelne Zeile, so erhält man ein neues Bild. Von diesem Bild betrachtet man nun jede einzelne Spalte. Diese stellen wieder eindimensionale Signale, die wiederum transformiert werden können. Nach diesen Transformationen erhält man dann schlussendlich das vollständig transformierte Bild. Die inverse Transformation läuft dabei genau analog ab. 5

6 Zusammengefasst lässt sich die Transformation durch n n b k,l = i= j= und die inverse Transformation durch beschreiben. a i,j = b n, 4 + k= n + l= n n + k= l= ( ( πk a i,j cos i + )) ( ( πl cos j + )) n 2 n 2 b k, 2 cos ( kπ n ( i + )) 2 ( ( b,l lπ 2 cos j + )) n 2 ( ( kπ b k,l cos i + )) ( ( lπ cos j + )) n 2 n Unzulänglichkeiten der Diskreten Kosinustransformation Die Kosinusfunktionen sind nicht nur lokal definiert, sodass hohe Frequenzen, die nur in einem Bereich des Bildes vorkommen, gleich dazu führen, dass überall Kosinusfunktionen erkannt werden. Dies führt dazu, dass die Bilder nicht mehr gut komprimiert werden können. Das Beispiel 3 zeigt dies gut an einem Beispiel, wo nur am Rand eines Blockes Frequenzen auftreten. Abbildung 3: Diskrete Kosinustransformation eines Bildes mit nur lokal hohen Frequenzen. Dieser Nachteil führt dazu, dass immer nur kleine Ausschnitte effektiv transformiert werden können. Dies wird in dem JPEG Standard auch so verwirklicht, indem immer nur 8 8 Blöcke transformiert werden. Wählt man hierbei aber zu grobe Quantisierungen, so kann es zu großen Farbunterschieden zwischen benachbarten Blöcken kommen und die Blockstruktur wird sichtbar. Zusätzlich besteht das Problem bei der diskreten Kosinus Transformation darin, dass für die Transformation Kosinusfunktionen ausgewertet werden müssen. Dies führt dazu, dass auf Grund der Rechenungenauigkeit auch ohne Quantisierung immer Daten verloren gehen. 6

7 3 Wavelets Bei der Wavelet Transformation wird, wie bei der Diskreten Kosinustransformation auch, das Eingangssignal als Funktionsauswertungen einer Funktion f dargestellt. Im Unterschied wird hierbei f als Linearkombination von nur lokal definierten Funktionen dargestellt. Dies soll verhindern, dass Frequenzen, die nur lokal auftreten, auf dem gesamten Bild erkannt werden. Die einfachsten Wavelets sind die Haar-Wavelets. Die Basisfunktionen hierbei sind die Funktionen φ k (x) = φ(x 2k) und ψ k (x) = ψ(x 2k). Die beiden Funktionen φ und ψ werden in Abbildung 4 dargestellt. Der Ausschlag beider Funktionen soll dabei den Wert 2 besitzen. Abbildung 4: Vater und Mutter Haar-Wavelets φ und ψ. Ist nun ein Signal x = (x,..., x N ) der Länge N = 2 n gegeben, so bildet die Transformation es auf (a, d ) ab. Hierbei soll a die Koeffizienten von φ k und d die Koeffizienten von ψ k enthalten. Berechnen lassen sie sich durch ( a x + x 2 =, x 3 + x 4,..., x ) N + x N ( d x x 2 =, x 3 x 4,..., x ) N x N Dabei wird a als Trend und d als Detail bezeichnet, denn a hat die selbe Form wie x und d beinhaltet die Veränderung zwischen zwei benachbarten Werten. Stammt das Signal von einer Diskretisierung eines kontinuierlichen Signals, so kann man davon ausgehen, dass d nur sehr kleine Einträge besitzt. Die Umkehrtransformation läuft dabei wie folgt ab: Sind a = ( ) a,..., a N/2 und d = ( ) d,..., d N/2 gegeben, so erhält man durch Einsetzen das Ursprungssignal ( a + d x =, a d,..., a N/2 + d N/2, a ) N/2 d N/ Das Beispiel in Abbildung 5 zeigt ganz gut, wie die Informationen in den vorderen Bereich geschoben werden. 7

8 Abbildung 5: Signal vor und nach der Haar-Wavelet Transformation. 8

9 3. Mehrstufen Transformation Nach der Transformation x 7 (a, d ), besitzt a die selbe Form wie x. Folglich bietet es sich an, a weiter zu (a2, d2 ) zu transformieren. Die ai kann man rekursiv immer weiter transformieren, bis man die gewu nschte Tiefe erha lt. Die n-te Stufe der Haar Transformation Hn bildet dann x auf (an, dn, dn,..., d2, d ) ab. 3.2 Zweidimensionale Transformation Die zweidimensionale Transformation la uft analog zu der zweidimensionale Transformation der Diskreten Kosinustransformation ab. Zuerst werden die Zeilen je einzeln transformiert und danach je die Spalten. Das Ergebnis einer zweidimensionale Transformation erster Stufe sieht man in Abbildung 6. Abbildung 6: zweidimensionale -level Transformation 3.3 JPEG2 Standard Bei dem JPEG2 Standard werden Wavelets verwendet. Hierbei handelt es sich aber nicht um die Haar Wavelets, sondern um die Cohen-Daubechies-Feauveau-Wavelets. Diese konzentrieren die Informationen noch besser als die Haar Wavelets. Hierbei werden werden zwei verschiedene Versionen dieser Wavelets verwendet. Die Variante CDF 9/7 wird verwendet, wenn bei kleiner Bildgro ße eine hohe Bildqualita t erreicht werden soll. Und die Variante CDF 5/3 wird verwendet, wenn die Bilder verlustfrei abgespeichert werden sollen. Die Variante CDF 5/3 konzentriert dabei die Informationen nicht so gut wie die CDF 9/7 Variante, aber dafu r ist sie eine Ganzzahl Transformation. Dies wird beno tigt um wegen der Rechenungenauigkeit keine Informationen zu verlieren. 9

10 Nachteile des JPEG2 Standards sind, dass die Transformation um einiges länger dauern als bei der Diskreten Kosinustransformation und zusätzlich wird diese Transformation auch noch durch Patente geschützt. Somit darf man sie nicht ohne weiteres einsetzen. 4 Fraktale Kompression Die Fraktale Kompression besitzt eine ganz andere Idee als die Kompression durch die beiden vorherigen Varianten. In den beiden vorherigen Varianten besteht die Idee daraus, dass die Information verdichtet wird. Bei der Fraktalen Kompression wird das Bild als Fixpunkt einer Funktion beschrieben. Zusätzlich hat die Kompression den Vorteil, dass sie nicht von einem Pixelraster abhängt. Somit kann das Bild beliebig vergrößert werden, ohne das Pixel auftauchen. 4. Grundlagen Ein Iteratives Funktionen System ist eine Menge von kontrahierenden Abbildungen f i : R 2 R 2, i =,..., n. Diese Abbildungen beschreiben den Hutchinson Operator H : 2 R2 2 R2 gegeben durch H(A) = n f i (A). i= Dieser Hutchinson Operator besitzt genau einen nicht leeren kompakten Fixpunkt B R 2. Dieser Fixpunkt B beschreibt dann ein binäres Bild. Ein Punkt p R 2 hat den Farbwert schwarz falls p B und ansonsten weiß. 4.2 Rekonstruktion des Bildes Um den Fixpunkt B des Hutchinson Operator zu bestimmen, wählt man eine beliebige nicht leere kompakte Menge A. Dann berechnet man iterative die Mengen A k+ = H(A k ). Diese Folge konvergiert gegen das gewünschte Bild B. Da im Normalfall kein Index k existiert mit B = A k, berechnet man nur die Folge bis zu einem Index k, sodass zwischen A k und A k kein sichtbarer Unterschied mehr besteht. Im Abbildung 8 sieht man wie die einzelnen Iterationsstufen aussehen. Beachten muss man aber dabei, das hier schon die Erweiterung zu Graustufen vorgenommen worden ist. 4.3 Konstruktion des Hutchinson Operators Die Suche nach einem Iterativen Funktionen System, welches ein gegebenes Bild gut beschreibt, ist nicht ganz einfach. Normalerweise wird dafür das Bild in Domainblöcke D i zerlegt. Für jeden Domainblock D i wird dann ein Rangeblock R i gesucht, der größer ist aber sehr ähnlich zu D i ist. Schlussendlich muss dann nur noch die kontrahierende Abbildung f i bestimmt werden, die R i auf f i (R i ) D i abbildet.

11 Abbildung 7: Iterationsstufen der fraktalen Kompression. Je mehr Spielraum man hierbei für die einzelnen Blöcke und und Abbildungen lässt, umso besser kann man dabei das Bild beschreiben. Eine größere Auswahl bedeutet aber auch, dass die Kodierung länger dauert. Außerdem muss des Weiteren beachtet werden, dass zur Repräsentierung dieser Parameter mehr Speicherplatz benötigt wird. Abbildung 8: Domain- und Rangeblock 4.4 Graustufen und Farbe Um Graustufen bei der fraktalen Kompression zu erlauben muss eine weite Dimension verwendet werden. Das heißt das Bild B ist dann als Teilmenge des R 3 gegeben. Gilt (x, y, z) B, so bedeutet dies, dass die Position (x, y) im Bild den Farbwert z besitzt. Mit immer mehr neuen Dimensionen ist es somit auch möglich weitere Farbkanäle hinzu zufügen. Somit benötigt ein farbiges Bild dann fünf Dimensionen.

12 5 Vergleich Abbildung vergleicht die Bildqualität der einzelnen Verfahren bei den Kompressionsstufen : 35 und :. Hierbei sieht man, dass die Diskrete Kosinustransformation schon bei einer Kompressionsstufe von : 35 leicht zu der Blockstrucktur tendiert. Bei einer Kompressionsstufe von : ist sie sehr deutlich. Bei den Wavelets hingegen hat man bei : 35 noch so gut wie keine Qualitätsverluste, wogegen bei : das Bild leicht unscharf wird. Bei der Fraktalen Kompression entsteht bei : ein recht akzeptables Bild. Hierbei werden aber schon gewisse Details (zum Beispiel beim Hut) weggelassen. Bei : dagegen kann man nur noch schwerlich etwas ausmachen. Dies ist dem Fakt geschuldet, dass das Bild nicht genügend Selbstähnlichkeiten besitzt. Schlussendlich bietet die Wavelet Komprimierung qualitativ die besten Ergebnisse, wogegen die Diskrete Kosinustransformation um einiges schneller abläuft. Hat man aber dagegen ein Bild mit großer Selbstähnlichkeit wie das Bild von einem Blumenkohl aus Abbildung 9, so kann diese die besten Ergebnisse liefern. Abbildung 9: Blumenkohl: Hier eignet sich die fraktale Kompression. 6 Literatur [] Fraktale Kompression. paper/fraktale_kompression.html. [2] Vergleichende Betrachtung von Verfahren zur Bildkompression. http: //monarch.qucosa.de/fileadmin/data/qucosa/documents/496/data/vortrag/ dth/pictures.html. [3] Wikipedia. [4] Ten Lectures on Wavelets. Society for Industrial and Applied Mathematics,

13 :35 : DCT Wavelet Fraktal Abbildung : Vergleich zwischen Diskreter Kosinustransformation, Wavelets und Fraktaler Kompression. 3

Universität Trier. Fachbereich IV. Wintersemester 2004/2005. Wavelets made easy. Kapitel 2 Mehrdimensionale Wavelets und Anwendungen

Universität Trier. Fachbereich IV. Wintersemester 2004/2005. Wavelets made easy. Kapitel 2 Mehrdimensionale Wavelets und Anwendungen Universität Trier Fachbereich IV Wintersemester 2004/2005 Wavelets made easy Kapitel 2 Mehrdimensionale Wavelets und Anwendungen Thomas Queckbörner 16.11.2004 Übersicht des Kapitels: 1. Einführung 2. Zweidimensionale

Mehr

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,

Mehr

Informatik II, SS 2016

Informatik II, SS 2016 Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 22 (20.7.2016) Greedy Algorithmen - Datenkompression Algorithmen und Komplexität Greedy Algorithmen Greedy Algorithmen sind eine Algorithmenmethode,

Mehr

JPEG Kompression technische Realisierung

JPEG Kompression technische Realisierung Experimentalphysik V 20. Januar 2005 Schema der JPEG Kompression Farbraumkonvertierung RGB YCbCr Subsampling der Farbkomponenten Cb, Cr Zerlegung in Blöcke 8 8 2D Kosinustransformation (DCT) Quantisierung

Mehr

Wann sind Codes eindeutig entschlüsselbar?

Wann sind Codes eindeutig entschlüsselbar? Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C

Mehr

Übersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen

Übersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Übersicht Greedy Algorithmen Einführung Aktivitäten-Auswahl-Problem Huffman Codierung Matthias Zwicker Universität Bern Frühling 2009 2 Greedy Algorithmen Entwurfsstrategie

Mehr

Kap.4 JPEG: Bildkompression. Ziel: Gegeben sind Daten y R N. Bestimme C R N N mit C C T = I, so dass x = C y dünbesetzt ist.

Kap.4 JPEG: Bildkompression. Ziel: Gegeben sind Daten y R N. Bestimme C R N N mit C C T = I, so dass x = C y dünbesetzt ist. Kap.4 JPEG: Bildkompression Ziel: Gegeben sind Daten y R N. Bestimme C R N N mit C C T = I, so dass x = C y dünbesetzt ist. Originalbild y (30Kbt) Komprimiertes Bild z y(7kbt) JPEG (Joint Photographic

Mehr

Hauptdiplomklausur Informatik Februar 2006: Multimedia Systems

Hauptdiplomklausur Informatik Februar 2006: Multimedia Systems Universität Mannheim Fakultät für Mathematik und Informatik Lehrstuhl für Praktische Informatik IV Prof. Dr.-Ing. W. Effelsberg Hauptdiplomklausur Informatik Februar 2006: Multimedia Systems Name: Matrikel-Nr.:

Mehr

5 JPEG. 5.1 Bayer Filter. 5.2 Überblick. 5.3 Diskrete Cosinus-Transformation. 5.4 Bildmodell. 5.5 Codierung. 5.6 Übertragungsmodi

5 JPEG. 5.1 Bayer Filter. 5.2 Überblick. 5.3 Diskrete Cosinus-Transformation. 5.4 Bildmodell. 5.5 Codierung. 5.6 Übertragungsmodi 5 JPEG Bayer Filter: G01 R02 G03 R04 G05 R06 G07 R08 5.1 Bayer Filter B09 G10 B11 G12 B13 G14 B15 G16 B17 R18 G19 R20 G21 R22 G23 G24 5.2 Überblick B25 B26 B27 G28 B29 G30 B31 G32 5.3 Diskrete Cosinus-Transformation

Mehr

Kompression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Folie 2

Kompression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Folie 2 Kompression Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Folie 2 1 Inhalte Redundanz Channel Encoding Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression

Mehr

1 Einführung. Bildformate Analyse der LSB-Ersetzung Weitere steganographische Algorithmen. Syndromkodierung in der Steganographie

1 Einführung. Bildformate Analyse der LSB-Ersetzung Weitere steganographische Algorithmen. Syndromkodierung in der Steganographie Gliederung Einführung 1 Einführung 2 3 4 WS 2012/2013 Steganographie und Multimedia-Forensik Folie 121 Farbwahrnehmung Blau: 435,8 nm Grün: 546,1 nm Rot: 700 nm (445 nm) (535 nm) (575 nm) Empfindlichkeit

Mehr

Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg

Datenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg Vortrag am 25. Januar 200 Werner von Siemens Gymnasium Magdeburg Zeitansatz: 5h (inklusive Programmieraufgaben) Datenkompression Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg

Mehr

Kapitel 7: Optimalcodierung und Huffman Coding

Kapitel 7: Optimalcodierung und Huffman Coding Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge

Mehr

Informatik II, SS 2018

Informatik II, SS 2018 Informatik II - SS 2018 (Algorithmen & Datenstrukturen) Vorlesung 21 (11.7.2018) String Matching (Textsuche) II Greedy Algorithmen I Algorithmen und Komplexität Textsuche / String Matching Gegeben: Zwei

Mehr

Einleitung. Kapitel 1

Einleitung. Kapitel 1 Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr

Kompressionsverfahren

Kompressionsverfahren Kompressionsverfahren Quelle: Steinmetz, Ralf: Multimedia-Technologie: Einführung und Grundlagen, Springer, Verlag Verlustlose Kompressionsalgorithmen RLC Huffman Adaptive Huffman Kodierung Arithmetische

Mehr

Proseminar Datenkomprimierung Dr. U. Tamm. JPEG - Kompression WS 2002/03. Torsten Zichner

Proseminar Datenkomprimierung Dr. U. Tamm. JPEG - Kompression WS 2002/03. Torsten Zichner Proseminar Datenkomprimierung Dr. U. Tamm JPEG - Kompression WS 2002/03 Torsten Zichner Inhaltsangabe: 1. Einleitung 2. JPEG Kompression 2.1. Konvertierung des Bildes in ein geeignetes Farbmodell 2.2.

Mehr

Image Compression. Vorlesung FH-Hagenberg DSB

Image Compression. Vorlesung FH-Hagenberg DSB Image Compression Vorlesung FH-Hagenberg DSB Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Inhalte Redundanz Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression

Mehr

Technische Informatik - Eine Einführung

Technische Informatik - Eine Einführung Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und

Mehr

DCT: Diskrete Kosinus-Transformation

DCT: Diskrete Kosinus-Transformation DCT: Diskrete Kosinus-Transformation Kosinusfunktionen für die 1D DCT: zunehmende Frequenz entsprechende Abtastpunkte (Salomon) DCT: 8x8 2D-Transformation DCT: IDCT: effiziente Implementierung? Vorberechnung

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität Gierige Algorithmen: Berechne Lösung schrittweise In jedem Schritt mache lokal optimale Wahl Daumenregel: Wenn optimale Lösung

Mehr

Digitale Medien. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid. Übung zur Vorlesung

Digitale Medien. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid. Übung zur Vorlesung Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid Wintersemester 2016/17 LZW-Komprimierung Idee: Nicht einzelne Zeichen werden günstig kodiert, sondern ganze Zeichenketten

Mehr

Informatik II, SS 2018

Informatik II, SS 2018 Informatik II - SS 28 (Algorithmen & Datenstrukturen) Vorlesung 22 (6.7.28) Greedy Algorithmen II (Datenkompression) Algorithmen und Komplexität Datenkompression Reduziert Größen von Files Viele Verfahren

Mehr

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Error-Free Compression Hufmann Coding Runlength Coding Lossy Compression

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Grundbegriffe der Informatik Tutorium 3

Grundbegriffe der Informatik Tutorium 3 Grundbegriffe der Informatik Tutorium 3 Tutorium Nr. 16 Philipp Oppermann 18. November 2014 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg

Image Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Channel Encoding Error-Free Compression Hufmann Coding Runlength

Mehr

Gierige Algorithmen Interval Scheduling

Gierige Algorithmen Interval Scheduling Gierige Algorithmen Interval Scheduling IntervalScheduling(s,f). n length[s] 2. A {} 3. j 4. for i 2 to n do 5. if s[i] f[j] then 6. A A {i} 7. j i 8. return A Gierige Algorithmen Interval Scheduling Beweisidee:

Mehr

Algebra & Zahlentheorie. Letztes Tutorium. David Müßig. muessig[at]mi.fu-berlin.de WiSe 12/13

Algebra & Zahlentheorie. Letztes Tutorium. David Müßig. muessig[at]mi.fu-berlin.de  WiSe 12/13 Letztes Tutorium David Müßig muessig[at]mi.fu-berlin.de http://page.mi.fu-berlin.de/def/tutorium/ WiSe 12/13 1 Beispiele 1.1 e-te Wurzeln in Z/nZ Bemerkung. Dies ist ein Beispiel zur Bestimmung von e x

Mehr

Kap. 7: Wavelets. 2. Diskrete Wavelet-Transformation (DWT) 4. JPEG2000. H. Burkhardt, Institut für Informatik, Universität Freiburg DBV-I 1

Kap. 7: Wavelets. 2. Diskrete Wavelet-Transformation (DWT) 4. JPEG2000. H. Burkhardt, Institut für Informatik, Universität Freiburg DBV-I 1 Kap. 7: Wavelets. Die kontinuierliche Wavelet-Transformation (WT). Diskrete Wavelet-Transformation (DWT) 3. Sh Schnelle Wavelet-Transformation ltt ti (FWT) 4. JPEG000 H. Burkhardt, Institut für Informatik,

Mehr

Digitalisierung. analoges Signal PAM. Quantisierung

Digitalisierung. analoges Signal PAM. Quantisierung Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste

Mehr

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 6

Perlen der Informatik I Wintersemester 2012 Aufgabenblatt 6 Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Lerneinheit 3: Greedy Algorithmen Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2016 10.5.2016 Einleitung Einleitung Diese Lerneinheit

Mehr

J.P.E.G. Standard. J.P.E.G. Eigenschaften. J.P.E.G. System. JPEG Verschlüsselungsschritte. Farbmodell

J.P.E.G. Standard. J.P.E.G. Eigenschaften. J.P.E.G. System. JPEG Verschlüsselungsschritte. Farbmodell Inhaltsbasierte Bildsuche J.P.E.G = Joint Photographic Expert Group Informatica Feminale Universität Bremen, Aug. 2005 Maja Temerinac Albert-Ludwigs-Universität Freiburg J.P.E.G. Standard Standard zur

Mehr

Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte

Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte Fachhochschule Wedel Seminararbeit Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte Sven Reinck 7. Januar 2007 Inhaltsverzeichnis Inhaltsverzeichnis Motivation 2 Wörterbuch 2.

Mehr

Hauptklausur zur Vorlesung Bildverarbeitung WS 2002/2003

Hauptklausur zur Vorlesung Bildverarbeitung WS 2002/2003 Name:........................................ Vorname:..................................... Matrikelnummer:.............................. Bitte Studiengang ankreuzen: Computervisualistik Informatik Hauptklausur

Mehr

6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N. 6.1 von wörtern zu zahlen und zurück Dezimaldarstellung von Zahlen Num 10

6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N. 6.1 von wörtern zu zahlen und zurück Dezimaldarstellung von Zahlen Num 10 6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N 6.1 von wörtern zu zahlen und zurück 6.1.1 Dezimaldarstellung von Zahlen Num 10 Num10(ε) = 0 (6.1) für jedes w Z 10 für jedes x Z 10 Num 10 (wx)

Mehr

Einführung in die objektorientierte Programmierung mit C++

Einführung in die objektorientierte Programmierung mit C++ Prof. Dr. Thomas Klinker FB Elektrotechnik und Informatik 08. 03. 2007 Projekt im 4. Semester Elektrotechnik: Einführung in die objektorientierte Programmierung mit C++ Aufgabe 1: Schreiben Sie ein Programm,

Mehr

Vektoren - Basiswechsel - Matrix

Vektoren - Basiswechsel - Matrix Vektoren - asiswechsel - Matrix 1. Prinzip er Zusammenhang zwischen zwei asissystemen sollen formal eleganter durchgeführt werden. Ein Nachteil des "einfachen" Verfahrens - siehe Seite V0 - ist, dass teilweise

Mehr

Mathematik für Information und Kommunikation

Mathematik für Information und Kommunikation Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html

Mehr

JPEG - Kompression. Steffen Grunwald, Christiane Schmidt, Stephan Weck TIT01EGR BA-Mannheim 21. Mai 2002

JPEG - Kompression. Steffen Grunwald, Christiane Schmidt, Stephan Weck TIT01EGR BA-Mannheim 21. Mai 2002 JPEG - Kompression Steffen Grunwald, Christiane Schmidt, Stephan Weck TIT01EGR BA-Mannheim 21. Mai 2002 Inhaltsverzeichnis 1 Entwicklung von JPEG 2 1.1 Was heisst und was ist JPEG?................... 2

Mehr

Proseminar Kodierverfahren bei Dr. Ulrich Tamm Sommersemester 2003 Thema: Codierung von Bäumen (Prüfer Codes...)

Proseminar Kodierverfahren bei Dr. Ulrich Tamm Sommersemester 2003 Thema: Codierung von Bäumen (Prüfer Codes...) Proseminar Kodierverfahren bei Dr. Ulrich Tamm Sommersemester 2003 Thema: Codierung von Bäumen (Prüfer Codes...) Inhalt: Einleitung, Begriffe Baumtypen und deren Kodierung Binäre Bäume Mehrwegbäume Prüfer

Mehr

Praktikum BKSPP: Blatt 2

Praktikum BKSPP: Blatt 2 Praktikum BKSPP: Blatt 2 PD Dr. David Sabel WS 2014/15 Zeichenbasierte Komprimierung Stringersatzverfahren Codebäume Huffman-Kodierung Zeichenbasierte Komprimierung mit Codebäumen Idee: Kodiere jedes Zeichen

Mehr

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe: Fachbereich Medieninformatik Hochschule Harz Huffman-Kodierung Referat Henner Wöhler 11459 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung...I 1. Entropiekodierung...1 1.1 Morse Code...2 1.2 Shannon-Fano-Kodierung...3

Mehr

Übung: Computergrafik 1

Übung: Computergrafik 1 Prof. Dr. Andreas Butz Prof. Dr. Ing. Axel Hoppe Dipl.-Medieninf. Dominikus Baur Dipl.-Medieninf. Sebastian Boring Übung: Computergrafik 1 Fouriertransformation Organisatorisches Neue Abgabefrist für Blatt

Mehr

21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3

21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv

Mehr

Algorithmen und Datenstrukturen (für ET/IT)

Algorithmen und Datenstrukturen (für ET/IT) Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,

Mehr

Datenkompression. Theorie

Datenkompression. Theorie Datenkompression Theorie Einleitung Übersicht Wie lassen sich beliebige Daten verdichtet (komprimiert) darstellen? verlustfreie Kompression: Programme Texte verlustbehaftete Kompression: Audio Video Kompressionsfaktor:

Mehr

Erzeugendensystem und Basis

Erzeugendensystem und Basis Erzeugendensystem und Basis Definition Erzeugendensystem und Basis eines Unterraums Sei S F n 2 ein Unterraum. Eine Menge G = {g 1,..., g k } S heißt Erzeugendensystem von S, falls jedes x S als Linearkombination

Mehr

6. Komprimierung. (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger

6. Komprimierung. (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger Komprimierung 6. Komprimierung (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger Platz brauchen Motivation: beschleunigt Plattenzugriffe oder Datenübertragungen Voraussetzung:

Mehr

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft

Mehr

Klausur zur Linearen Algebra I HS 2012, Universität Mannheim, Dr. Ralf Kurbel, Dr. Harald Baum

Klausur zur Linearen Algebra I HS 2012, Universität Mannheim, Dr. Ralf Kurbel, Dr. Harald Baum Klausur zur Linearen Algebra I HS 01, 1.1.01 Universität Mannheim, Dr. Ralf Kurbel, Dr. Harald Baum Name: Sitzplatznummer: Die Bearbeitungszeit für diese Klausur beträgt 90 Minuten. Die Klausur umfaßt

Mehr

Wavelets made easy Yves Nievergelt

Wavelets made easy Yves Nievergelt Wavelets made easy Yves Nievergelt Kapitel 1 - Haar s Simple Wavelets Das erste Kapitel Haar s Simple Wavelets aus dem Buch Wavelets made easy von Yves Nievergelt behandelt die einfachsten Wavelets und

Mehr

Übungsblatt 5 - Musterlösung

Übungsblatt 5 - Musterlösung Universität Mannheim Lehrstuhl für Praktische Informatik IV Prof. Dr. W. Effelsberg Christoph Kuhmünch, Gerald Kühne Praktische Informatik II SS 2000 Übungsblatt 5 - Musterlösung Aufgabe 1: Huffman-Codierung

Mehr

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon

Mehr

Multimediatechnik / Video

Multimediatechnik / Video Multimediatechnik / Video Video-Kompression Zusammenfassung http://www.nanocosmos.de/lietz/mtv 2009 1 Motivation: Video-Kompression Unkomprimierte Datenmengen sind zu groß! TV: 20 MB/s = 72 GB/h (720x576x2x25)

Mehr

Parallele FFT-Algorithmen

Parallele FFT-Algorithmen Parallele FFT-Algorithmen Jörg Haeger 11. Juli 1996 1 Die diskrete Fourier-Transformation (DFT) 2 2 Permutationen und Graphen 2 2.1 Permutationen.............................. 2 2.2 Graphen..................................

Mehr

Relevante Frequenztransformationen

Relevante Frequenztransformationen Relevante Frequenztransformationen Medientechnologie IL Andreas Unterweger Vertiefung Medieninformatik Studiengang ITS FH Salzburg Sommersemester 206 Andreas Unterweger (FH Salzburg) Relevante Frequenztransformationen

Mehr

Lösungen zu den Hausaufgaben zur Analysis II

Lösungen zu den Hausaufgaben zur Analysis II Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin

Mehr

Nützliches Hilfsmittel (um Schreiberei zu reduzieren): 'Erweiterte Matrix': Gauß- Verfahren

Nützliches Hilfsmittel (um Schreiberei zu reduzieren): 'Erweiterte Matrix': Gauß- Verfahren L5.4 Inverse einer Matrix Ausgangsfrage: Wie löst man ein lineares Gleichungsystem (LSG)? Betrachte n lineare Gleichungen für n Unbekannte: Ziel: durch geeignete Umformungen bringe man das LSG in folgende

Mehr

Diskrete Mathematik II

Diskrete Mathematik II Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2008 DiMA II - Vorlesung 01-07.04.2008 Einführung in die Codierungstheorie, Definition Codes 1 / 36 Organisatorisches

Mehr

Puls-Code-Modulation. Thema: PCM. Ziele

Puls-Code-Modulation. Thema: PCM. Ziele Puls-Code-Modulation Ziele Mit diesen rechnerischen und experimentellen Übungen wird die Vorgehensweise zur Abtastung und linearen Quantisierung eines analogen Signals erarbeitet. Bei der Abtastung werden

Mehr

'LJLWDOH%LOGHUXQG'DWHLIRUPDWH

'LJLWDOH%LOGHUXQG'DWHLIRUPDWH 'LJLWDOH%LOGHUXQG'DWHLIRUPDWH Seminar: Simulation und Bildanalyse mit Java 07.07.2003 Seite 1 von 25 hehuvlfkw 1. Digitalisierung 2. Bilddateiformate 3. verlustfreie Datenkompression 4. JPEG Kompression

Mehr

Einführung Aufgabe 3 - MPEG. Tobias Reinsch 2011

Einführung Aufgabe 3 - MPEG. Tobias Reinsch 2011 Einführung Aufgabe 3 - MPEG Tobias Reinsch 2011 Allgemeines Aufgabe 3 - MPEG Ziel der Aufgabe Kennenlernen der Bildkodierungsverfahren des MPEG Standards Praktische Umsetzung dieser Techniken mit Java

Mehr

Graphen: Rundwege, Kodierung von Bäumen

Graphen: Rundwege, Kodierung von Bäumen TH Mittelhessen, Wintersemester 2013/2014 Lösungen zu Übungsblatt 11 Fachbereich MNI, Diskrete Mathematik 4./5./6. Februar 2014 Prof. Dr. Hans-Rudolf Metz Graphen: Rundwege, Kodierung von Bäumen Aufgabe

Mehr

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd

Mehr

Optimalcodierung. Thema: Optimalcodierung. Ziele

Optimalcodierung. Thema: Optimalcodierung. Ziele Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.

Mehr

1. Die freie Gruppe F [A]

1. Die freie Gruppe F [A] 1. Die freie Gruppe F [A] Definition: Eine Menge A heißt Alphabet. Eine formale Potenz der Form a k, a A, k Z heißt Silbe. Ein Wort ist eine endliche Folge a 1 a n k n von Silben. Die Folge mit Länge Null

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Lernmodul 7 Algorithmus von Dijkstra

Lernmodul 7 Algorithmus von Dijkstra Folie 1 von 30 Lernmodul 7 Algorithmus von Dijkstra Quelle: http://www.map24.de Folie 2 von 30 Algorithmus von Dijkstra Übersicht Kürzester Weg von A nach B in einem Graphen Problemstellung: Suche einer

Mehr

Kompression.pdf h. völz /17

Kompression.pdf h. völz /17 Kompression.pdf h. völz 23.5.02 1/17 Lauflängen-Codierung CCCCCCAABBBBAAAAEE _ 6C2A4B4A2E Pixel- und Zähl-Byte unterscheiden Pointer-Verfahren ABRABRIKADABRA Ab 4. Buchstaben ABR _ Verweis . total

Mehr

Algorithmische Bioinformatik 1

Algorithmische Bioinformatik 1 Algorithmische Bioinformatik 1 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Algorithmen

Mehr

Seminar über Algorithmen, SS2004. Textkompression. von Christian Grümme und Robert Hartmann

Seminar über Algorithmen, SS2004. Textkompression. von Christian Grümme und Robert Hartmann Seminar über Algorithmen, SS2004 Textkompression von Christian Grümme und Robert Hartmann 1. Einleitung Textkompression wird zur Verringerung des Speicherbedarfs und der Übertragungskapazität von allgemeinen

Mehr

A = A A

A = A A Musterlösung - Aufgabenblatt 8 Aufgabe 1 Gegeben ist das Polytop P = conv {±e i ± e j : 1 i, j 3, i j} = conv {e 1 + e 2, e 1 e 2, e 1 + e 2, e 1 e 2, e 1 + e 3, e 1 e 3, e 1 + e 3, e 1 e 3, e 2 + e 3,

Mehr

Bildverarbeitung: Fourier-Transformation. D. Schlesinger () BV: Fourier-Transformation 1 / 16

Bildverarbeitung: Fourier-Transformation. D. Schlesinger () BV: Fourier-Transformation 1 / 16 Bildverarbeitung: Fourier-Transformation D. Schlesinger () BV: Fourier-Transformation 1 / 16 Allgemeines Bilder sind keine Vektoren. Bilder sind Funktionen x : D C (Menge der Pixel in die Menge der Farbwerte).

Mehr

Algorithmen und Komplexität

Algorithmen und Komplexität Algorithmen und Komplexität Dynamische Programmierung Markus Ullrich Norbert Baum Fachbereich Informatik - IIb07 Hochschule Zittau/Görlitz 28. Mai 2009 1 / 29 Wie sieht es mit langen Ketten aus? A 1 A

Mehr

Design, Entwicklung und Evaluation eines Low Motion Videocodecs

Design, Entwicklung und Evaluation eines Low Motion Videocodecs Design, Entwicklung und eines Low Motion Videocodecs Betreuer: Zefir Kurtisi Seminarvortrag zur Studienarbeit Institut für Betriebssysteme und Rechnerverbund Technische Universität Braunschweig Motivation

Mehr

2.7 Der Shannon-Fano-Elias Code

2.7 Der Shannon-Fano-Elias Code 2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.

Mehr

Nützliches Hilfsmittel (um Schreiberei zu reduzieren): 'Erweiterte Matrix': Gauß- Verfahren

Nützliches Hilfsmittel (um Schreiberei zu reduzieren): 'Erweiterte Matrix': Gauß- Verfahren L5.4 Inverse einer Matrix Ausgangsfrage: Wie löst man ein lineares Gleichungsystem (LSG)? Betrachte n lineare Gleichungen für n Unbekannte: Ziel: durch geeignete Umformungen bringe man das LSG in folgende

Mehr

Textkompression: Burrows-Wheeler-Transformation

Textkompression: Burrows-Wheeler-Transformation Proseminar Algorithmen der Bioinformatik WS 2010/11 Textkompression: Burrows-Wheeler-Transformation Johann Hawe Johann Hawe, WS 2010/11 1 Gliederung 1. Einleitung 2. BWT Kompressionstransformation 2.1

Mehr

von Zahlenfolgen, die bei Gebietsteilungsproblemen

von Zahlenfolgen, die bei Gebietsteilungsproblemen Zahlenfolgen bei Gebietsteilungsproblemen Karin Halupczok Oktober 005 Zusammenfassung Gesucht sind rekursive und explizite Bildungsgesetze von Zahlenfolgen, die bei Gebietsteilungsproblemen auftauchen:

Mehr

JPEG. Seminar: Kompressionsalgorithmen. Ruslan Ragimov. 5. September 2012

JPEG. Seminar: Kompressionsalgorithmen. Ruslan Ragimov. 5. September 2012 JPEG Seminar: Kompressionsalgorithmen Ruslan Ragimov 5. September 2012 Zusammenfassung Die allgemeinen verlustfreien Verfahren zur Datenkompression können gute Kompressionsraten für verschiedene Dateitypen

Mehr

KAPITEL 5. Damit wird F n (B) selbst zu einer Booleschen Algebra und es gilt f(x) := f(x) 0(x) := 0 B 1(x) := 1 B

KAPITEL 5. Damit wird F n (B) selbst zu einer Booleschen Algebra und es gilt f(x) := f(x) 0(x) := 0 B 1(x) := 1 B KAPITEL 5 Boolesche Polynome Polynome über R, d.h. reelle Funktionen der Form p(x) = a 0 + a 1 x + + a n x n, x R, sind schon aus der Schulmathematik bekannt. Wir beschäftigen uns nun mit Booleschen Polynomen,

Mehr

16 - Kompressionsverfahren für Texte

16 - Kompressionsverfahren für Texte 16 - Kompressionsverfahren für Texte Prof. Dr. S. Albers Kompressionsverfahren für Texte Verlustfreie Kompression Original kann perfekt rekonstruiert werden Beispiele: Huffman Code, Lauflängencodierung,

Mehr

Lösung Serie 11: Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung

Lösung Serie 11: Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung D-MATH/D-PHYS Lineare Algebra I HS 06 Dr. Meike Akveld Lösung Serie : Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung. Um zu zeigen, dass es sich bei den gegebenen Vektoren um Basen handelt,

Mehr

Aufgaben Fibonacci-Folgen 28. April 2006 Blatt 3 B. Werner SoSe 06

Aufgaben Fibonacci-Folgen 28. April 2006 Blatt 3 B. Werner SoSe 06 25. August 2006 Aufgaben Fibonacci-Folgen 28. April 2006 Blatt 3 B. Werner SoSe 06 Präsenzaufgaben: Aufgabe P9: Man betrachte n Münzwürfe, wobei man mit Null Wappen und mit Eins Zahl codiere. Man erhält

Mehr

6. Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke. 6. Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 107/ 238

6. Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke. 6. Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 107/ 238 6 Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 6 Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 107/ 238 Erinnerung: Der Vektorraum F n 2 Schreiben {0, 1} n als F n 2 Definition

Mehr

Lineare Algebra I (WS 12/13)

Lineare Algebra I (WS 12/13) Lineare Algebra I (WS 12/13) Bernhard Hanke Universität Augsburg 17.10.2012 Bernhard Hanke 1 / 9 Wir beschreiben den folgenden Algorithmus zur Lösung linearer Gleichungssysteme, das sogenannte Gaußsche

Mehr

9 Lineare Gleichungssysteme

9 Lineare Gleichungssysteme 9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der

Mehr

Datenkompression: Fraktale Kompression. H. Fernau

Datenkompression: Fraktale Kompression. H. Fernau Datenkompression: Fraktale Kompression H. Fernau email: fernau@informatik.uni-trier.de SoSe 2006 Universität Trier 1 Fraktale Codierung mathematische Grundgedanken Statt ein Datum zu übertragen, übertrage

Mehr

Polynominterpolation. Allgemeines Problem: Beispiel 1 (Teil 1):

Polynominterpolation. Allgemeines Problem: Beispiel 1 (Teil 1): . Großübung Polynominterpolation Allgemeines Problem: Aufgrund gegebener Messwerte (Paare aus Werten i und Funktionswerten f( i )) soll ein Funktionsverlauf rekonstruiert bzw. zumeist angenähert werden.

Mehr

Arithmetisches Codieren

Arithmetisches Codieren Arithmetisches Codieren 1. Motivation: Als Alternative zum arithmetischen Codieren bot sich damals als effizientester Algorithmus das Huffmann-Coding an. Dieses jedoch hatte einen entscheidenden Nachteil:

Mehr

Darstellung als Filterbank. Annahme für die Codierung: bestimmter Betrachtungsabstand, Wiedergabegröße Bestimmter Betrachtungswinkel für das Auge.

Darstellung als Filterbank. Annahme für die Codierung: bestimmter Betrachtungsabstand, Wiedergabegröße Bestimmter Betrachtungswinkel für das Auge. Darstellung als Filterbank Annahme für die Codierung: bestimmter Betrachtungsabstand, Wiedergabegröße Bestimmter Betrachtungswinkel für das Auge. - Trifft in bestimmten Maße auch auf das Original zu, da

Mehr

Effiziente Algorithmen 2

Effiziente Algorithmen 2 Effiziente Algorithmen 2 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Algorithmen

Mehr

DisMod-Repetitorium Tag 3

DisMod-Repetitorium Tag 3 DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität

Mehr

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein. 3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle

Mehr

Eine verlustbehaftete Komprimierung ist es, wenn wir einige Kleidungsstücke zu

Eine verlustbehaftete Komprimierung ist es, wenn wir einige Kleidungsstücke zu Komprimierungen In Netzwerken müssen viele Daten transportiert werden. Dies geht natürlich schneller, wenn die Datenmengen klein sind. Um dies erreichen zu können werden die Daten komprimiert. Das heisst,

Mehr