Eike Müller. Kompression-Algorithmen für Bilder. 3. Juli 2013
|
|
- Nadja Dieter
- vor 5 Jahren
- Abrufe
Transkript
1 Eike Müller Kompression-Algorithmen für Bilder 3. Juli 23 Inhaltsverzeichnis Huffman-Kodierung 2. Präfixfreie Codes Huffman Code Beispiel Nachteile der Huffman Kodierung Diskrete Kosinustransformation (DCT) 5 2. Durchführung der Transformation Unzulänglichkeiten der Diskreten Kosinustransformation Wavelets 7 3. Mehrstufen Transformation Zweidimensionale Transformation JPEG2 Standard Fraktale Kompression 4. Grundlagen Rekonstruktion des Bildes Konstruktion des Hutchinson Operators Graustufen und Farbe Vergleich 6 Literatur 2
2 Huffman-Kodierung. Präfixfreie Codes Ein Code ist eine Vorschrift, die eine Nachricht in eine andere Sprache umwandelt. Hierbei wird jedem Symbol des Alphabets der Nachricht ein Codewort zugeordnet. Der vielleicht bekannteste Code ist die ASCII Kodierung, der jedem Symbol eine - Folge der Länge 8 zuordnet. Problematisch hierbei ist, dass diese Codes nicht eindeutig sein müssen. Ist zum Beispiel der folgende Code C gegeben C(a) = C(b) = C(c) =, so kann man nicht entscheiden, ob die kodierte Nachricht zu c oder zu ab dekodiert werden soll. Deswegen ist die Familie der präfixfreien Codes besonders interessant. Ein Code heißt präfixfrei, genau dann wenn jedes Codewort nicht Präfix von einem anderen Codewort ist. Da nur ein Codewort Präfix der kodierten Nachricht sein kann, folgt aus dieser Eigenschaft, dass jede kodierte Nachricht eindeutigt dekodiert werden kann. Solche Codes werden gerne in einem Binären Baum dargestellt, wobei die Kanten nach rechts mit und die nach links mit beschriftet werden. Jedes Blatt ist dann mit einem eigenen Symbol markiert und das Codewort für dieses Symbol ergibt sich aus den Kanten von der Wurzel hin zu diesem Blatt. Der binäre Baum zu dem präfixfreien Code C ist der Baum in Abbildung. C(a) = C(b) = C(c) =, c a b Abbildung : Code-Baum für den Code C(a) =, C(b) = und C(c) =. 2
3 .2 Huffman Code Die Huffman Kodierung wurde 952 von David Albert Huffman veröffentlicht. Sie weist einer Nachricht einen präfixfreien Code zu, mit dem die Nachricht möglichst kurz kodiert wird. Das heißt, es gibt keinen anderen präfixfreien Code, mit der die Nachricht kürzer kodiert werden kann. Folglich ist der Huffman Code die optimale Kompression unter den präfixfreien Codes. Um den Huffman Baum zu dem Code zu generieren, werden nur die relativen Häufigkeiten der einzelnen Symbole benötigt, die in der Nachricht vorkommen. Der Algorithmus läuft dabei wie folgt ab: Algorithm Generierung des Huffman Baumes Verpacke jedes Symbol a einzeln in einen Baum. while Anzahl der Bäume > do Vereinige die beiden Bäume mit kleinster Gesamthäufigkeit end while Da für den Huffman Baum nur die relativen Häufigkeiten benötigt werden, sieht der Baum für alle lange deutsche Texte immer gleich aus. Werden nur solche Texte kodiert, so muss nicht jedes mal der Huffman-Baum neu berechnet werden. Dies hat dann auch den Vorteil, dass für die Dekodierung der Baum auch nicht extra übertragen werden muss..3 Beispiel Als Beispiel betrachten wir das Wort mississippi. Es hat je 4 mal die Buchstaben i und s, zweimal den Buchstaben p und einmal den Buchstaben m. Die einzelnen Schritte des Algorithmus werden in Abbildung 2 dargestellt. Der Code der dabei entsteht ist der Folgende: C(m) = C(p) = C(i) = C(s) =. Somit wird das Wort mississippi zu kodiert..4 Nachteile der Huffman Kodierung Bei der Huffman Kodierung wird angenommen, das jedes auftretende Symbol unabhängig von den Symbolen in der Umgebung ist. Während dies einigermaßen bei Texten gegeben ist, so stimmt es bei Bildern nicht. Denn die Farbwerte benachbarter Pixel unterscheiden sich im Regelfall nur gering. Zusätzlich ist es bei Bildern möglich Informationen zu vergessen, ohne das dies sichtbar wird. Ändert man in einem Bild die einzelnen Farbwerte nur um kleine Werte, so ist dies mit dem bloßen Auge so gut wie nicht wahrnehmbar. Mit der Huffman-Kodierung ist aber nur eine verlustfreie Komprimierung möglich, was dazu führt, dass man solche Eigenschaften nicht ausnutzen kann. 3
4 Schritt Häufigkeit Symbole m i s p Schritt 2 Häufigkeit Symbole i s Schritt 3 Häufigkeit Symbole m p 7 4 s m Schritt 4 Häufigkeit Symbole p i s m p i Abbildung 2: Generierung das Huffman-Baum für das Wort mississippi. 4
5 Dies bedeutet natürlich nicht, dass die Huffman Kodierung bei Bilder nicht eingesetzt wird. Nur sie kann nicht alleine verwendet werden. 2 Diskrete Kosinustransformation (DCT) Bei der Diskreten Kosinustransformation (DCT) wird das Eingangssignal a i als Auswertungen einer Funktion f an den Stellen i dargestellt. Die Funktion f wird dabei als Linearkombination f = b k f k dargestellt. Die f k sind dabei Kosinusfunktionen unterschiedlicher Frequenzen: f (i) = 2 f k (i) = cos ( kπ n ( i + )) 2 für k. Eine Folge b k beschreibt durch die Formel a i = b n 2 + ( ( kπ b k cos i + )) n 2 k= das Eingangssignal a i. Dieses Auswerten wird auch Inverse Diskrete Kosinustransformation genannt. Der Vorteil dieser Darstellung ist, dass die b k mit k groß nur Einfluss auf die Farbveränderung benachbarter Pixel besitzen. Da man aber davon ausgehen kann, dass diese Pixel ähnliche Farbwerte haben, sind diese Einträge klein. Somit sind die Auswirkungen grober Quantisierungen dieser Werte nicht ausschlaggebend. Damit kann die Information dieser Werte verringert werden, ohne dass die Bildqualität besonders leidet. 2. Durchführung der Transformation Die Berechnung der b k aus den a i wird Diskrete Kosinustransformation genannt und erfolgt nach der Regel n ( ( πk b k = a i cos i + )). n 2 i= Diese Formeln beschreiben aber erstmal nur wie eindimensionale Signale transformiert werden. Bilder sind aber zweidimensionale Signale. Für die zweidimensionale Variante wird zuerst jede Zeile des Bildes einzeln betrachtet. Jede dieser Zeilen ist ein eindimensionales Signal, sodass man diese mit Hilfe der Transformation transformieren kann. Tut man dieses für jede einzelne Zeile, so erhält man ein neues Bild. Von diesem Bild betrachtet man nun jede einzelne Spalte. Diese stellen wieder eindimensionale Signale, die wiederum transformiert werden können. Nach diesen Transformationen erhält man dann schlussendlich das vollständig transformierte Bild. Die inverse Transformation läuft dabei genau analog ab. 5
6 Zusammengefasst lässt sich die Transformation durch n n b k,l = i= j= und die inverse Transformation durch beschreiben. a i,j = b n, 4 + k= n + l= n n + k= l= ( ( πk a i,j cos i + )) ( ( πl cos j + )) n 2 n 2 b k, 2 cos ( kπ n ( i + )) 2 ( ( b,l lπ 2 cos j + )) n 2 ( ( kπ b k,l cos i + )) ( ( lπ cos j + )) n 2 n Unzulänglichkeiten der Diskreten Kosinustransformation Die Kosinusfunktionen sind nicht nur lokal definiert, sodass hohe Frequenzen, die nur in einem Bereich des Bildes vorkommen, gleich dazu führen, dass überall Kosinusfunktionen erkannt werden. Dies führt dazu, dass die Bilder nicht mehr gut komprimiert werden können. Das Beispiel 3 zeigt dies gut an einem Beispiel, wo nur am Rand eines Blockes Frequenzen auftreten. Abbildung 3: Diskrete Kosinustransformation eines Bildes mit nur lokal hohen Frequenzen. Dieser Nachteil führt dazu, dass immer nur kleine Ausschnitte effektiv transformiert werden können. Dies wird in dem JPEG Standard auch so verwirklicht, indem immer nur 8 8 Blöcke transformiert werden. Wählt man hierbei aber zu grobe Quantisierungen, so kann es zu großen Farbunterschieden zwischen benachbarten Blöcken kommen und die Blockstruktur wird sichtbar. Zusätzlich besteht das Problem bei der diskreten Kosinus Transformation darin, dass für die Transformation Kosinusfunktionen ausgewertet werden müssen. Dies führt dazu, dass auf Grund der Rechenungenauigkeit auch ohne Quantisierung immer Daten verloren gehen. 6
7 3 Wavelets Bei der Wavelet Transformation wird, wie bei der Diskreten Kosinustransformation auch, das Eingangssignal als Funktionsauswertungen einer Funktion f dargestellt. Im Unterschied wird hierbei f als Linearkombination von nur lokal definierten Funktionen dargestellt. Dies soll verhindern, dass Frequenzen, die nur lokal auftreten, auf dem gesamten Bild erkannt werden. Die einfachsten Wavelets sind die Haar-Wavelets. Die Basisfunktionen hierbei sind die Funktionen φ k (x) = φ(x 2k) und ψ k (x) = ψ(x 2k). Die beiden Funktionen φ und ψ werden in Abbildung 4 dargestellt. Der Ausschlag beider Funktionen soll dabei den Wert 2 besitzen. Abbildung 4: Vater und Mutter Haar-Wavelets φ und ψ. Ist nun ein Signal x = (x,..., x N ) der Länge N = 2 n gegeben, so bildet die Transformation es auf (a, d ) ab. Hierbei soll a die Koeffizienten von φ k und d die Koeffizienten von ψ k enthalten. Berechnen lassen sie sich durch ( a x + x 2 =, x 3 + x 4,..., x ) N + x N ( d x x 2 =, x 3 x 4,..., x ) N x N Dabei wird a als Trend und d als Detail bezeichnet, denn a hat die selbe Form wie x und d beinhaltet die Veränderung zwischen zwei benachbarten Werten. Stammt das Signal von einer Diskretisierung eines kontinuierlichen Signals, so kann man davon ausgehen, dass d nur sehr kleine Einträge besitzt. Die Umkehrtransformation läuft dabei wie folgt ab: Sind a = ( ) a,..., a N/2 und d = ( ) d,..., d N/2 gegeben, so erhält man durch Einsetzen das Ursprungssignal ( a + d x =, a d,..., a N/2 + d N/2, a ) N/2 d N/ Das Beispiel in Abbildung 5 zeigt ganz gut, wie die Informationen in den vorderen Bereich geschoben werden. 7
8 Abbildung 5: Signal vor und nach der Haar-Wavelet Transformation. 8
9 3. Mehrstufen Transformation Nach der Transformation x 7 (a, d ), besitzt a die selbe Form wie x. Folglich bietet es sich an, a weiter zu (a2, d2 ) zu transformieren. Die ai kann man rekursiv immer weiter transformieren, bis man die gewu nschte Tiefe erha lt. Die n-te Stufe der Haar Transformation Hn bildet dann x auf (an, dn, dn,..., d2, d ) ab. 3.2 Zweidimensionale Transformation Die zweidimensionale Transformation la uft analog zu der zweidimensionale Transformation der Diskreten Kosinustransformation ab. Zuerst werden die Zeilen je einzeln transformiert und danach je die Spalten. Das Ergebnis einer zweidimensionale Transformation erster Stufe sieht man in Abbildung 6. Abbildung 6: zweidimensionale -level Transformation 3.3 JPEG2 Standard Bei dem JPEG2 Standard werden Wavelets verwendet. Hierbei handelt es sich aber nicht um die Haar Wavelets, sondern um die Cohen-Daubechies-Feauveau-Wavelets. Diese konzentrieren die Informationen noch besser als die Haar Wavelets. Hierbei werden werden zwei verschiedene Versionen dieser Wavelets verwendet. Die Variante CDF 9/7 wird verwendet, wenn bei kleiner Bildgro ße eine hohe Bildqualita t erreicht werden soll. Und die Variante CDF 5/3 wird verwendet, wenn die Bilder verlustfrei abgespeichert werden sollen. Die Variante CDF 5/3 konzentriert dabei die Informationen nicht so gut wie die CDF 9/7 Variante, aber dafu r ist sie eine Ganzzahl Transformation. Dies wird beno tigt um wegen der Rechenungenauigkeit keine Informationen zu verlieren. 9
10 Nachteile des JPEG2 Standards sind, dass die Transformation um einiges länger dauern als bei der Diskreten Kosinustransformation und zusätzlich wird diese Transformation auch noch durch Patente geschützt. Somit darf man sie nicht ohne weiteres einsetzen. 4 Fraktale Kompression Die Fraktale Kompression besitzt eine ganz andere Idee als die Kompression durch die beiden vorherigen Varianten. In den beiden vorherigen Varianten besteht die Idee daraus, dass die Information verdichtet wird. Bei der Fraktalen Kompression wird das Bild als Fixpunkt einer Funktion beschrieben. Zusätzlich hat die Kompression den Vorteil, dass sie nicht von einem Pixelraster abhängt. Somit kann das Bild beliebig vergrößert werden, ohne das Pixel auftauchen. 4. Grundlagen Ein Iteratives Funktionen System ist eine Menge von kontrahierenden Abbildungen f i : R 2 R 2, i =,..., n. Diese Abbildungen beschreiben den Hutchinson Operator H : 2 R2 2 R2 gegeben durch H(A) = n f i (A). i= Dieser Hutchinson Operator besitzt genau einen nicht leeren kompakten Fixpunkt B R 2. Dieser Fixpunkt B beschreibt dann ein binäres Bild. Ein Punkt p R 2 hat den Farbwert schwarz falls p B und ansonsten weiß. 4.2 Rekonstruktion des Bildes Um den Fixpunkt B des Hutchinson Operator zu bestimmen, wählt man eine beliebige nicht leere kompakte Menge A. Dann berechnet man iterative die Mengen A k+ = H(A k ). Diese Folge konvergiert gegen das gewünschte Bild B. Da im Normalfall kein Index k existiert mit B = A k, berechnet man nur die Folge bis zu einem Index k, sodass zwischen A k und A k kein sichtbarer Unterschied mehr besteht. Im Abbildung 8 sieht man wie die einzelnen Iterationsstufen aussehen. Beachten muss man aber dabei, das hier schon die Erweiterung zu Graustufen vorgenommen worden ist. 4.3 Konstruktion des Hutchinson Operators Die Suche nach einem Iterativen Funktionen System, welches ein gegebenes Bild gut beschreibt, ist nicht ganz einfach. Normalerweise wird dafür das Bild in Domainblöcke D i zerlegt. Für jeden Domainblock D i wird dann ein Rangeblock R i gesucht, der größer ist aber sehr ähnlich zu D i ist. Schlussendlich muss dann nur noch die kontrahierende Abbildung f i bestimmt werden, die R i auf f i (R i ) D i abbildet.
11 Abbildung 7: Iterationsstufen der fraktalen Kompression. Je mehr Spielraum man hierbei für die einzelnen Blöcke und und Abbildungen lässt, umso besser kann man dabei das Bild beschreiben. Eine größere Auswahl bedeutet aber auch, dass die Kodierung länger dauert. Außerdem muss des Weiteren beachtet werden, dass zur Repräsentierung dieser Parameter mehr Speicherplatz benötigt wird. Abbildung 8: Domain- und Rangeblock 4.4 Graustufen und Farbe Um Graustufen bei der fraktalen Kompression zu erlauben muss eine weite Dimension verwendet werden. Das heißt das Bild B ist dann als Teilmenge des R 3 gegeben. Gilt (x, y, z) B, so bedeutet dies, dass die Position (x, y) im Bild den Farbwert z besitzt. Mit immer mehr neuen Dimensionen ist es somit auch möglich weitere Farbkanäle hinzu zufügen. Somit benötigt ein farbiges Bild dann fünf Dimensionen.
12 5 Vergleich Abbildung vergleicht die Bildqualität der einzelnen Verfahren bei den Kompressionsstufen : 35 und :. Hierbei sieht man, dass die Diskrete Kosinustransformation schon bei einer Kompressionsstufe von : 35 leicht zu der Blockstrucktur tendiert. Bei einer Kompressionsstufe von : ist sie sehr deutlich. Bei den Wavelets hingegen hat man bei : 35 noch so gut wie keine Qualitätsverluste, wogegen bei : das Bild leicht unscharf wird. Bei der Fraktalen Kompression entsteht bei : ein recht akzeptables Bild. Hierbei werden aber schon gewisse Details (zum Beispiel beim Hut) weggelassen. Bei : dagegen kann man nur noch schwerlich etwas ausmachen. Dies ist dem Fakt geschuldet, dass das Bild nicht genügend Selbstähnlichkeiten besitzt. Schlussendlich bietet die Wavelet Komprimierung qualitativ die besten Ergebnisse, wogegen die Diskrete Kosinustransformation um einiges schneller abläuft. Hat man aber dagegen ein Bild mit großer Selbstähnlichkeit wie das Bild von einem Blumenkohl aus Abbildung 9, so kann diese die besten Ergebnisse liefern. Abbildung 9: Blumenkohl: Hier eignet sich die fraktale Kompression. 6 Literatur [] Fraktale Kompression. paper/fraktale_kompression.html. [2] Vergleichende Betrachtung von Verfahren zur Bildkompression. http: //monarch.qucosa.de/fileadmin/data/qucosa/documents/496/data/vortrag/ dth/pictures.html. [3] Wikipedia. [4] Ten Lectures on Wavelets. Society for Industrial and Applied Mathematics,
13 :35 : DCT Wavelet Fraktal Abbildung : Vergleich zwischen Diskreter Kosinustransformation, Wavelets und Fraktaler Kompression. 3
Universität Trier. Fachbereich IV. Wintersemester 2004/2005. Wavelets made easy. Kapitel 2 Mehrdimensionale Wavelets und Anwendungen
Universität Trier Fachbereich IV Wintersemester 2004/2005 Wavelets made easy Kapitel 2 Mehrdimensionale Wavelets und Anwendungen Thomas Queckbörner 16.11.2004 Übersicht des Kapitels: 1. Einführung 2. Zweidimensionale
MehrDatenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut
Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,
MehrInformatik II, SS 2016
Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 22 (20.7.2016) Greedy Algorithmen - Datenkompression Algorithmen und Komplexität Greedy Algorithmen Greedy Algorithmen sind eine Algorithmenmethode,
MehrJPEG Kompression technische Realisierung
Experimentalphysik V 20. Januar 2005 Schema der JPEG Kompression Farbraumkonvertierung RGB YCbCr Subsampling der Farbkomponenten Cb, Cr Zerlegung in Blöcke 8 8 2D Kosinustransformation (DCT) Quantisierung
MehrWann sind Codes eindeutig entschlüsselbar?
Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C
MehrÜbersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Übersicht Greedy Algorithmen Einführung Aktivitäten-Auswahl-Problem Huffman Codierung Matthias Zwicker Universität Bern Frühling 2009 2 Greedy Algorithmen Entwurfsstrategie
MehrKap.4 JPEG: Bildkompression. Ziel: Gegeben sind Daten y R N. Bestimme C R N N mit C C T = I, so dass x = C y dünbesetzt ist.
Kap.4 JPEG: Bildkompression Ziel: Gegeben sind Daten y R N. Bestimme C R N N mit C C T = I, so dass x = C y dünbesetzt ist. Originalbild y (30Kbt) Komprimiertes Bild z y(7kbt) JPEG (Joint Photographic
MehrHauptdiplomklausur Informatik Februar 2006: Multimedia Systems
Universität Mannheim Fakultät für Mathematik und Informatik Lehrstuhl für Praktische Informatik IV Prof. Dr.-Ing. W. Effelsberg Hauptdiplomklausur Informatik Februar 2006: Multimedia Systems Name: Matrikel-Nr.:
Mehr5 JPEG. 5.1 Bayer Filter. 5.2 Überblick. 5.3 Diskrete Cosinus-Transformation. 5.4 Bildmodell. 5.5 Codierung. 5.6 Übertragungsmodi
5 JPEG Bayer Filter: G01 R02 G03 R04 G05 R06 G07 R08 5.1 Bayer Filter B09 G10 B11 G12 B13 G14 B15 G16 B17 R18 G19 R20 G21 R22 G23 G24 5.2 Überblick B25 B26 B27 G28 B29 G30 B31 G32 5.3 Diskrete Cosinus-Transformation
MehrKompression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Folie 2
Kompression Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Folie 2 1 Inhalte Redundanz Channel Encoding Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression
Mehr1 Einführung. Bildformate Analyse der LSB-Ersetzung Weitere steganographische Algorithmen. Syndromkodierung in der Steganographie
Gliederung Einführung 1 Einführung 2 3 4 WS 2012/2013 Steganographie und Multimedia-Forensik Folie 121 Farbwahrnehmung Blau: 435,8 nm Grün: 546,1 nm Rot: 700 nm (445 nm) (535 nm) (575 nm) Empfindlichkeit
MehrDatenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg
Vortrag am 25. Januar 200 Werner von Siemens Gymnasium Magdeburg Zeitansatz: 5h (inklusive Programmieraufgaben) Datenkompression Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg
MehrKapitel 7: Optimalcodierung und Huffman Coding
Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge
MehrInformatik II, SS 2018
Informatik II - SS 2018 (Algorithmen & Datenstrukturen) Vorlesung 21 (11.7.2018) String Matching (Textsuche) II Greedy Algorithmen I Algorithmen und Komplexität Textsuche / String Matching Gegeben: Zwei
MehrEinleitung. Kapitel 1
Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch
Mehr2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
MehrKompressionsverfahren
Kompressionsverfahren Quelle: Steinmetz, Ralf: Multimedia-Technologie: Einführung und Grundlagen, Springer, Verlag Verlustlose Kompressionsalgorithmen RLC Huffman Adaptive Huffman Kodierung Arithmetische
MehrProseminar Datenkomprimierung Dr. U. Tamm. JPEG - Kompression WS 2002/03. Torsten Zichner
Proseminar Datenkomprimierung Dr. U. Tamm JPEG - Kompression WS 2002/03 Torsten Zichner Inhaltsangabe: 1. Einleitung 2. JPEG Kompression 2.1. Konvertierung des Bildes in ein geeignetes Farbmodell 2.2.
MehrImage Compression. Vorlesung FH-Hagenberg DSB
Image Compression Vorlesung FH-Hagenberg DSB Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz Inhalte Redundanz Loss-less Compression Hufmann Coding Runlength Coding Lossy Compression
MehrTechnische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und
MehrDCT: Diskrete Kosinus-Transformation
DCT: Diskrete Kosinus-Transformation Kosinusfunktionen für die 1D DCT: zunehmende Frequenz entsprechende Abtastpunkte (Salomon) DCT: 8x8 2D-Transformation DCT: IDCT: effiziente Implementierung? Vorberechnung
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität Gierige Algorithmen: Berechne Lösung schrittweise In jedem Schritt mache lokal optimale Wahl Daumenregel: Wenn optimale Lösung
MehrDigitale Medien. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid. Übung zur Vorlesung
Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid Wintersemester 2016/17 LZW-Komprimierung Idee: Nicht einzelne Zeichen werden günstig kodiert, sondern ganze Zeichenketten
MehrInformatik II, SS 2018
Informatik II - SS 28 (Algorithmen & Datenstrukturen) Vorlesung 22 (6.7.28) Greedy Algorithmen II (Datenkompression) Algorithmen und Komplexität Datenkompression Reduziert Größen von Files Viele Verfahren
MehrImage Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg
Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Error-Free Compression Hufmann Coding Runlength Coding Lossy Compression
MehrDynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
MehrGrundbegriffe der Informatik Tutorium 3
Grundbegriffe der Informatik Tutorium 3 Tutorium Nr. 16 Philipp Oppermann 18. November 2014 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrImage Compression. Kompression. Beseitigung der unnötigen Daten... Redundanz. Vorlesung FH-Hagenberg SEM. Backfrieder-Hagenberg. Backfrieder-Hagenberg
Image Compression Vorlesung FH-Hagenberg SEM Kompression Encoder Decoder Beseitigung der unnötigen Daten... Redundanz 1 Inhalte Redundanz Channel Encoding Error-Free Compression Hufmann Coding Runlength
MehrGierige Algorithmen Interval Scheduling
Gierige Algorithmen Interval Scheduling IntervalScheduling(s,f). n length[s] 2. A {} 3. j 4. for i 2 to n do 5. if s[i] f[j] then 6. A A {i} 7. j i 8. return A Gierige Algorithmen Interval Scheduling Beweisidee:
MehrAlgebra & Zahlentheorie. Letztes Tutorium. David Müßig. muessig[at]mi.fu-berlin.de WiSe 12/13
Letztes Tutorium David Müßig muessig[at]mi.fu-berlin.de http://page.mi.fu-berlin.de/def/tutorium/ WiSe 12/13 1 Beispiele 1.1 e-te Wurzeln in Z/nZ Bemerkung. Dies ist ein Beispiel zur Bestimmung von e x
MehrKap. 7: Wavelets. 2. Diskrete Wavelet-Transformation (DWT) 4. JPEG2000. H. Burkhardt, Institut für Informatik, Universität Freiburg DBV-I 1
Kap. 7: Wavelets. Die kontinuierliche Wavelet-Transformation (WT). Diskrete Wavelet-Transformation (DWT) 3. Sh Schnelle Wavelet-Transformation ltt ti (FWT) 4. JPEG000 H. Burkhardt, Institut für Informatik,
MehrDigitalisierung. analoges Signal PAM. Quantisierung
Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste
MehrPerlen der Informatik I Wintersemester 2012 Aufgabenblatt 6
Technische Universität München WS 2012 Institut für Informatik Prof. Dr. H.-J. Bungartz Prof. Dr. T. Huckle Prof. Dr. M. Bader Kristof Unterweger Perlen der Informatik I Wintersemester 2012 Aufgabenblatt
MehrAlgorithmen und Datenstrukturen 2
Algorithmen und Datenstrukturen 2 Lerneinheit 3: Greedy Algorithmen Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2016 10.5.2016 Einleitung Einleitung Diese Lerneinheit
MehrJ.P.E.G. Standard. J.P.E.G. Eigenschaften. J.P.E.G. System. JPEG Verschlüsselungsschritte. Farbmodell
Inhaltsbasierte Bildsuche J.P.E.G = Joint Photographic Expert Group Informatica Feminale Universität Bremen, Aug. 2005 Maja Temerinac Albert-Ludwigs-Universität Freiburg J.P.E.G. Standard Standard zur
MehrAlgorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte
Fachhochschule Wedel Seminararbeit Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte Sven Reinck 7. Januar 2007 Inhaltsverzeichnis Inhaltsverzeichnis Motivation 2 Wörterbuch 2.
MehrHauptklausur zur Vorlesung Bildverarbeitung WS 2002/2003
Name:........................................ Vorname:..................................... Matrikelnummer:.............................. Bitte Studiengang ankreuzen: Computervisualistik Informatik Hauptklausur
Mehr6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N. 6.1 von wörtern zu zahlen und zurück Dezimaldarstellung von Zahlen Num 10
6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N 6.1 von wörtern zu zahlen und zurück 6.1.1 Dezimaldarstellung von Zahlen Num 10 Num10(ε) = 0 (6.1) für jedes w Z 10 für jedes x Z 10 Num 10 (wx)
MehrEinführung in die objektorientierte Programmierung mit C++
Prof. Dr. Thomas Klinker FB Elektrotechnik und Informatik 08. 03. 2007 Projekt im 4. Semester Elektrotechnik: Einführung in die objektorientierte Programmierung mit C++ Aufgabe 1: Schreiben Sie ein Programm,
MehrVektoren - Basiswechsel - Matrix
Vektoren - asiswechsel - Matrix 1. Prinzip er Zusammenhang zwischen zwei asissystemen sollen formal eleganter durchgeführt werden. Ein Nachteil des "einfachen" Verfahrens - siehe Seite V0 - ist, dass teilweise
MehrMathematik für Information und Kommunikation
Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html
MehrJPEG - Kompression. Steffen Grunwald, Christiane Schmidt, Stephan Weck TIT01EGR BA-Mannheim 21. Mai 2002
JPEG - Kompression Steffen Grunwald, Christiane Schmidt, Stephan Weck TIT01EGR BA-Mannheim 21. Mai 2002 Inhaltsverzeichnis 1 Entwicklung von JPEG 2 1.1 Was heisst und was ist JPEG?................... 2
MehrProseminar Kodierverfahren bei Dr. Ulrich Tamm Sommersemester 2003 Thema: Codierung von Bäumen (Prüfer Codes...)
Proseminar Kodierverfahren bei Dr. Ulrich Tamm Sommersemester 2003 Thema: Codierung von Bäumen (Prüfer Codes...) Inhalt: Einleitung, Begriffe Baumtypen und deren Kodierung Binäre Bäume Mehrwegbäume Prüfer
MehrPraktikum BKSPP: Blatt 2
Praktikum BKSPP: Blatt 2 PD Dr. David Sabel WS 2014/15 Zeichenbasierte Komprimierung Stringersatzverfahren Codebäume Huffman-Kodierung Zeichenbasierte Komprimierung mit Codebäumen Idee: Kodiere jedes Zeichen
MehrHuffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:
Fachbereich Medieninformatik Hochschule Harz Huffman-Kodierung Referat Henner Wöhler 11459 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung...I 1. Entropiekodierung...1 1.1 Morse Code...2 1.2 Shannon-Fano-Kodierung...3
MehrÜbung: Computergrafik 1
Prof. Dr. Andreas Butz Prof. Dr. Ing. Axel Hoppe Dipl.-Medieninf. Dominikus Baur Dipl.-Medieninf. Sebastian Boring Übung: Computergrafik 1 Fouriertransformation Organisatorisches Neue Abgabefrist für Blatt
Mehr21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3
581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv
MehrAlgorithmen und Datenstrukturen (für ET/IT)
Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 2012/13 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Informationen zur Klausur Termin: 21. Februar 2013,
MehrDatenkompression. Theorie
Datenkompression Theorie Einleitung Übersicht Wie lassen sich beliebige Daten verdichtet (komprimiert) darstellen? verlustfreie Kompression: Programme Texte verlustbehaftete Kompression: Audio Video Kompressionsfaktor:
MehrErzeugendensystem und Basis
Erzeugendensystem und Basis Definition Erzeugendensystem und Basis eines Unterraums Sei S F n 2 ein Unterraum. Eine Menge G = {g 1,..., g k } S heißt Erzeugendensystem von S, falls jedes x S als Linearkombination
Mehr6. Komprimierung. (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger
Komprimierung 6. Komprimierung (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger Platz brauchen Motivation: beschleunigt Plattenzugriffe oder Datenübertragungen Voraussetzung:
MehrSeminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung
Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft
MehrKlausur zur Linearen Algebra I HS 2012, Universität Mannheim, Dr. Ralf Kurbel, Dr. Harald Baum
Klausur zur Linearen Algebra I HS 01, 1.1.01 Universität Mannheim, Dr. Ralf Kurbel, Dr. Harald Baum Name: Sitzplatznummer: Die Bearbeitungszeit für diese Klausur beträgt 90 Minuten. Die Klausur umfaßt
MehrWavelets made easy Yves Nievergelt
Wavelets made easy Yves Nievergelt Kapitel 1 - Haar s Simple Wavelets Das erste Kapitel Haar s Simple Wavelets aus dem Buch Wavelets made easy von Yves Nievergelt behandelt die einfachsten Wavelets und
MehrÜbungsblatt 5 - Musterlösung
Universität Mannheim Lehrstuhl für Praktische Informatik IV Prof. Dr. W. Effelsberg Christoph Kuhmünch, Gerald Kühne Praktische Informatik II SS 2000 Übungsblatt 5 - Musterlösung Aufgabe 1: Huffman-Codierung
Mehr1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes
1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon
MehrMultimediatechnik / Video
Multimediatechnik / Video Video-Kompression Zusammenfassung http://www.nanocosmos.de/lietz/mtv 2009 1 Motivation: Video-Kompression Unkomprimierte Datenmengen sind zu groß! TV: 20 MB/s = 72 GB/h (720x576x2x25)
MehrParallele FFT-Algorithmen
Parallele FFT-Algorithmen Jörg Haeger 11. Juli 1996 1 Die diskrete Fourier-Transformation (DFT) 2 2 Permutationen und Graphen 2 2.1 Permutationen.............................. 2 2.2 Graphen..................................
MehrRelevante Frequenztransformationen
Relevante Frequenztransformationen Medientechnologie IL Andreas Unterweger Vertiefung Medieninformatik Studiengang ITS FH Salzburg Sommersemester 206 Andreas Unterweger (FH Salzburg) Relevante Frequenztransformationen
MehrLösungen zu den Hausaufgaben zur Analysis II
Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin
MehrNützliches Hilfsmittel (um Schreiberei zu reduzieren): 'Erweiterte Matrix': Gauß- Verfahren
L5.4 Inverse einer Matrix Ausgangsfrage: Wie löst man ein lineares Gleichungsystem (LSG)? Betrachte n lineare Gleichungen für n Unbekannte: Ziel: durch geeignete Umformungen bringe man das LSG in folgende
MehrDiskrete Mathematik II
Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2008 DiMA II - Vorlesung 01-07.04.2008 Einführung in die Codierungstheorie, Definition Codes 1 / 36 Organisatorisches
MehrPuls-Code-Modulation. Thema: PCM. Ziele
Puls-Code-Modulation Ziele Mit diesen rechnerischen und experimentellen Übungen wird die Vorgehensweise zur Abtastung und linearen Quantisierung eines analogen Signals erarbeitet. Bei der Abtastung werden
Mehr'LJLWDOH%LOGHUXQG'DWHLIRUPDWH
'LJLWDOH%LOGHUXQG'DWHLIRUPDWH Seminar: Simulation und Bildanalyse mit Java 07.07.2003 Seite 1 von 25 hehuvlfkw 1. Digitalisierung 2. Bilddateiformate 3. verlustfreie Datenkompression 4. JPEG Kompression
MehrEinführung Aufgabe 3 - MPEG. Tobias Reinsch 2011
Einführung Aufgabe 3 - MPEG Tobias Reinsch 2011 Allgemeines Aufgabe 3 - MPEG Ziel der Aufgabe Kennenlernen der Bildkodierungsverfahren des MPEG Standards Praktische Umsetzung dieser Techniken mit Java
MehrGraphen: Rundwege, Kodierung von Bäumen
TH Mittelhessen, Wintersemester 2013/2014 Lösungen zu Übungsblatt 11 Fachbereich MNI, Diskrete Mathematik 4./5./6. Februar 2014 Prof. Dr. Hans-Rudolf Metz Graphen: Rundwege, Kodierung von Bäumen Aufgabe
MehrEinführung in die Informatik II Aus der Informationstheorie: Datenkompression
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd
MehrOptimalcodierung. Thema: Optimalcodierung. Ziele
Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.
Mehr1. Die freie Gruppe F [A]
1. Die freie Gruppe F [A] Definition: Eine Menge A heißt Alphabet. Eine formale Potenz der Form a k, a A, k Z heißt Silbe. Ein Wort ist eine endliche Folge a 1 a n k n von Silben. Die Folge mit Länge Null
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
MehrLernmodul 7 Algorithmus von Dijkstra
Folie 1 von 30 Lernmodul 7 Algorithmus von Dijkstra Quelle: http://www.map24.de Folie 2 von 30 Algorithmus von Dijkstra Übersicht Kürzester Weg von A nach B in einem Graphen Problemstellung: Suche einer
MehrKompression.pdf h. völz /17
Kompression.pdf h. völz 23.5.02 1/17 Lauflängen-Codierung CCCCCCAABBBBAAAAEE _ 6C2A4B4A2E Pixel- und Zähl-Byte unterscheiden Pointer-Verfahren ABRABRIKADABRA Ab 4. Buchstaben ABR _ Verweis . total
MehrAlgorithmische Bioinformatik 1
Algorithmische Bioinformatik 1 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Algorithmen
MehrSeminar über Algorithmen, SS2004. Textkompression. von Christian Grümme und Robert Hartmann
Seminar über Algorithmen, SS2004 Textkompression von Christian Grümme und Robert Hartmann 1. Einleitung Textkompression wird zur Verringerung des Speicherbedarfs und der Übertragungskapazität von allgemeinen
MehrA = A A
Musterlösung - Aufgabenblatt 8 Aufgabe 1 Gegeben ist das Polytop P = conv {±e i ± e j : 1 i, j 3, i j} = conv {e 1 + e 2, e 1 e 2, e 1 + e 2, e 1 e 2, e 1 + e 3, e 1 e 3, e 1 + e 3, e 1 e 3, e 2 + e 3,
MehrBildverarbeitung: Fourier-Transformation. D. Schlesinger () BV: Fourier-Transformation 1 / 16
Bildverarbeitung: Fourier-Transformation D. Schlesinger () BV: Fourier-Transformation 1 / 16 Allgemeines Bilder sind keine Vektoren. Bilder sind Funktionen x : D C (Menge der Pixel in die Menge der Farbwerte).
MehrAlgorithmen und Komplexität
Algorithmen und Komplexität Dynamische Programmierung Markus Ullrich Norbert Baum Fachbereich Informatik - IIb07 Hochschule Zittau/Görlitz 28. Mai 2009 1 / 29 Wie sieht es mit langen Ketten aus? A 1 A
MehrDesign, Entwicklung und Evaluation eines Low Motion Videocodecs
Design, Entwicklung und eines Low Motion Videocodecs Betreuer: Zefir Kurtisi Seminarvortrag zur Studienarbeit Institut für Betriebssysteme und Rechnerverbund Technische Universität Braunschweig Motivation
Mehr2.7 Der Shannon-Fano-Elias Code
2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.
MehrNützliches Hilfsmittel (um Schreiberei zu reduzieren): 'Erweiterte Matrix': Gauß- Verfahren
L5.4 Inverse einer Matrix Ausgangsfrage: Wie löst man ein lineares Gleichungsystem (LSG)? Betrachte n lineare Gleichungen für n Unbekannte: Ziel: durch geeignete Umformungen bringe man das LSG in folgende
MehrTextkompression: Burrows-Wheeler-Transformation
Proseminar Algorithmen der Bioinformatik WS 2010/11 Textkompression: Burrows-Wheeler-Transformation Johann Hawe Johann Hawe, WS 2010/11 1 Gliederung 1. Einleitung 2. BWT Kompressionstransformation 2.1
Mehrvon Zahlenfolgen, die bei Gebietsteilungsproblemen
Zahlenfolgen bei Gebietsteilungsproblemen Karin Halupczok Oktober 005 Zusammenfassung Gesucht sind rekursive und explizite Bildungsgesetze von Zahlenfolgen, die bei Gebietsteilungsproblemen auftauchen:
MehrJPEG. Seminar: Kompressionsalgorithmen. Ruslan Ragimov. 5. September 2012
JPEG Seminar: Kompressionsalgorithmen Ruslan Ragimov 5. September 2012 Zusammenfassung Die allgemeinen verlustfreien Verfahren zur Datenkompression können gute Kompressionsraten für verschiedene Dateitypen
MehrKAPITEL 5. Damit wird F n (B) selbst zu einer Booleschen Algebra und es gilt f(x) := f(x) 0(x) := 0 B 1(x) := 1 B
KAPITEL 5 Boolesche Polynome Polynome über R, d.h. reelle Funktionen der Form p(x) = a 0 + a 1 x + + a n x n, x R, sind schon aus der Schulmathematik bekannt. Wir beschäftigen uns nun mit Booleschen Polynomen,
Mehr16 - Kompressionsverfahren für Texte
16 - Kompressionsverfahren für Texte Prof. Dr. S. Albers Kompressionsverfahren für Texte Verlustfreie Kompression Original kann perfekt rekonstruiert werden Beispiele: Huffman Code, Lauflängencodierung,
MehrLösung Serie 11: Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung
D-MATH/D-PHYS Lineare Algebra I HS 06 Dr. Meike Akveld Lösung Serie : Lineare Gleichungssysteme, Gauss-Elimination & LR-Zerlegung. Um zu zeigen, dass es sich bei den gegebenen Vektoren um Basen handelt,
MehrAufgaben Fibonacci-Folgen 28. April 2006 Blatt 3 B. Werner SoSe 06
25. August 2006 Aufgaben Fibonacci-Folgen 28. April 2006 Blatt 3 B. Werner SoSe 06 Präsenzaufgaben: Aufgabe P9: Man betrachte n Münzwürfe, wobei man mit Null Wappen und mit Eins Zahl codiere. Man erhält
Mehr6. Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke. 6. Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 107/ 238
6 Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 6 Woche: Lineare Codes, Syndrom, Gilbert-Varshamov Schranke 107/ 238 Erinnerung: Der Vektorraum F n 2 Schreiben {0, 1} n als F n 2 Definition
MehrLineare Algebra I (WS 12/13)
Lineare Algebra I (WS 12/13) Bernhard Hanke Universität Augsburg 17.10.2012 Bernhard Hanke 1 / 9 Wir beschreiben den folgenden Algorithmus zur Lösung linearer Gleichungssysteme, das sogenannte Gaußsche
Mehr9 Lineare Gleichungssysteme
9 Lineare Gleichungssysteme Eine der häufigsten mathematischen Aufgaben ist die Lösung linearer Gleichungssysteme In diesem Abschnitt beschäftigen wir uns zunächst mit Lösbarkeitsbedingungen und mit der
MehrDatenkompression: Fraktale Kompression. H. Fernau
Datenkompression: Fraktale Kompression H. Fernau email: fernau@informatik.uni-trier.de SoSe 2006 Universität Trier 1 Fraktale Codierung mathematische Grundgedanken Statt ein Datum zu übertragen, übertrage
MehrPolynominterpolation. Allgemeines Problem: Beispiel 1 (Teil 1):
. Großübung Polynominterpolation Allgemeines Problem: Aufgrund gegebener Messwerte (Paare aus Werten i und Funktionswerten f( i )) soll ein Funktionsverlauf rekonstruiert bzw. zumeist angenähert werden.
MehrArithmetisches Codieren
Arithmetisches Codieren 1. Motivation: Als Alternative zum arithmetischen Codieren bot sich damals als effizientester Algorithmus das Huffmann-Coding an. Dieses jedoch hatte einen entscheidenden Nachteil:
MehrDarstellung als Filterbank. Annahme für die Codierung: bestimmter Betrachtungsabstand, Wiedergabegröße Bestimmter Betrachtungswinkel für das Auge.
Darstellung als Filterbank Annahme für die Codierung: bestimmter Betrachtungsabstand, Wiedergabegröße Bestimmter Betrachtungswinkel für das Auge. - Trifft in bestimmten Maße auch auf das Original zu, da
MehrEffiziente Algorithmen 2
Effiziente Algorithmen 2 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Algorithmen
MehrDisMod-Repetitorium Tag 3
DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität
Mehr3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.
3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle
MehrEine verlustbehaftete Komprimierung ist es, wenn wir einige Kleidungsstücke zu
Komprimierungen In Netzwerken müssen viele Daten transportiert werden. Dies geht natürlich schneller, wenn die Datenmengen klein sind. Um dies erreichen zu können werden die Daten komprimiert. Das heisst,
Mehr