Bildkompression mit JPEG

Ähnliche Dokumente
Varianz und Kovarianz

Grundbegriffe der Wahrscheinlichkeitsrechnung

Proseminar Lineare Algebra II, SS 11. Blatt

5 Erwartungswerte, Varianzen und Kovarianzen

2 Zufallsvariable, Verteilungen, Erwartungswert

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Unabhängigkeit KAPITEL 4

3. Kombinatorik und Wahrscheinlichkeit

P (X = 2) = 1/36, P (X = 3) = 2/36,...

3.6 Eigenwerte und Eigenvektoren

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Technische Universität München

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

Mathematische Erfrischungen III - Vektoren und Matrizen

Klausur zur Vorlesung,,Algorithmische Mathematik II

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

Vorlesung 8a. Kovarianz und Korrelation

9.2 Invertierbare Matrizen

Bildkompression InTh, 2005, JPEG, Hak, Rur, 1

Diskrete Wahrscheinlichkeitstheorie - Probeklausur

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

2 Euklidische Vektorräume

3.3 Bedingte Wahrscheinlichkeit

Stochastik. 1. Wahrscheinlichkeitsräume

Begriffe aus der Informatik Nachrichten

Aufgaben zu Kapitel 38

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Eigenwerte und Diagonalisierung

Zufallsvariablen [random variable]

6 Eigenwerte und Eigenvektoren

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

Kapitel VI. Euklidische Geometrie

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.

Copula Funktionen. Eine Einführung. Nils Friewald

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

Serie 10: Inverse Matrix und Determinante

Vorkurs Mathematik B

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

Euklidische und unitäre Vektorräume

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

9 Vektorräume mit Skalarprodukt

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /

Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14

Surjektive, injektive und bijektive Funktionen.

Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie

46 Eigenwerte und Eigenvektoren symmetrischer Matrizen

8. Stetige Zufallsvariablen

Kapitel 6 Martingale

4 Diskrete Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitstheorie und Statistik vom

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006

Übungen zur Stochastik, Blatt Nr. 1

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Gesetze der großen Zahlen

Die Varianz (Streuung) Definition

7.2 Moment und Varianz

2. Repräsentationen von Graphen in Computern

Gemeinsame Wahrscheinlichkeitsverteilungen

2 Die Dimension eines Vektorraums

Einführung in die Kodierungstheorie

Matrizen, Determinanten, lineare Gleichungssysteme

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Bedingte Wahrscheinlichkeiten und Unabhängigkeit

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?

3.4 Gradient, Divergenz, Rotation in anderen Koordinaten

1 Euklidische und unitäre Vektorräume

4. Vektorräume und Gleichungssysteme

Multimediatechnik / Video

JPEG. Seminar: Kompressionsalgorithmen. Ruslan Ragimov. 5. September 2012

37 Gauß-Algorithmus und lineare Gleichungssysteme

Adaptive Systeme. Sommersemester Prof. Dr. -Ing. Heinz-Georg Fehn. Prof. Dr. rer. nat. Nikolaus Wulff

Kapitel 5. Stochastik

Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

MC-Serie 11: Eigenwerte

Analytische Geometrie, Vektorund Matrixrechnung

16.3 Rekurrente und transiente Zustände

Fraktale Geometrie. 9: Metrische äußere Maße II. Universität Regensburg Sommersemester Daniel Heiß:

Diskrete Mathematik 1

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Elemente der Analysis II

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.

6 Hauptachsentransformation

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Einführung in Markoff-Ketten

Lineare Abhängigkeit

Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)).

Lösungsvorschlag zu den Hausaufgaben der 8. Übung

Transkript:

Bildkompression mit JPEG aria Charina November 6, 013 1 Bildmodelle Wir betrachten folgende deterministische odelle von Schwarz-Weiß- und Farbbildern Definition 11 Ein Schwarz-Weiß-Bild ist eine N atrix B mit ganzzahligen Einträgen B[n,l] {0,,55}, n = 0,, 1, l = 0,,N 1 mit,n N Definition 1 Ein Farbbild ist eine N 3 atrix B mit ganzzahligen Eintraegen B[n,l,j] {0,,55}, n = 0,, 1, l = 0,,N 1, j = 0,1,, mit,n N RGB-Farbraum beschreibt Farben, die durch additive ischung aus rot, grün und blau zusammengesetzt werden, wobei R,G und B als unabhängige Einheitsvektoren in R 3 dargestellt werden Also, die Pixelwerte P[n,l] eines N Farbbildes werden folgendermaßen aus rot, grün und blau zusammengesetzt P[n,l] = Schwarz+B[n,l,0] Rot+B[n,l,1] Grün+B[n,l,] Blau Schwarz stellt 0, 0, 0 in den sogenannten RGB-Farbraum dar 1

JPEG-Algorithmus Schematisch besteht der JPEG-Algorithmus aus den folgenden Schritten: 1 JPEG: Farbmodell-Änderung Neben den RGB-Farbraum sind noch die sogenannten YUV- für das PAL-System und YCbCr-Farbräume für das digitale Fernsehen von besonderer Bedeutung Hier steht Y für Helligkeit, U und V sind die Chrominanzen Farbigkeit und Cb, Cr sind die skalierten Chrominanzen Die Umrechnung zwischen den Farbräumen entspricht einer Basistransformation und wird mittels folgender regulären atrizen durchgeführt Y 099 0587 0114 R U = 0147 089 0436 G V 0615 0515 0100 B bzw Y Cb Cr = 099 0587 0114 R 0169 0331 0500 G 0500 0419 0081 B Die unterschiedliche Wahrnehmung von Y gegenber den Cb- und Cr-Chrominanzen entspricht der Entwicklung der Farb- und Helligkeitsverteilung in der Natur Viele Informationen sind in der Helligkeit gespeichert, die Farbe variiert kaum Die Farbmodelländerung wird durchgeführt, um Speicheraufwand mit Hilfe der Subsampling zu reduzieren Wie man an dem nächsten Bild sieht, enthalten die RGB- Komponenten eines Bildes redundante Information

}{{} Dateibmp gespeichert als }{{} RGB Farbraum oder äquivalent }{{} YCbCr Farbraum JPEG: Subsampling JPEG lässt verschiedene Bilddatenformate zu In der Praxis erfolgt die Kompression von Farbbildern meistens unter Verwendung des YCbCr-Formats Die Chrominanzen Cb und Cr werden häufig noch vor der Datenkompression unterabgetastet, dh die Auflösung der Chrominanzen wird sowohl horizontal als auch vertikal verringert Format Bits pro Pixel 4 : 4 : 4 8+8+8 = 4 keine Unterabtastung 4 : : 0 8++ = 16 horizontale und vertikale Unterabtastung it dem 4 : : 0-Format werden zum Beispiel die Daten halbiert, ohne das ein Verlust an subjektiver Bildqualität wahrgenommen wird Diese Art von Datenkompression ist nicht verlustfrei Die Helligkeit und Chrominanzen werden nach Subsampling separat weiterverarbeitet Die Helligkeit wird als ein Schwarz-Weiß-Bild dargestellt 3 JPEG: Blockeinteilung Die N ganzzahlige atrix B wird in 8 8 Blöcke eingeteilt Falls oder N durch 8 nicht teilbar sind, wird B passend mit Nullen ergänzt Bemerkungen: i Die Größe jedes Blocks ist eine Zweierpotenz, was wichtig für die schnelle Realisierung der DCT ist ii Bilder haben instationären Charakter, dh die Helligkeit eines Bildes variiert 3

von Ausschnitt zu Ausschnitt Daher ist es sinnvoll, die DCT nur für einzelne stationäre Segmente zu berechnen iii Simulationen zeigen, dass die 8 8 Blockgröße die höchsten Kompressionsraten liefert 4 JPEG: Indexverschiebung Da DCT mit vorzeichenbehafteten Bits arbeitet, wird die Indexverschiebung durchgeführt, dh eine Transformation von {0,,55} auf { 17,,18} 5 JPEG: Diskrete Kosinus-Transformation DCT Definition 1 Die -dim DCT ist eine lineare Transformation auf R, N, B ˆB, ˆB = C B C T, C R, 1 wobei die atrix C = C[n,l] n,,, 1 ist gegeben durch C[n,l] = d[n] cos πl+1n mit d[n] = 1 { 1, falls n = 0,, sonst 51 -dim DCT als Basistransformation Seien B vek, ˆB vek R gegeben durch B vek = B T 0 B T 1 und ˆBvek = ˆB T 0 ˆB T 1 wobei B j, ˆB j, j = 0,, 1, die Zeilen von B bzw von ˆB in 1 sind an kann dann 1 äquivalent schreiben als B vek ˆB vek, ˆBvek = C T C B vek, 3 wobei die atrix C T C durch C C = C[l,n]C n,,, 1 4

gegeben ist Beispiel: an kann die -dim DCT auch als eine Basistransformation auf R 1 deuten Seien = und B = Aus 1 folgt 3 4 und damit ˆB = 5 1 0 mit C = 1 1 1 1 1 B = ˆB[0,0]D 0,0 + ˆB[0,1]D 0,1 + ˆB[1,0]D 1,0 + ˆB[1,1]D 1,1 = 5 1 1 1 1 1 1 1 1 1 1 1 1 1 Die atrizen D j,k sind die sogenannten Basisbilder, die im allgemeinen Fall folgendermaßen definiert sind Definition Die atrizen D j,k, j,k = 0,, 1, mit Einträgen D j,k [n,l] = d[j]d[k]cos πn+1j heißen Basisbilder der -dim DCT πl+1k cos, n,l = 0,, 1, Die -dim DCT stellt das Bild B als Superposition dieser Basisbilder D j,k dar, die als folgende 8 8 uster im Bild B vorkommen, falls die entsprechenden Einträge von ˆB ungleich Null sind 5

5 Symmetrie der DCT-atrix Die atrix C in ist nicht symmetrisch, denn für = 8 gilt mit 1 1 1 1 1 1 1 1 a 1 b 1 c 1 d 1 d 1 c 1 b 1 a 1 a b b a a b b a C = 1 b 1 d 1 a 1 c 1 c 1 a 1 d 1 b 1 8 1 1 1 1 1 1 1 1 c 1 a 1 d 1 b 1 b 1 d 1 a 1 c 1 b a a b b a a b d 1 c 1 b 1 a 1 a 1 b 1 c 1 d 1 a 1 = cos π 16 a = cos π 16 1307 b 1 = cos 3π b 16 = cos 6π 16 c 1 = cos 5π 16 d 1 = cos 7π 16 53 Unitärität der DCT-atrix Theorem 3 Die atrix C in ist orthogonal, dh CC T = C T C = I Proof Die Identität CC T = C T C = I besagt, dass die Zeilen Spalten von C eine ONB des R bilden Wir zeigen zuerst, dass die Spaltenvektoren Rev n = Spalten von C T mit v n = d[n] [e iπl+1n ] T,, 1, n = 0,, 1, die Eigenvektoren der Tridiagonalmatrix 1 α α 0 0 0 0 α 1 α 0 0 0 Q α = 0 0 0 α 1 α 0 0 0 0 α 1 α, α R, 6

zu Eigenwerten 1 αcos πn sind Da die EWe von Q α paarweise verschieden sind und die atrix Q α symmetrisch ist, bilden die Vektoren Rev n, n = 0,, 1, eine orthogonale Basis des R Danach zeigen wir, dass Rev n = 1 für alle n = 0,, 1 gilt zz: Sei n {0,, 1} Dann gilt Q α Rev n [l] = 1 αcos πn Rev n[l] komponentenweise für l = 0,, 1 1Fall: Für l = 1,, gilt Qα v n [l] = d[n] αe iπl 1n = d[n] e iπl+1n Fall: Für l = 0 gilt = d[n] e iπl+1n 1 α +e iπl+1n e iπn 1 αcos πn αe iπl+3n iπn +e = Qα v n [0] = d[n] 1 αe iπn iπ3n αe = d[n] e iπn α e iπn iπn e 3Fall: Analog für l = 1 Daraus folgt = d[n] = d[n] ReQ α v n = Q α Rev n = da α R und d[n] Re e iπn iπn πn αe cos e iπn iπn αe e iπn iπn πn αe cos 1 αcos πn zz: Rev n = 1 für alle n = 0,, 1 Für n = 0 sieht man leicht, dass v 0 = 1 gilt, da v T 0 v 0 = 1 1 αcos πn iπn iπn +e e e iπn iπn +e v n [l] Rev n, n = 0,, 1, = d[n]cos πn πn αcos = 1 αcos πn Rev n [0] 1 1 = 1 cos πn 7

Sei n = 1,, 1 Aus cos β = 1+cosβ folgt Rev n = 1 = 1+ 1 cos πl+1n = 1 1 = 1+ 1 eiπn e iπl+1n 1 e iπn +e iπl+1n 1 l 1 + e iπn 1+cos πl+1n 1 e iπn l = 1, denn 1 e iπn l = 1 e iπn 1 e iπn = 1 e iπn l = 1 e iπn wegen e iπn = e iπn = cosπn = 1 für n Z und e ±iπn n = 1,, 1 1 e iπn = 0, = 0 für n Z, falls Corollary 4 Die -dim DCT ist eine orthogonale Transformation Proof Die Aussage folgt aus 3 und C T C C T C T = C T C CC T = I 54 Separabilität der -dim DCT Definition 5 Sei C R wie in, N Die 1-dim DCT ist die lineare Transformation auf R, die durch x ˆx, ˆx = C x 4 definiert ist Aus Definition 1 folgt, dass die -dim DCT separabel ist, dh man kann zuerst die 1-dim DCT für die Spalten von B durchführen und, anschliessend, die 1-dim DCT für die Zeilen von C B Deshalb untersuchen wir in weiterem nur die Eigenschaften der 1-dim DCT 8

55 Schnelle Implementierung der 1-dim DCT Die Berechnung von ˆB in 1 benötigt O 3 Rechenoperationen Die spezielle Struktur von C in und ihre Unabhängigkeit von B erlauben für schnelle Algorithmen zur Berechnung von ˆB in O log Eine öglichkeit dafür ist es, die schnelle DCT unter Nutzung der schnellen diskreten Fourier-Transformation FDFT zu implementieren Definition 6 DieatrixF C seigegebendurchf = 1 e iπnl/ n,,, 1, N Die 1-dim diskrete Fourier-Transformation DFT ist eine lineare Transformation auf C, die durch definiert ist x ˆx, ˆx = F x 5 Bemerkung 7 Rechenaufwand der schnellen DFTFDFT, siehe[1] Wir skizzieren hier nur die Idee der FDFT Seien = l, l N, x C, und die Spaltenvektoren x gerade = [xk : k = 0, 1]T, x ungerade = [xk +1 : k = 0, 1]T Aus 5 folgt [ ˆx k +j ] = 1 F x gerade [k]+ 1 j e iπk F x ungerade [k] für j = 0,1 und k = 0,, 1 Damit ist der Rechenaufwand R solcher Berechnung von ˆx gegeben durch Und rekursiv ergibt sich R = R/+ }{{} Additionen + }{{} ultiplikationen R = l R1+l l+1 = R1+log = O log Also, ist der Rechenaufwand der FDFT für x C, = l, nur O log Falls = l, l N, kann man die 1-dim DCT von x R, folgendermaßen mit Hilfe der FDFT in O log implementieren Theorem 8 Seien x R, = l, l N, und P eine Permutationsmatrix, so dass P [j : j = 0,,l 1] T = [j : j = l 1,,0] T Dann gilt 1 0 0 0 e iπ/ 0 xgerade C x = Re F P x ungerade 0 0 e iπ 1/ 9

Proof Sei Dann gilt x = xgerade P x ungerade 1 πl+1n C x[n] = d[n] x[l] cos / 1 = d[n] π4l+1n x[l] cos + / 1 = d[n] π4l+1n x[l] cos + Die Substitution l = l 1 ergibt / 1 C x[n] = d[n] π4l+1n x[l] cos + / 1 / 1 1 l =/ π4l+3n x[l+1]cos π4l+3n x[ l 1]cos π4l x[l +1n ]cos, denn wegen der Periodizität von cos gilt π4 l 1+3n cos = cos πn π4l +1n π4l +1n = cos Damit gilt C x[n] = d[n] Re e iπn/ F x [n], n = 0,, 1, denn π4l +1n cos = Re e iπn/ e iπln/ Analog beweist man das folgende Resultat Theorem 9 Seien x R, = l, l N Dann existiert eine Permutations matrix P R, so dass 1 0 0 0 e iπ/ 0 x = Re P F C x 0 0 e iπ 1/ 10

6 JPEG: Dekorrelationstechniken Ziel: Zeige, dass für ein Bild B { 17,,18} 8 8 die atrix ˆB = CBC T R 8 8 mit hohere Wahrscheinlichkeit dünnbesetzt ist Dafür verwenden wir das folgende stochastische odell eines Bildes Definition 10 Ein Bild B = B[n,l] n,,, ist ein stochastisches Feld mit identisch verteilten standardisierten Zufallsvariablen B[n,l] : Ω { 17,,18}, wobei die Ereignismenge Ω die enge aller im Computer darstellbaren Grautöne ist Die folgenden Annahmen an das stochastische Feld B sind für unsere weitere Betrachtungen von entscheidender Bedeutung i Das Feld B ist stationär, dh die Kovarianz covb[n,l],b[j,k] = rn j,l k ist eine Funktion r, die nur von den Abständen n j und l k zwischen den Pixeln n,l und j,k abhängt ii Das stationäre Feld B ist separabel, dh covb[n,l],b[j,k] = rn j,l k = r 1 n j r l k In diesem Fall, wird angenommen, dass die Zeilen und Spalten von B unabhängig behandelt werden können Dieses odell ist vorteilhaft, entspricht aber nicht immer der Realität iii Das stationäre, separable Feld B besitzt die arkov-eigenschaft, dh covb[n,l],b[j,k] = ρ n j 1 ρ l k mit und ρ 1 = covb[n,l],b[n,l+1], n = 0,,, ρ = covb[n,l],b[n+1,l], l = 0,, 11

Die Separabilität von B ermöglicht die Reduktion auf den 1-dim Fall Also wir betrachten das 1-dim stochastische Feld X = X[n] n=0,, 1 mit den oben genannten Eigenschaften In dem 1-dim Fall gilt 1 ρ ρ 1 covx,x T ρ 1 ρ = covx[n],x[k] n,k=0,, 1 = ρ 1 ρ 1 mit ρ = covx[0], X[1] Da die Kovariazmatrix symmetrisch ist, existiert eine ONB {v 0,,v 1 } des R aus den EVen v j von covx,x T zu den EWen λ 0,,λ 1 Definition 11 Sei K = v 0 v 1 v 1 R Die Transformation X Y = K T X heißt Karhunen-Lo eve-transformation KLT Eigenschaften der KLT: i Für den Erwartungswert von Y gilt EY = K T EX = 0 ii Die ZVen Y = Y[n] n=0,, 1 := K T X sind unkorreliert, dh covy[j],y[n] = 0, j = n Tatsächlich gilt covy,y T = EY,Y T = K T EX,X T K = diagλ 0,,λ 1, da die atrix covx,x T diagonalisierbar ist iii Wie jede andere unitäre Transformation, ist die KLT energieerhaltend, dh E Y = EY T Y = EX T KK T X = E X iv 1

Theorem 1 Unter allen orthogonalen Transformationen AA T = A T A = I verteilt die KLT am meisten Energie auf die ersten m + 1 < Einträge von Y = K T X Proof Sei 0 < m < 1 beliebig Wir maximieren die Spur von covy,y T über alle orthogonale atrizen A = a 0 a 1 R, Y := A T X Die folgenden Optimierungsprobleme sind äquivalent: covy,y T [k,k] m 1 max A T A=I k=0 m 1 max A T A=I k=0 m 1 max a T k a,k =l k=0 m 1 a k Daraus folgt A T covx,x T A [k,k] A T covx,x T A [k,k] und a T k a k = 1 a T kcovx,x T a k + k=0 m 1 k=0 λ k 1 a T k a k covx,x T a k = λ k a k, k = 0,,m 1, = 0, k = 0,,m 1 und damit ist A = v 0,,v m 1,a m,,a 1 Da m beliebig ist, folgt A = K Beispiel: Sei X = X[0],X[1] T standardisiert mit 1 ρ covx,x T =, 0 < ρ < 1 ρ 1 Betrachte die orthogonale Transformation Y = AX mit A = 1 3 1 1 3 Es gilt 1+ 3ρ/ ρ/ covy,y T = A T covx,x T A = ρ/ 1 3ρ/ Die Gesamtenergie von X ist E X = mit EX[0] = EX[1] = 1 Die Gesamtenergie von Y ist E Y = EY[0] +EY[1] = 13

Andererseits gilt EY[0] = 1+ 3ρ/ > EY[1] = 1 3ρ/ Falls ρ = 095, dann wird 1+ 3ρ 100% = 91,8% der Gesamtenergie in Y[0] gespeichert Die Korrelation zwischen Y[0] und Y[1] erfüllt kory[0],y[1] = denn 1 3/4ρ > 1 gilt Betrachte zunächst die KLT Es gilt EY[0],Y[1] EY[0] EY[1] = Y = 1 1 1 1 1 covy,y = ρ/ 1 3/4ρ X 1+ρ 0 0 1 ρ, < korx[0],x[1] = ρ, und damit sind die ZVen Y[0] und Y[1] dekorreliert Weiterhin, für ρ = 095, gilt 1+ρ 100% = 975% v Für ρ 1 ist die 1 dim DCT eine gute Näherung an die 1 dim KLT, denn die Spalten von C T die Spalten von K T approximieren Proof Die tridiagonale atrix 1 ρα α 0 0 R = 1 α 1 α 0 β 0 α 1 α 0 0 α 1 ρα, α = ρ 1+ρ und β = 1 ρ 1+ρ, ist die Inverse von covx,x T und hat dieselben EVen wie covx,x T Für ρ 1 gilt 1 α α 0 0 α 1 α 0 β R Q α = 0 α 1 α 0 0 α 1 α Nach Satz 3 sind die Spalten von C T die EVen von Q α 14

vi Die KLT ist für Signal- und Bildverarbeitung nicht geeignet, da sie von X abhängig ist 7 JPEG: Quantisierung und Zig-Zag-Scan Dieser Schritt wird nach der -dim DCT durchgeführt, um die Einträge von ˆB, die mit höherer Wahrscheinlichkeit klein sind, gleich Null zu setzen Sei die 8 8 Quantisierungsmatrix Q = Q[n,l] n,,,7 gegeben durch Dann berechne für jeden 8 8 Bildblock Q[n,l] = 3+n+l ˆB quantisiert [n,l] = sgnˆb[n,l] ˆB[n,l], n,l = 0,,7 Q[n, l] Anschließend, werden die Einträge jedes Bildblocks mittels des folgenden Zig-Zag- usters in eine Zeile DC,AC 01,AC 10,,AC 77 geschrieben 8 JPEG: Kodierung Für jeden quantisierten Bildblock wird eine Zufallsvariable X : Ω {s 1,,s n } mit Wahrscheinlichkeitsverteilung PX = s j,j = 1,,n, 1 n 64, definiert, wobei s 1,,s n die verschiedenen ganzen Zahlen Symbole sind, die in dem quantisierten Bildblock vorkommen Die Wahrscheinlichkeiten PX = s j werden folgendermassen definiert PX = s j = Anzahl von s j in dem Bildblock 64 15

Sei Σ = {σ 1,,σ L }, L N, eine endliche enge Alphabet von voneinander unterscheidbaren Symbolen, zb Σ = {0, 1} Dann heißt die enge Σ = n 0Σ n, Σ n = {σ i1 σ in : σ ij Σ}, die enge aller Worte über Σ Das Wort ε der Länge 0 wird das leere Wort genannt Gesucht wird eine Abbildung Codierung K : {s 1,s n } {K j = Ks j : j = 1,,n} Σ mit der Eigenschaft, dass der Erwartungswert der Zufallsvariable Y : {K j : j = 1,,n} {LängeK j : j {i 1,i m } {1,n}} minimal wird Falls EY minimal ist, nennt man K, oder die enge {K j = Ks j : j = 1,,n}, den optimalen Code für die Informationsquelle X Die Werte Ks j der Abbildung K heißen Codewörter Definition 13 Ein Code K heißt binär, falls Σ = {0,1} Definition 14 Ein Wort u Σ heißt ein Präfix eines Wortes v Σ, falls v = uw für w Σ und w = ε Definition 15 Ein Code K heißt präfixfrei, falls es kein Paar u,v {K j = Ks j : j = 1,,n} existiert, so dass u ein Präfix von v ist Definition 16 Ein Tupel G = V, E heißt ein ungerichteter Graph, falls gilt: i V ist eine nichtleere, endliche enge, deren Elemente Knoten genannt werden ii E ist eine symmetrische Teilmenge des Kartesischen Produkts N N, dh aus v,u E folgt u,v E für alle u,v V Die Elemente von E heißen Kanten Definition 17 Ein Graph G = V,E heißt ein Baum, falls es zwischen je zwei Knoten es genau einen Weg aus verschiedenen Kanten gibt Definition 18 Ein Baum G = V,E heißt ein binärer Baum, falls jeder Knoten maximal zwei Nachfolgerknoten Kinder hat Definition 19 Ein binärer Baum G = V, E heißt vollständig, falls jeder Knoten entweder zwei oder keinen Nachfolgerknoten hat 16

Theorem 0 Eigenschaften eines binären, optimalen Codes Sei K mit dem Baum G ein binärer, optimaler Code zur Infoquelle X : Ω Ω := {s 1,,s n } mit WV PX = s j,j = 1,,n Dann gilt i Alle Zeichen s j sind Blätter von G ii Der Baum G ist vollständig iii Seltene Zeichen sind tiefer in G als häufiger, dh falls LängeK j > LängeK i, j = i, dann gilt PX = s j < PX = s i iv Falls PX = s j alle verschieden sind, dann sind die zwei seltensten Zeichen Geschwister Proof Falls ein Zeichen s j kein Blatt von G ist, dann existiert ein s i {s 1,,s n } s j, sodassk j einpräfixvonk i ist Alsofolgti FallsderBaumG = V,Eunvollständig ist, dann existieren v 1,v V, so dass v Einzelkind von v 1 ist Dann kann man v 1 und v zusammenfügen ohne Ω zu verändern Also folgt ii Nehmen wir an, dass 17

LängeK j > LängeK i, j = i, aber PX = s j > PX = s i gilt Dann n LängeK k PX = s k ±LängeK j PX = s i ±LängeK i PX = s j = k=1 LängeK k PX = s k +LängeK j PX = s i +LängeK i PX = s j k {1,,n} {i,j} [LängeK i LängeK j ]PX = s i +[LängeK j LängeK i ]PX = s j > k {1,,n} {i,j} LängeK k PX = s k +LängeK j PX = s i +LängeK i PX = s j, da [LängeK i LängeK j ][PX = s i PX = s j ] > 0 Also ist K nicht optimal und die Aussage iii folgt Sei PX = s j < PX = s i für alle i {1,,n} {j} Da G = V,E vollständig ist, existiert ein v V, so dass s j und v Geschwister sind Nehmen wir an, dass v {s 1,,s n } {s j }, dh nach ii, dass v kein Blatt ist Dann existiert ein Zeichen s i {s 1,,s n } {s j } mit LängeK j < LängeK i, was aber iii wiederspricht Also folgt iv Bei JPEG-Codierung wird entweder der Huffman-Code oder die arithmetische Codierung verwendet, abhängig davon welche WV die Zufallsvariable X hat Theorem 1 Der Huffman-Codeistoptimalfür jedeinfoquellex : Ω {s 1,,s n } mit WV PX = s j,j = 1,,n, falls PX = s j keine zweier Potenzen sind 3 Appendix: Exkurs in die Wahrscheinlichkeitstheorie Seien Ω Z eine abzählbare enge und Ω,Σ,P ein diskreter Wahrscheinlichkeitsraum Definition 31 Eine Abbildung X : Ω Ω R heißt diskrete Zufallsvariable ZV 18

Definition 3 Eine Abbildung f : x Ω PX = x, PX = x = 1, heißt x Ω die Wahrscheinlichkeitsverteilung der ZV X Definition 33 Die reelle Zahl EX = x PX = x heißt der Erwartungswert x Ω der ZV X Beispiel: Beispiel Erwartungswert: Würfel wurden 400 mal zusammen geworfen In diesem Fall ist Ω := {1,1;1,;,6,6} Jedem Ereignis wird die Augensumme zugeordnet Die entsprechende Zufallsvariable wird definiert als Die WV der ZV X ist gegeben durch X : Ω {,3,4,5,6,7,8,9,10,11,1} =: Ω 19

Der Erwartungswert von X ist EX = x Ω x PX = x = 7 Um die Zusamenhänger zwischen ZVen zu beschreiben, definieren wir die Kovarianz und den Korrelationskoeffizienten Definition 34 Seien X, Y zwei ZVen Die reellen Zahlen covx,y = EX Y EX EY und korx,y = heißen Kovarianz bzw Korrelationskoeffizient von X und Y Bei der Berechnung von EX Y = x Ω,y Ω x y PX = x,y = y covx,y covx,x covy,y benutzt man den ultiplikationssatz PX = x,y = y = PX = x Y = ypy = y mit der bedingten Wahrscheinlichkeit PX = x Y = y, dass X = x eintritt, falls Y = y schon eingetreten ist Für stochastisch unabhängige ZVen X und Y gilt PX = x,y = y = PX = xpy = y Definition 35 Die ZVen X und Y heißen i stochastisch unabhängig, falls PX = x,y = y = PX = xpy = y, ii dekorreliert, falls covx, Y = 0 Aus stochastischer Unabhängigkeit von X und Y folgt, dass die ZVen dekorreliert sind Die Umkehrung dieser Aussage ist falsch Beispiel: covx 1,X = 0 X 1,X stoch unabhängig Gegeben seien zwei stochastisch unabhängige ZVen Y 1,Y : Ω {0,1} mit der WV PY i = 0 = PY i = 1 = 05, i = 1, Die gemeinsame WV dieser ZVen sei gegen durch PY 1 = k,y = j = 05, k,j = 0,1 Es gilt dann für die ZVen Y 1 +Y und Y 1 Y anderseits CovY 1 +Y,Y 1 Y = 0 Y 1 +Y und Y 1 Y unkorelliert, PY 1 +Y = 0,Y 1 Y = 0 = PY 1 +Y = 0 PY 1 Y = 0, dh Y 1 +Y und Y 1 Y sind nicht stochastisch unabhängig 0

Definition 36 Sei X eine ZV mit den Erwartungswert μ und der Standardabweichung covx,x = σ > 0, so heißt die ZV X = X μ σ die Standardisierte von X References [1] C Van Loan, Computational frameworks for the fast Fourier transformation 1