Bildkompression mit JPEG
|
|
|
- Regina Gehrig
- vor 8 Jahren
- Abrufe
Transkript
1 Bildkompression mit JPEG aria Charina November 6, Bildmodelle Wir betrachten folgende deterministische odelle von Schwarz-Weiß- und Farbbildern Definition 11 Ein Schwarz-Weiß-Bild ist eine N atrix B mit ganzzahligen Einträgen B[n,l] {0,,55}, n = 0,, 1, l = 0,,N 1 mit,n N Definition 1 Ein Farbbild ist eine N 3 atrix B mit ganzzahligen Eintraegen B[n,l,j] {0,,55}, n = 0,, 1, l = 0,,N 1, j = 0,1,, mit,n N RGB-Farbraum beschreibt Farben, die durch additive ischung aus rot, grün und blau zusammengesetzt werden, wobei R,G und B als unabhängige Einheitsvektoren in R 3 dargestellt werden Also, die Pixelwerte P[n,l] eines N Farbbildes werden folgendermaßen aus rot, grün und blau zusammengesetzt P[n,l] = Schwarz+B[n,l,0] Rot+B[n,l,1] Grün+B[n,l,] Blau Schwarz stellt 0, 0, 0 in den sogenannten RGB-Farbraum dar 1
2 JPEG-Algorithmus Schematisch besteht der JPEG-Algorithmus aus den folgenden Schritten: 1 JPEG: Farbmodell-Änderung Neben den RGB-Farbraum sind noch die sogenannten YUV- für das PAL-System und YCbCr-Farbräume für das digitale Fernsehen von besonderer Bedeutung Hier steht Y für Helligkeit, U und V sind die Chrominanzen Farbigkeit und Cb, Cr sind die skalierten Chrominanzen Die Umrechnung zwischen den Farbräumen entspricht einer Basistransformation und wird mittels folgender regulären atrizen durchgeführt Y R U = G V B bzw Y Cb Cr = R G B Die unterschiedliche Wahrnehmung von Y gegenber den Cb- und Cr-Chrominanzen entspricht der Entwicklung der Farb- und Helligkeitsverteilung in der Natur Viele Informationen sind in der Helligkeit gespeichert, die Farbe variiert kaum Die Farbmodelländerung wird durchgeführt, um Speicheraufwand mit Hilfe der Subsampling zu reduzieren Wie man an dem nächsten Bild sieht, enthalten die RGB- Komponenten eines Bildes redundante Information
3 }{{} Dateibmp gespeichert als }{{} RGB Farbraum oder äquivalent }{{} YCbCr Farbraum JPEG: Subsampling JPEG lässt verschiedene Bilddatenformate zu In der Praxis erfolgt die Kompression von Farbbildern meistens unter Verwendung des YCbCr-Formats Die Chrominanzen Cb und Cr werden häufig noch vor der Datenkompression unterabgetastet, dh die Auflösung der Chrominanzen wird sowohl horizontal als auch vertikal verringert Format Bits pro Pixel 4 : 4 : = 4 keine Unterabtastung 4 : : = 16 horizontale und vertikale Unterabtastung it dem 4 : : 0-Format werden zum Beispiel die Daten halbiert, ohne das ein Verlust an subjektiver Bildqualität wahrgenommen wird Diese Art von Datenkompression ist nicht verlustfrei Die Helligkeit und Chrominanzen werden nach Subsampling separat weiterverarbeitet Die Helligkeit wird als ein Schwarz-Weiß-Bild dargestellt 3 JPEG: Blockeinteilung Die N ganzzahlige atrix B wird in 8 8 Blöcke eingeteilt Falls oder N durch 8 nicht teilbar sind, wird B passend mit Nullen ergänzt Bemerkungen: i Die Größe jedes Blocks ist eine Zweierpotenz, was wichtig für die schnelle Realisierung der DCT ist ii Bilder haben instationären Charakter, dh die Helligkeit eines Bildes variiert 3
4 von Ausschnitt zu Ausschnitt Daher ist es sinnvoll, die DCT nur für einzelne stationäre Segmente zu berechnen iii Simulationen zeigen, dass die 8 8 Blockgröße die höchsten Kompressionsraten liefert 4 JPEG: Indexverschiebung Da DCT mit vorzeichenbehafteten Bits arbeitet, wird die Indexverschiebung durchgeführt, dh eine Transformation von {0,,55} auf { 17,,18} 5 JPEG: Diskrete Kosinus-Transformation DCT Definition 1 Die -dim DCT ist eine lineare Transformation auf R, N, B ˆB, ˆB = C B C T, C R, 1 wobei die atrix C = C[n,l] n,,, 1 ist gegeben durch C[n,l] = d[n] cos πl+1n mit d[n] = 1 { 1, falls n = 0,, sonst 51 -dim DCT als Basistransformation Seien B vek, ˆB vek R gegeben durch B vek = B T 0 B T 1 und ˆBvek = ˆB T 0 ˆB T 1 wobei B j, ˆB j, j = 0,, 1, die Zeilen von B bzw von ˆB in 1 sind an kann dann 1 äquivalent schreiben als B vek ˆB vek, ˆBvek = C T C B vek, 3 wobei die atrix C T C durch C C = C[l,n]C n,,, 1 4
5 gegeben ist Beispiel: an kann die -dim DCT auch als eine Basistransformation auf R 1 deuten Seien = und B = Aus 1 folgt 3 4 und damit ˆB = mit C = B = ˆB[0,0]D 0,0 + ˆB[0,1]D 0,1 + ˆB[1,0]D 1,0 + ˆB[1,1]D 1,1 = Die atrizen D j,k sind die sogenannten Basisbilder, die im allgemeinen Fall folgendermaßen definiert sind Definition Die atrizen D j,k, j,k = 0,, 1, mit Einträgen D j,k [n,l] = d[j]d[k]cos πn+1j heißen Basisbilder der -dim DCT πl+1k cos, n,l = 0,, 1, Die -dim DCT stellt das Bild B als Superposition dieser Basisbilder D j,k dar, die als folgende 8 8 uster im Bild B vorkommen, falls die entsprechenden Einträge von ˆB ungleich Null sind 5
6 5 Symmetrie der DCT-atrix Die atrix C in ist nicht symmetrisch, denn für = 8 gilt mit a 1 b 1 c 1 d 1 d 1 c 1 b 1 a 1 a b b a a b b a C = 1 b 1 d 1 a 1 c 1 c 1 a 1 d 1 b c 1 a 1 d 1 b 1 b 1 d 1 a 1 c 1 b a a b b a a b d 1 c 1 b 1 a 1 a 1 b 1 c 1 d 1 a 1 = cos π 16 a = cos π b 1 = cos 3π b 16 = cos 6π 16 c 1 = cos 5π 16 d 1 = cos 7π Unitärität der DCT-atrix Theorem 3 Die atrix C in ist orthogonal, dh CC T = C T C = I Proof Die Identität CC T = C T C = I besagt, dass die Zeilen Spalten von C eine ONB des R bilden Wir zeigen zuerst, dass die Spaltenvektoren Rev n = Spalten von C T mit v n = d[n] [e iπl+1n ] T,, 1, n = 0,, 1, die Eigenvektoren der Tridiagonalmatrix 1 α α α 1 α Q α = α 1 α α 1 α, α R, 6
7 zu Eigenwerten 1 αcos πn sind Da die EWe von Q α paarweise verschieden sind und die atrix Q α symmetrisch ist, bilden die Vektoren Rev n, n = 0,, 1, eine orthogonale Basis des R Danach zeigen wir, dass Rev n = 1 für alle n = 0,, 1 gilt zz: Sei n {0,, 1} Dann gilt Q α Rev n [l] = 1 αcos πn Rev n[l] komponentenweise für l = 0,, 1 1Fall: Für l = 1,, gilt Qα v n [l] = d[n] αe iπl 1n = d[n] e iπl+1n Fall: Für l = 0 gilt = d[n] e iπl+1n 1 α +e iπl+1n e iπn 1 αcos πn αe iπl+3n iπn +e = Qα v n [0] = d[n] 1 αe iπn iπ3n αe = d[n] e iπn α e iπn iπn e 3Fall: Analog für l = 1 Daraus folgt = d[n] = d[n] ReQ α v n = Q α Rev n = da α R und d[n] Re e iπn iπn πn αe cos e iπn iπn αe e iπn iπn πn αe cos 1 αcos πn zz: Rev n = 1 für alle n = 0,, 1 Für n = 0 sieht man leicht, dass v 0 = 1 gilt, da v T 0 v 0 = 1 1 αcos πn iπn iπn +e e e iπn iπn +e v n [l] Rev n, n = 0,, 1, = d[n]cos πn πn αcos = 1 αcos πn Rev n [0] 1 1 = 1 cos πn 7
8 Sei n = 1,, 1 Aus cos β = 1+cosβ folgt Rev n = 1 = 1+ 1 cos πl+1n = 1 1 = 1+ 1 eiπn e iπl+1n 1 e iπn +e iπl+1n 1 l 1 + e iπn 1+cos πl+1n 1 e iπn l = 1, denn 1 e iπn l = 1 e iπn 1 e iπn = 1 e iπn l = 1 e iπn wegen e iπn = e iπn = cosπn = 1 für n Z und e ±iπn n = 1,, 1 1 e iπn = 0, = 0 für n Z, falls Corollary 4 Die -dim DCT ist eine orthogonale Transformation Proof Die Aussage folgt aus 3 und C T C C T C T = C T C CC T = I 54 Separabilität der -dim DCT Definition 5 Sei C R wie in, N Die 1-dim DCT ist die lineare Transformation auf R, die durch x ˆx, ˆx = C x 4 definiert ist Aus Definition 1 folgt, dass die -dim DCT separabel ist, dh man kann zuerst die 1-dim DCT für die Spalten von B durchführen und, anschliessend, die 1-dim DCT für die Zeilen von C B Deshalb untersuchen wir in weiterem nur die Eigenschaften der 1-dim DCT 8
9 55 Schnelle Implementierung der 1-dim DCT Die Berechnung von ˆB in 1 benötigt O 3 Rechenoperationen Die spezielle Struktur von C in und ihre Unabhängigkeit von B erlauben für schnelle Algorithmen zur Berechnung von ˆB in O log Eine öglichkeit dafür ist es, die schnelle DCT unter Nutzung der schnellen diskreten Fourier-Transformation FDFT zu implementieren Definition 6 DieatrixF C seigegebendurchf = 1 e iπnl/ n,,, 1, N Die 1-dim diskrete Fourier-Transformation DFT ist eine lineare Transformation auf C, die durch definiert ist x ˆx, ˆx = F x 5 Bemerkung 7 Rechenaufwand der schnellen DFTFDFT, siehe[1] Wir skizzieren hier nur die Idee der FDFT Seien = l, l N, x C, und die Spaltenvektoren x gerade = [xk : k = 0, 1]T, x ungerade = [xk +1 : k = 0, 1]T Aus 5 folgt [ ˆx k +j ] = 1 F x gerade [k]+ 1 j e iπk F x ungerade [k] für j = 0,1 und k = 0,, 1 Damit ist der Rechenaufwand R solcher Berechnung von ˆx gegeben durch Und rekursiv ergibt sich R = R/+ }{{} Additionen + }{{} ultiplikationen R = l R1+l l+1 = R1+log = O log Also, ist der Rechenaufwand der FDFT für x C, = l, nur O log Falls = l, l N, kann man die 1-dim DCT von x R, folgendermaßen mit Hilfe der FDFT in O log implementieren Theorem 8 Seien x R, = l, l N, und P eine Permutationsmatrix, so dass P [j : j = 0,,l 1] T = [j : j = l 1,,0] T Dann gilt e iπ/ 0 xgerade C x = Re F P x ungerade 0 0 e iπ 1/ 9
10 Proof Sei Dann gilt x = xgerade P x ungerade 1 πl+1n C x[n] = d[n] x[l] cos / 1 = d[n] π4l+1n x[l] cos + / 1 = d[n] π4l+1n x[l] cos + Die Substitution l = l 1 ergibt / 1 C x[n] = d[n] π4l+1n x[l] cos + / 1 / 1 1 l =/ π4l+3n x[l+1]cos π4l+3n x[ l 1]cos π4l x[l +1n ]cos, denn wegen der Periodizität von cos gilt π4 l 1+3n cos = cos πn π4l +1n π4l +1n = cos Damit gilt C x[n] = d[n] Re e iπn/ F x [n], n = 0,, 1, denn π4l +1n cos = Re e iπn/ e iπln/ Analog beweist man das folgende Resultat Theorem 9 Seien x R, = l, l N Dann existiert eine Permutations matrix P R, so dass e iπ/ 0 x = Re P F C x 0 0 e iπ 1/ 10
11 6 JPEG: Dekorrelationstechniken Ziel: Zeige, dass für ein Bild B { 17,,18} 8 8 die atrix ˆB = CBC T R 8 8 mit hohere Wahrscheinlichkeit dünnbesetzt ist Dafür verwenden wir das folgende stochastische odell eines Bildes Definition 10 Ein Bild B = B[n,l] n,,, ist ein stochastisches Feld mit identisch verteilten standardisierten Zufallsvariablen B[n,l] : Ω { 17,,18}, wobei die Ereignismenge Ω die enge aller im Computer darstellbaren Grautöne ist Die folgenden Annahmen an das stochastische Feld B sind für unsere weitere Betrachtungen von entscheidender Bedeutung i Das Feld B ist stationär, dh die Kovarianz covb[n,l],b[j,k] = rn j,l k ist eine Funktion r, die nur von den Abständen n j und l k zwischen den Pixeln n,l und j,k abhängt ii Das stationäre Feld B ist separabel, dh covb[n,l],b[j,k] = rn j,l k = r 1 n j r l k In diesem Fall, wird angenommen, dass die Zeilen und Spalten von B unabhängig behandelt werden können Dieses odell ist vorteilhaft, entspricht aber nicht immer der Realität iii Das stationäre, separable Feld B besitzt die arkov-eigenschaft, dh covb[n,l],b[j,k] = ρ n j 1 ρ l k mit und ρ 1 = covb[n,l],b[n,l+1], n = 0,,, ρ = covb[n,l],b[n+1,l], l = 0,, 11
12 Die Separabilität von B ermöglicht die Reduktion auf den 1-dim Fall Also wir betrachten das 1-dim stochastische Feld X = X[n] n=0,, 1 mit den oben genannten Eigenschaften In dem 1-dim Fall gilt 1 ρ ρ 1 covx,x T ρ 1 ρ = covx[n],x[k] n,k=0,, 1 = ρ 1 ρ 1 mit ρ = covx[0], X[1] Da die Kovariazmatrix symmetrisch ist, existiert eine ONB {v 0,,v 1 } des R aus den EVen v j von covx,x T zu den EWen λ 0,,λ 1 Definition 11 Sei K = v 0 v 1 v 1 R Die Transformation X Y = K T X heißt Karhunen-Lo eve-transformation KLT Eigenschaften der KLT: i Für den Erwartungswert von Y gilt EY = K T EX = 0 ii Die ZVen Y = Y[n] n=0,, 1 := K T X sind unkorreliert, dh covy[j],y[n] = 0, j = n Tatsächlich gilt covy,y T = EY,Y T = K T EX,X T K = diagλ 0,,λ 1, da die atrix covx,x T diagonalisierbar ist iii Wie jede andere unitäre Transformation, ist die KLT energieerhaltend, dh E Y = EY T Y = EX T KK T X = E X iv 1
13 Theorem 1 Unter allen orthogonalen Transformationen AA T = A T A = I verteilt die KLT am meisten Energie auf die ersten m + 1 < Einträge von Y = K T X Proof Sei 0 < m < 1 beliebig Wir maximieren die Spur von covy,y T über alle orthogonale atrizen A = a 0 a 1 R, Y := A T X Die folgenden Optimierungsprobleme sind äquivalent: covy,y T [k,k] m 1 max A T A=I k=0 m 1 max A T A=I k=0 m 1 max a T k a,k =l k=0 m 1 a k Daraus folgt A T covx,x T A [k,k] A T covx,x T A [k,k] und a T k a k = 1 a T kcovx,x T a k + k=0 m 1 k=0 λ k 1 a T k a k covx,x T a k = λ k a k, k = 0,,m 1, = 0, k = 0,,m 1 und damit ist A = v 0,,v m 1,a m,,a 1 Da m beliebig ist, folgt A = K Beispiel: Sei X = X[0],X[1] T standardisiert mit 1 ρ covx,x T =, 0 < ρ < 1 ρ 1 Betrachte die orthogonale Transformation Y = AX mit A = Es gilt 1+ 3ρ/ ρ/ covy,y T = A T covx,x T A = ρ/ 1 3ρ/ Die Gesamtenergie von X ist E X = mit EX[0] = EX[1] = 1 Die Gesamtenergie von Y ist E Y = EY[0] +EY[1] = 13
14 Andererseits gilt EY[0] = 1+ 3ρ/ > EY[1] = 1 3ρ/ Falls ρ = 095, dann wird 1+ 3ρ 100% = 91,8% der Gesamtenergie in Y[0] gespeichert Die Korrelation zwischen Y[0] und Y[1] erfüllt kory[0],y[1] = denn 1 3/4ρ > 1 gilt Betrachte zunächst die KLT Es gilt EY[0],Y[1] EY[0] EY[1] = Y = covy,y = ρ/ 1 3/4ρ X 1+ρ ρ, < korx[0],x[1] = ρ, und damit sind die ZVen Y[0] und Y[1] dekorreliert Weiterhin, für ρ = 095, gilt 1+ρ 100% = 975% v Für ρ 1 ist die 1 dim DCT eine gute Näherung an die 1 dim KLT, denn die Spalten von C T die Spalten von K T approximieren Proof Die tridiagonale atrix 1 ρα α 0 0 R = 1 α 1 α 0 β 0 α 1 α 0 0 α 1 ρα, α = ρ 1+ρ und β = 1 ρ 1+ρ, ist die Inverse von covx,x T und hat dieselben EVen wie covx,x T Für ρ 1 gilt 1 α α 0 0 α 1 α 0 β R Q α = 0 α 1 α 0 0 α 1 α Nach Satz 3 sind die Spalten von C T die EVen von Q α 14
15 vi Die KLT ist für Signal- und Bildverarbeitung nicht geeignet, da sie von X abhängig ist 7 JPEG: Quantisierung und Zig-Zag-Scan Dieser Schritt wird nach der -dim DCT durchgeführt, um die Einträge von ˆB, die mit höherer Wahrscheinlichkeit klein sind, gleich Null zu setzen Sei die 8 8 Quantisierungsmatrix Q = Q[n,l] n,,,7 gegeben durch Dann berechne für jeden 8 8 Bildblock Q[n,l] = 3+n+l ˆB quantisiert [n,l] = sgnˆb[n,l] ˆB[n,l], n,l = 0,,7 Q[n, l] Anschließend, werden die Einträge jedes Bildblocks mittels des folgenden Zig-Zag- usters in eine Zeile DC,AC 01,AC 10,,AC 77 geschrieben 8 JPEG: Kodierung Für jeden quantisierten Bildblock wird eine Zufallsvariable X : Ω {s 1,,s n } mit Wahrscheinlichkeitsverteilung PX = s j,j = 1,,n, 1 n 64, definiert, wobei s 1,,s n die verschiedenen ganzen Zahlen Symbole sind, die in dem quantisierten Bildblock vorkommen Die Wahrscheinlichkeiten PX = s j werden folgendermassen definiert PX = s j = Anzahl von s j in dem Bildblock 64 15
16 Sei Σ = {σ 1,,σ L }, L N, eine endliche enge Alphabet von voneinander unterscheidbaren Symbolen, zb Σ = {0, 1} Dann heißt die enge Σ = n 0Σ n, Σ n = {σ i1 σ in : σ ij Σ}, die enge aller Worte über Σ Das Wort ε der Länge 0 wird das leere Wort genannt Gesucht wird eine Abbildung Codierung K : {s 1,s n } {K j = Ks j : j = 1,,n} Σ mit der Eigenschaft, dass der Erwartungswert der Zufallsvariable Y : {K j : j = 1,,n} {LängeK j : j {i 1,i m } {1,n}} minimal wird Falls EY minimal ist, nennt man K, oder die enge {K j = Ks j : j = 1,,n}, den optimalen Code für die Informationsquelle X Die Werte Ks j der Abbildung K heißen Codewörter Definition 13 Ein Code K heißt binär, falls Σ = {0,1} Definition 14 Ein Wort u Σ heißt ein Präfix eines Wortes v Σ, falls v = uw für w Σ und w = ε Definition 15 Ein Code K heißt präfixfrei, falls es kein Paar u,v {K j = Ks j : j = 1,,n} existiert, so dass u ein Präfix von v ist Definition 16 Ein Tupel G = V, E heißt ein ungerichteter Graph, falls gilt: i V ist eine nichtleere, endliche enge, deren Elemente Knoten genannt werden ii E ist eine symmetrische Teilmenge des Kartesischen Produkts N N, dh aus v,u E folgt u,v E für alle u,v V Die Elemente von E heißen Kanten Definition 17 Ein Graph G = V,E heißt ein Baum, falls es zwischen je zwei Knoten es genau einen Weg aus verschiedenen Kanten gibt Definition 18 Ein Baum G = V,E heißt ein binärer Baum, falls jeder Knoten maximal zwei Nachfolgerknoten Kinder hat Definition 19 Ein binärer Baum G = V, E heißt vollständig, falls jeder Knoten entweder zwei oder keinen Nachfolgerknoten hat 16
17 Theorem 0 Eigenschaften eines binären, optimalen Codes Sei K mit dem Baum G ein binärer, optimaler Code zur Infoquelle X : Ω Ω := {s 1,,s n } mit WV PX = s j,j = 1,,n Dann gilt i Alle Zeichen s j sind Blätter von G ii Der Baum G ist vollständig iii Seltene Zeichen sind tiefer in G als häufiger, dh falls LängeK j > LängeK i, j = i, dann gilt PX = s j < PX = s i iv Falls PX = s j alle verschieden sind, dann sind die zwei seltensten Zeichen Geschwister Proof Falls ein Zeichen s j kein Blatt von G ist, dann existiert ein s i {s 1,,s n } s j, sodassk j einpräfixvonk i ist Alsofolgti FallsderBaumG = V,Eunvollständig ist, dann existieren v 1,v V, so dass v Einzelkind von v 1 ist Dann kann man v 1 und v zusammenfügen ohne Ω zu verändern Also folgt ii Nehmen wir an, dass 17
18 LängeK j > LängeK i, j = i, aber PX = s j > PX = s i gilt Dann n LängeK k PX = s k ±LängeK j PX = s i ±LängeK i PX = s j = k=1 LängeK k PX = s k +LängeK j PX = s i +LängeK i PX = s j k {1,,n} {i,j} [LängeK i LängeK j ]PX = s i +[LängeK j LängeK i ]PX = s j > k {1,,n} {i,j} LängeK k PX = s k +LängeK j PX = s i +LängeK i PX = s j, da [LängeK i LängeK j ][PX = s i PX = s j ] > 0 Also ist K nicht optimal und die Aussage iii folgt Sei PX = s j < PX = s i für alle i {1,,n} {j} Da G = V,E vollständig ist, existiert ein v V, so dass s j und v Geschwister sind Nehmen wir an, dass v {s 1,,s n } {s j }, dh nach ii, dass v kein Blatt ist Dann existiert ein Zeichen s i {s 1,,s n } {s j } mit LängeK j < LängeK i, was aber iii wiederspricht Also folgt iv Bei JPEG-Codierung wird entweder der Huffman-Code oder die arithmetische Codierung verwendet, abhängig davon welche WV die Zufallsvariable X hat Theorem 1 Der Huffman-Codeistoptimalfür jedeinfoquellex : Ω {s 1,,s n } mit WV PX = s j,j = 1,,n, falls PX = s j keine zweier Potenzen sind 3 Appendix: Exkurs in die Wahrscheinlichkeitstheorie Seien Ω Z eine abzählbare enge und Ω,Σ,P ein diskreter Wahrscheinlichkeitsraum Definition 31 Eine Abbildung X : Ω Ω R heißt diskrete Zufallsvariable ZV 18
19 Definition 3 Eine Abbildung f : x Ω PX = x, PX = x = 1, heißt x Ω die Wahrscheinlichkeitsverteilung der ZV X Definition 33 Die reelle Zahl EX = x PX = x heißt der Erwartungswert x Ω der ZV X Beispiel: Beispiel Erwartungswert: Würfel wurden 400 mal zusammen geworfen In diesem Fall ist Ω := {1,1;1,;,6,6} Jedem Ereignis wird die Augensumme zugeordnet Die entsprechende Zufallsvariable wird definiert als Die WV der ZV X ist gegeben durch X : Ω {,3,4,5,6,7,8,9,10,11,1} =: Ω 19
20 Der Erwartungswert von X ist EX = x Ω x PX = x = 7 Um die Zusamenhänger zwischen ZVen zu beschreiben, definieren wir die Kovarianz und den Korrelationskoeffizienten Definition 34 Seien X, Y zwei ZVen Die reellen Zahlen covx,y = EX Y EX EY und korx,y = heißen Kovarianz bzw Korrelationskoeffizient von X und Y Bei der Berechnung von EX Y = x Ω,y Ω x y PX = x,y = y covx,y covx,x covy,y benutzt man den ultiplikationssatz PX = x,y = y = PX = x Y = ypy = y mit der bedingten Wahrscheinlichkeit PX = x Y = y, dass X = x eintritt, falls Y = y schon eingetreten ist Für stochastisch unabhängige ZVen X und Y gilt PX = x,y = y = PX = xpy = y Definition 35 Die ZVen X und Y heißen i stochastisch unabhängig, falls PX = x,y = y = PX = xpy = y, ii dekorreliert, falls covx, Y = 0 Aus stochastischer Unabhängigkeit von X und Y folgt, dass die ZVen dekorreliert sind Die Umkehrung dieser Aussage ist falsch Beispiel: covx 1,X = 0 X 1,X stoch unabhängig Gegeben seien zwei stochastisch unabhängige ZVen Y 1,Y : Ω {0,1} mit der WV PY i = 0 = PY i = 1 = 05, i = 1, Die gemeinsame WV dieser ZVen sei gegen durch PY 1 = k,y = j = 05, k,j = 0,1 Es gilt dann für die ZVen Y 1 +Y und Y 1 Y anderseits CovY 1 +Y,Y 1 Y = 0 Y 1 +Y und Y 1 Y unkorelliert, PY 1 +Y = 0,Y 1 Y = 0 = PY 1 +Y = 0 PY 1 Y = 0, dh Y 1 +Y und Y 1 Y sind nicht stochastisch unabhängig 0
21 Definition 36 Sei X eine ZV mit den Erwartungswert μ und der Standardabweichung covx,x = σ > 0, so heißt die ZV X = X μ σ die Standardisierte von X References [1] C Van Loan, Computational frameworks for the fast Fourier transformation 1
Varianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
Grundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
Proseminar Lineare Algebra II, SS 11. Blatt
Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2
5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
Unabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
P (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut
Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,
Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen
Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).
Technische Universität München
Stand der Vorlesung Kapitel 2: Auffrischung einiger mathematischer Grundlagen Mengen, Potenzmenge, Kreuzprodukt (Paare, Tripel, n-tupel) Relation: Teilmenge MxN Eigenschaften: reflexiv, symmetrisch, transitiv,
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
Mathematische Erfrischungen III - Vektoren und Matrizen
Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen
Klausur zur Vorlesung,,Algorithmische Mathematik II
Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
Vorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Bildkompression InTh, 2005, JPEG, Hak, Rur, 1
Bildkompression InTh, 25, JPEG, Hak, Rur, 1 Referenzen [1] D Salomon, Data Compression, Springer, 24 [2] Prof Dr A Steffen, Kurs SU, ZHW, 1999-24 [3] G Wallace, The JPEG Still Picture Compression Standard,
Diskrete Wahrscheinlichkeitstheorie - Probeklausur
Diskrete Wahrscheinlichkeitstheorie - robeklausur Sommersemester 2007 - Lösung Name: Vorname: Matrikelnr.: Studiengang: Hinweise Sie sollten insgesamt Blätter erhalten haben. Tragen Sie bitte Ihre Antworten
Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die
2 Euklidische Vektorräume
Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,
3.3 Bedingte Wahrscheinlichkeit
28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit
Stochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
Begriffe aus der Informatik Nachrichten
Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung
Aufgaben zu Kapitel 38
Aufgaben zu Kapitel 38 Aufgaben zu Kapitel 38 Verständnisfragen Aufgabe 38. Welche der folgenden vier Aussagen sind richtig:. Kennt man die Verteilung von X und die Verteilung von Y, dann kann man daraus
Technische Universität München Zentrum Mathematik. Übungsblatt 7
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion
Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.
Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.
Eigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
Zufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
Kapitel VI. Euklidische Geometrie
Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und
Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016
Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert
Lineare Algebra für D-ITET, D-MATL, RW. Beispiellösung für Serie 10. Aufgabe ETH Zürich D-MATH. Herbstsemester Dr. V. Gradinaru D.
Dr. V. Gradinaru D. Devaud Herbstsemester 5 Lineare Algebra für D-ITET, D-MATL, RW ETH Zürich D-MATH Beispiellösung für Serie Aufgabe..a Bezüglich des euklidischen Skalarprodukts in R ist die Orthogonalprojektion
Copula Funktionen. Eine Einführung. Nils Friewald
Copula Funktionen Eine Einführung Nils Friewald Institut für Managementwissenschaften Abteilung Finanzwirtschaft und Controlling Favoritenstraße 9-11, 1040 Wien [email protected] 13. Juni 2005
C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =
1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition
Serie 10: Inverse Matrix und Determinante
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die
Vorkurs Mathematik B
Vorkurs Mathematik B Dr. Thorsten Camps Fakultät für Mathematik TU Dortmund 20. September 2011 Definition (R n ) Wir definieren: 1 Der R 2 sei die Menge aller Punkte in der Ebene. Jeder Punkt wird in ein
x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω
5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,
Euklidische und unitäre Vektorräume
Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein
Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
9 Vektorräume mit Skalarprodukt
9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden
1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema
1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und
Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /
Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =
Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14
Institut für Theoretische Informatik Prof. Dr. Jörn Müller-Quade Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 23/4 Vorname Nachname Matrikelnummer Hinweise Für die
Surjektive, injektive und bijektive Funktionen.
Kapitel 1: Aussagen, Mengen, Funktionen Surjektive, injektive und bijektive Funktionen. Definition. Sei f : M N eine Funktion. Dann heißt f surjektiv, falls die Gleichung f(x) = y für jedes y N mindestens
Outline. 1 Vektoren im Raum. 2 Komponenten und Koordinaten. 3 Skalarprodukt. 4 Vektorprodukt. 5 Analytische Geometrie. 6 Lineare Räume, Gruppentheorie
Outline 1 Vektoren im Raum 2 Komponenten und Koordinaten 3 Skalarprodukt 4 Vektorprodukt 5 Analytische Geometrie 6 Lineare Räume, Gruppentheorie Roman Wienands (Universität zu Köln) Mathematik II für Studierende
46 Eigenwerte und Eigenvektoren symmetrischer Matrizen
46 Eigenwerte und Eigenvektoren symmetrischer Matrizen 46.1 Motivation Symmetrische Matrizen (a ij = a ji für alle i, j) kommen in der Praxis besonders häufig vor. Gibt es für sie spezielle Aussagen über
8. Stetige Zufallsvariablen
8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse
Kapitel 6 Martingale
Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse
4 Diskrete Wahrscheinlichkeitsverteilungen
4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder
Wahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006
Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand
Übungen zur Stochastik, Blatt Nr. 1
Prof. Dr. A. Stoffel SS 202 Übungen zur Stochastik, Blatt Nr. ) Zwei Würfel werden gleichzeitig oder nacheinander geworfen. a) Schreiben Sie alle Elemente des Grundraums in Form einer Matrix auf. b) Wie
Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)
Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich
Gesetze der großen Zahlen
Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz
Die Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
2. Repräsentationen von Graphen in Computern
2. Repräsentationen von Graphen in Computern Kapitelinhalt 2. Repräsentationen von Graphen in Computern Matrizen- und Listendarstellung von Graphen Berechnung der Anzahl der verschiedenen Kantenzüge zwischen
Gemeinsame Wahrscheinlichkeitsverteilungen
Gemeinsame Wahrscheinlichkeitsverteilungen Worum geht es in diesem Modul? Gemeinsame Wahrscheinlichkeits-Funktion zweier Zufallsvariablen Randverteilungen Bedingte Verteilungen Unabhängigkeit von Zufallsvariablen
2 Die Dimension eines Vektorraums
2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1
Einführung in die Kodierungstheorie
Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht
Matrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
Bedingte Wahrscheinlichkeiten und Unabhängigkeit
Kapitel 5 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Mitunter erhält man über das Ergebnis eines zufälligen Versuches Vorinformationen. Dann entsteht die Frage, wie sich für den Betrachter, den man
2.1 Gemeinsame-, Rand- und bedingte Verteilungen
Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die
Prüfung Lineare Algebra Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr?
1. Sei V ein n-dimensionaler euklidischer Raum. Welche der folgenden Aussagen ist wahr? A. Wenn n = 3 ist, sind mindestens zwei der drei Euler-Winkel einer Drehung kleiner oder gleich π. B. Wenn n = 2
3.4 Gradient, Divergenz, Rotation in anderen Koordinaten
3.3.5 Rechenregeln Für Skalarfelder f, g und Vektorfelder v, w gelten die Beziehungen fg) = f g + g f v w) = v ) w + w ) v + v w) + w v) f v) = f v + v f v w) = w v) v w) 3.5a) 3.5b) 3.5c) 3.5d) f) = div
1 Euklidische und unitäre Vektorräume
1 Euklidische und unitäre Vektorräume In diesem Abschnitt betrachten wir reelle und komplexe Vektorräume mit Skalarprodukt. Dieses erlaubt uns die Länge eines Vektors zu definieren und (im Fall eines reellen
4. Vektorräume und Gleichungssysteme
technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume
Multimediatechnik / Video
Multimediatechnik / Video Video-Kompression Zusammenfassung http://www.nanocosmos.de/lietz/mtv 2009 1 Motivation: Video-Kompression Unkomprimierte Datenmengen sind zu groß! TV: 20 MB/s = 72 GB/h (720x576x2x25)
JPEG. Seminar: Kompressionsalgorithmen. Ruslan Ragimov. 5. September 2012
JPEG Seminar: Kompressionsalgorithmen Ruslan Ragimov 5. September 2012 Zusammenfassung Die allgemeinen verlustfreien Verfahren zur Datenkompression können gute Kompressionsraten für verschiedene Dateitypen
37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
Adaptive Systeme. Sommersemester Prof. Dr. -Ing. Heinz-Georg Fehn. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Sommersemester 2015 Prof. Dr. -Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Prof. Dr. H.-G. Fehn und Prof. Dr. N. Wulff 1 Adaptive Systeme Adaptives System: ein System, das
Kapitel 5. Stochastik
76 Kapitel 5 Stochastik In diesem Kapitel wollen wir die Grundzüge der Wahrscheinlichkeitstheorie behandeln. Wir beschränken uns dabei auf diskrete Wahrscheinlichkeitsräume Ω. Definition 5.1. Ein diskreter
Aufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010
Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und
Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung
MC-Serie 11: Eigenwerte
D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung
Analytische Geometrie, Vektorund Matrixrechnung
Kapitel 1 Analytische Geometrie, Vektorund Matrixrechnung 11 Koordinatensysteme Eine Gerade, eine Ebene oder den Anschauungsraum beschreibt man durch Koordinatensysteme 111 Was sind Koordinatensysteme?
16.3 Rekurrente und transiente Zustände
16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht
Fraktale Geometrie. 9: Metrische äußere Maße II. Universität Regensburg Sommersemester Daniel Heiß:
Universität Regensburg Sommersemester 013 Daniel Heiß: 9: Metrische äußere Maße II I Das mehrdimensionale Lebesguemaß 1.1 Definition (i) Für reelle Zahlen a b, c d ist ein Rechteck im R die Menge R = a,
Diskrete Mathematik 1
Ruhr-Universität Bochum Lehrstuhl für Kryptologie und IT-Sicherheit Prof Dr Alexander May M Ritzenhofen, M Mansour Al Sawadi, A Meurer Lösungsblatt zur Vorlesung Diskrete Mathematik WS 008/09 Blatt 4 /
Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 0.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
Übung 1: Wiederholung Wahrscheinlichkeitstheorie
Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable
Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany [email protected] Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,
Elemente der Analysis II
Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel
P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.
2 Wahrscheinlichkeitstheorie Beispiel. Wie wahrscheinlich ist es, eine Zwei oder eine Drei gewürfelt zu haben, wenn wir schon wissen, dass wir eine ungerade Zahl gewürfelt haben? Dann ist Ereignis A das
6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
Lineare Gleichungssysteme (Teschl/Teschl 11.1)
Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...
Einführung in Markoff-Ketten
Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die
Lineare Abhängigkeit
Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x
Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)).
8. Untere Schranken für Sortieren Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)). Werden nun gemeinsame Eigenschaften dieser Algorithmen untersuchen. Fassen gemeinsame
Lösungsvorschlag zu den Hausaufgaben der 8. Übung
FAKULTÄT FÜR MATHEMATIK Prof Dr Patrizio Ne Frank Osterbrink Johannes Lankeit 9503 Lösungsvorschlag zu den Hausaufgaben der 8 Übung Hausaufgabe : Beweise den Satz über die Parallelogrammgleichung Sei H
