Lineare Approximation
|
|
- Adolf Vogt
- vor 5 Jahren
- Abrufe
Transkript
1 Lineare Approximation Yasemin Hafizogullari 9. Januar 2009 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
2 Übersicht 1 Erster Abschnitt: Lineare Approximation in beliebiger orthonormal Basis 2 Zweiter Abschnitt Erster Unterabschnitt: lin. approx. in Fourierbasis Zweiter Unterabschnitt: Funktionen von beschränkter Variation dritter Unterabschnitt: lin. Multiskalenapproximation 3 dritter Abschnitt Karhunen-loéve-approximation Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
3 Übersicht 1 Erster Abschnitt: Lineare Approximation in beliebiger orthonormal Basis 2 Zweiter Abschnitt Erster Unterabschnitt: lin. approx. in Fourierbasis Zweiter Unterabschnitt: Funktionen von beschränkter Variation dritter Unterabschnitt: lin. Multiskalenapproximation 3 dritter Abschnitt Karhunen-loéve-approximation Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
4 Lineare Approximation in beliebiger orthonormal Basis Lemma 1. Sei B = {g m } m N eine orthonormale Basis eines Hilbertraums H. Dann lässt sich f H linear approximieren durch Für den Approximationsfehler gilt: M 1 f M = f, g m g m. m=0. ε[m] = f f M 2 = f, g m 2 (1) m=m Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
5 Lineare Approximation in beliebiger orthonormal Basis Beweis zu Lemma 1: Jedes f H kann man mittels orthogonaler Projektion in dieser Basis darstellen f = f, g m g m m=0 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
6 Lineare Approximation in beliebiger orthonormal Basis Beweis zu Lemma 1: Jedes f H kann man mittels orthogonaler Projektion in dieser Basis darstellen f = f, g m g m m=0 Wenn man von allen Skalarprodukten f, g m m N nur die ersten M nimmt, erhält man die folgende Approximation: M 1 f M = f, g m g m, m=0 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
7 Lineare Approximation in beliebiger orthonormal Basis Beweis zu Lemma 1: Jedes f H kann man mittels orthogonaler Projektion in dieser Basis darstellen f = f, g m g m m=0 Wenn man von allen Skalarprodukten f, g m m N nur die ersten M nimmt, erhält man die folgende Approximation: M 1 f M = f, g m g m, m=0 Es gilt: f f m = f, g m g m m=m Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
8 Lineare Approximation in beliebiger orthonormal Basis Der Approximationsfehler ist für b m = f, g m Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
9 Lineare Approximation in beliebiger orthonormal Basis Der Approximationsfehler ist für b m = f, g m ε[m] = f f M 2 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
10 Lineare Approximation in beliebiger orthonormal Basis Der Approximationsfehler ist für b m = f, g m ε[m] = f f M 2 = b m g m, b m g m m=m m=m Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
11 Lineare Approximation in beliebiger orthonormal Basis Der Approximationsfehler ist für b m = f, g m ε[m] = f f M 2 = lin. Skalarprod. = m=m b m g m, [ b m g m, m=m m=m m=m b m g m b m g m ] Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
12 Lineare Approximation in beliebiger orthonormal Basis Der Approximationsfehler ist für b m = f, g m ε[m] = f f M 2 = lin. Skalarprod. = lin. Skalarprod. = m=m b m g m, [ b m g m, m=m m=m n=m m=m m=m b m g m b m g m ] b m b n g m, g n Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
13 Lineare Approximation in beliebiger orthonormal Basis Der Approximationsfehler ist für b m = f, g m ε[m] = f f M 2 = lin. Skalarprod. = lin. Skalarprod. = g i,g j =δ i,j = m=m b m g m, [ b m g m, m=m m=m n=m m=m m=m m=m b m g m b m g m ] b m b n g m, g n b 2 m Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
14 Lineare Approximation in beliebiger orthonormal Basis Die Tatsache, daß f 2 = f, g m 2 < impliziert, dass der Fehler m=0 ε[m] für wachsende m gegen 0 geht, d.h. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
15 Lineare Approximation in beliebiger orthonormal Basis Die Tatsache, daß f 2 = f, g m 2 < impliziert, dass der Fehler m=0 ε[m] für wachsende m gegen 0 geht, d.h. lim ε[m] = 0. M Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
16 Lineare Approximation in beliebiger orthonormal Basis Satz 1. Falls für jedes s > 1 2 A, B > 0, so dass gilt, dass m=0 m 2s f, g m 2 <, dann existieren A m 2s f, g m 2 M 2s 1 ε[m] B m 2s f, g m 2 (2) m=0 M=0 m=0 und es gilt ε[m] = o(m 2s ). Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
17 Lineare Approximation in beliebiger orthonormal Basis Der Satz 1 zeigt, dass der Fehler der linearen Approximation von f W B,s dargestellt mit: { } W B,s = f H m 2s f, g m 2 < schneller fällt als M 2s. m=0 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
18 lin. Approx. versus nicht lin. Approx. Beispiele (1.) Wir betrachten nun die Funktion x 1 3 x < (x 1 f : [0, 1] R, x 4 ) x < x < 3 4 sin(6πx) x 1 die mittels Haar-Wavelet approximiert werden soll. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
19 lin. Approx. versus nich lin. Approx x Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
20 lin. Approx. versus nicht lin. Approx. Das Haar-Wavelet ist definiert durch die Skalierungsfunktion { 1 für 0 x < 1 φ(x) = 0 sonst Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
21 lin. Approx. versus nicht lin. Approx. Das Haar-Wavelet ist definiert durch die Skalierungsfunktion { 1 für 0 x < 1 φ(x) = 0 sonst und das eigentliche Wavelet 1 für 0 x < 1 2 ψ(x) = φ(2x) φ(2x 1) = 1 für 1 2 x < 1 0 sonst Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
22 lin. Approx. versus nicht lin. Approx. Das Haar-Wavelet ist definiert durch die Skalierungsfunktion { 1 für 0 x < 1 φ(x) = 0 sonst und das eigentliche Wavelet 1 für 0 x < 1 2 ψ(x) = φ(2x) φ(2x 1) = 1 für 1 2 x < 1 0 sonst ψ j,k (x) := 2 1 j ψ(2 j x k) Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
23 lin. approx. versus nicht lin. approx Abbildung: Haar-Wavelet: Links φ und rechts ψ Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
24 lin. approx. versus nicht lin. approx. Die lineare Approximation f I bis zum Level I (also M = 2 I +1 Koeffizienten) sieht wie folgt aus f I = 0 2 j 1 f, ψ j,k ψ j,k = j=i k=0 0 j=i 2 j 1 k=0 ( 1 ) f (t) ψ j,k (t)dt ψ j,k 0 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
25 lin. approx. versus nicht lin. approx. Für die nichtlineare Approximation benötigen wir die M größten Koeffizienten von unendlich vielen. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
26 lin. approx. versus nicht lin. approx. Für die nichtlineare Approximation benötigen wir die M größten Koeffizienten von unendlich vielen. Wenn f I die lineare Approximation mit allen Wavelets bis zum Level I ist ( < I < 0), gilt für die Waveletkoeffizienten f, ψ j,k mit j < I die Ungleichung f, ψ j,k 2 f, ψ i,k 2 = f f I 2 L 2 ([0,1]) i<i,k Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
27 lin. approx. versus nicht lin. approx. Ergebnis: In diesem Beispiel haben wir I = 10 gewählt. Wenn man nun diese Methode anwendet, dann bleiben M = 32 Koeffizienten übrig. Die Fehler der Approximationen sind dann: linearer Approximationsfehler: ε = nichtlinearer Approximationsfehler: ε = Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
28 lin. approx. versus nicht lin. approx x Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
29 lin. approx. versus nicht lin. approx. Beispiele (2.) Wir werden nun die lineare mit der nichtlinearen Approximation vergleichen. Dazu wählen wir eine Funktion im Intervall I := [0, 1]. Diese Funktion soll nun mit N stückweisen Konstanten angenähert werden. Wir verwenden für den Fehler die die L -Norm. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
30 lin. approx. versus nicht lin. approx. lineare approximation: Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
31 lin. approx. versus nicht lin. approx. lineare approximation: für f gelte f L Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
32 lin. approx. versus nicht lin. approx. lineare approximation: für f gelte f L wähle äquidistante Stützstellen Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
33 lin. approx. versus nicht lin. approx. lineare approximation: für f gelte f L wähle äquidistante Stützstellen definieren die einzelnen Teilintervalle durch I i := [i, i + 1 N ], i {0, 1, 2,..., N 1}. Zu jedem x I i existiert ein ξ I i, so dass gilt: ( ) ( i f (x) f = x i ) f (ξ) N N Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
34 lin. approx. versus nicht lin. approx. lineare approximation: für f gelte f L wähle äquidistante Stützstellen definieren die einzelnen Teilintervalle durch I i := [i, i + 1 N ], i {0, 1, 2,..., N 1}. Zu jedem x I i existiert ein ξ I i, so dass gilt: ( ) ( i f (x) f = x i ) f (ξ) N N Damit gilt dann folgende Ungleichung: inf c R f c L (I i ) ( ) i f f N L (I i ) 1 N f L (I i ) Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
35 lin. approx. versus nicht lin. approx. lineare approximation: für f gelte f L wähle äquidistante Stützstellen definieren die einzelnen Teilintervalle durch I i := [i, i + 1 N ], i {0, 1, 2,..., N 1}. Zu jedem x I i existiert ein ξ I i, so dass gilt: ( ) ( i f (x) f = x i ) f (ξ) N N Damit gilt dann folgende Ungleichung:. inf c R f c L (I i ) ( ) i f f N L (I i ) 1 N f L (I i ) S := {g Funktion g(x) = c i falls x I i } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
36 lin. approx. versus nicht lin. approx. lineare approximation: für f gelte f L wähle äquidistante Stützstellen definieren die einzelnen Teilintervalle durch I i := [i, i + 1 N ], i {0, 1, 2,..., N 1}. Zu jedem x I i existiert ein ξ I i, so dass gilt: ( ) ( i f (x) f = x i ) f (ξ) N N Damit gilt dann folgende Ungleichung:. inf c R f c L (I i ) Also gilt für den Fehler ( ) i f f N L (I i ) 1 N f L (I i ) S := {g Funktion g(x) = c i falls x I i } ε = inf g S f g L (I ) 1 N f L (I ) Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
37 lin. approx. versus nicht lin. approx. Nichtlineare Approximation: Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
38 lin. approx. versus nicht lin. approx. Nichtlineare Approximation: für f gelte f L 1 L Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
39 lin. approx. versus nicht lin. approx. Nichtlineare Approximation: für f gelte f L 1 L wähle Stützstellen x i, i {0, 1, 2,..., N 1} von f, so dass gilt: xi+1 x i f (x) dx = 1 N 1 0 f (x) dx Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
40 lin. approx. versus nicht lin. approx. Nichtlineare Approximation: für f gelte f L 1 L wähle Stützstellen x i, i {0, 1, 2,..., N 1} von f, so dass gilt: xi+1 x i f (x) dx = 1 N 1 0 f (x) dx Setze I i := [x i, x i+1 ]. Für x I i gilt dann x f (x) f (x i ) = f xi+1 (x)dx f (x) dx 1 N x i x i 1 0 f (x) dx Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
41 lin. approx. versus nicht lin. approx. Nichtlineare Approximation: für f gelte f L 1 L wähle Stützstellen x i, i {0, 1, 2,..., N 1} von f, so dass gilt: xi+1 x i f (x) dx = 1 N 1 0 f (x) dx Setze I i := [x i, x i+1 ]. Für x I i gilt dann x f (x) f (x i ) = f xi+1 (x)dx f (x) dx 1 N x i Definiere S analog zu oben. Es ergibt sich für den Fehler ε = inf g S f g L (I ) 1 N x i f (x) dx 1 N f L (I ) }{{} R { } 0 f (x) dx Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
42 Bedeutung der Glattheit einer Funktion Satz (2.) Seien x 0,..., x n paarweise äquidistante Stützstellen, a := min{x 0,..., x n }, b = max{x 0,..., x n } und x R. Sei I := [min{a, x}, max{b, x}]. Für f C n+1 (I ) existiert ζ I so dass f (x) P(f x 0..., x n )(x) = (x x 0 )... (x x n ) f n+1 (ζ) (n + 1)! gilt. Insbesondere gilt n max f (x) P(f x 0,..., x n )(x) max x [a,b] x [a,b] j=0 (x x j ) }{{} =h max x [a,b] f n+1 (x) (n + 1)! Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
43 Übersicht 1 Erster Abschnitt: Lineare Approximation in beliebiger orthonormal Basis 2 Zweiter Abschnitt Erster Unterabschnitt: lin. approx. in Fourierbasis Zweiter Unterabschnitt: Funktionen von beschränkter Variation dritter Unterabschnitt: lin. Multiskalenapproximation 3 dritter Abschnitt Karhunen-loéve-approximation Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
44 lin. Approx. in Fourierbasis Der Approximationsfehler steht im Zusammenhang mit der Sobolew Differenzierbarkeit. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
45 lin. Approx. in Fourierbasis Der Approximationsfehler steht im Zusammenhang mit der Sobolew Differenzierbarkeit. Der Satz von Plancherel beweist das falls: gilt das f L 2 (R). w 2 ˆf (w) 2 dw = 2π f (t) 2 dt < Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
46 lin. Approx. in Fourierbasis Der Approximationsfehler steht im Zusammenhang mit der Sobolew Differenzierbarkeit. Der Satz von Plancherel beweist das falls: gilt das f L 2 (R). Definition 1. w 2 ˆf (w) 2 dw = 2π f (t) 2 dt < (Differenzierbarkeit im Sinne von Sobolew) Wir sagen f L 2 (R) ist differenzierbar im Sinne von Sobolew, wenn gilt. w 2 ˆf (w) 2 dw < Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
47 lin. Approx. in Fourierbasis Für s N kann man den Raum H s = {f L 2 (R) f (s) L 2 (R)} definieren. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
48 lin. Approx. in Fourierbasis Für s N kann man den Raum H s = {f L 2 (R) f (s) L 2 (R)} definieren. Es gilt ˆf s (k) = (iw) sˆf, und außerdem gilt: f (s) 2 = m= f (u) (s), e i2πmu e i2πmk Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
49 lin. Approx. in Fourierbasis Für s N kann man den Raum H s = {f L 2 (R) f (s) L 2 (R)} definieren. Es gilt ˆf s (k) = (iw) sˆf, und außerdem gilt: f (s) 2 = analog Lemma(1) = m= m= f (u) (s), e i2πmu e i2πmk ˆf (s) (m) 2 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
50 lin. Approx. in Fourierbasis Für s N kann man den Raum H s = {f L 2 (R) f (s) L 2 (R)} definieren. Es gilt ˆf s (k) = (iw) sˆf, und außerdem gilt: f (s) 2 = analog Lemma(1) = = <. m= m= m= f (u) (s), e i2πmu e i2πmk ˆf (s) (m) 2 m 2s ˆf (m) 2 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
51 lin. Approx. in Fourierbasis Für s N kann man den Raum H s = {f L 2 (R) f (s) L 2 (R)} definieren. Es gilt ˆf s (k) = (iw) sˆf, und außerdem gilt: f (s) 2 = analog Lemma(1) = = <. m= m= m= f (u) (s), e i2πmu e i2πmk ˆf (s) (m) 2 m 2s ˆf (m) 2 Das motiviert uns die Räume W s (R), W s ([0, 1]) zu definieren. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
52 lin. Approx. in Fourierbasis Definition 2.(W s (R) und W s ([0, 1])) Der Raum W s (R) mit s R, ist definiert durch: { } W s (R) = f L 2 (R) w 2s ˆf (w) 2 dw < Wobei nun per Definition für f W s (R) gilt: m= m 2s f (u), e i2πmu 2 }{{} =ˆf (m) < Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
53 lin. Approx. in Fourierbasis Definition 2.(W s (R) und W s ([0, 1])) Der Raum W s (R) mit s R, ist definiert durch: { } W s (R) = f L 2 (R) w 2s ˆf (w) 2 dw < Wobei nun per Definition für f W s (R) gilt: m= m 2s f (u), e i2πmu 2 }{{} Den Raum W s ([0, 1]) definieren durch: =ˆf (m) < W s ([0, 1]) = {f L 2 [0, 1] f s L 2 [0, 1] und f ist außerhalb von [0, 1] fortseztbar durch f W s (R)} Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
54 lin. Approx. in Fourierbasis Lemma 2. (Fourier-Approximation) Jedes f L 2 [0, 1] lässt sich linear approximieren durch f M = f (u), e i2πmu e i2πmt. m M 2 mit 1 f (u), e i2πmu = f (u) e i2πmu du 0 Der Approximationsfehler ist dann ε[m] = f (u), e i2πmu 2 m > M 2 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
55 lin. Approx. in Fourierbasis Satz 3. Sei f L 2 [0, 1] eine Funktion, dessen Träger in (0, 1) liegt und sei s R s > 1 2. Dann gilt: f W s [0, 1] M=1 M 2 s ε[m] M < was impliziert, dass ε[m] = o(m 2s ) Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
56 Funktionen von beschränkter Variation Definition 3. Man kann die totale Variation mit Hilfe von Zerlegungen definieren: Die totale Variation einer reellwertigen Funktion f : [a, b] R ist dann: V (f ) := sup N f (x i ) f (x i 1 ), i=1 wobei dieses Supremum über alle Zerlegungen des Intervalls [a, b] gebildet wird, so daß a x 0 < x 1 < x n b. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
57 Funktionen von beschränkter Variation Definition 3. Man kann die totale Variation mit Hilfe von Zerlegungen definieren: Die totale Variation einer reellwertigen Funktion f : [a, b] R ist dann: V (f ) := sup N f (x i ) f (x i 1 ), i=1 wobei dieses Supremum über alle Zerlegungen des Intervalls [a, b] gebildet wird, so daß a x 0 < x 1 < x n b. Man kann die Variation für differenzierbare Funktionen auch anders definieren: V (f ) := f (u)du Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
58 Funktionen von beschränkter Variation Definition 3. Wenn f nicht differenzierbar ist so kann man die Variation wie folgt definieren: f (t) f (t h) V (f ) := lim dt h 0 h Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
59 Funktionen von beschränkter Variation Definition 3. Wenn f nicht differenzierbar ist so kann man die Variation wie folgt definieren: f (t) f (t h) V (f ) := lim dt h 0 h Wir sagen f ist von beschränkter Variation wenn gilt: Wir schreiben f BV [a, b] f V := V (f ) < Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
60 Funktionen von beschränkter Variation Bemerkung 1. Eigenschaften von Funktionen aus f BV [a, b]: Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
61 Funktionen von beschränkter Variation Bemerkung 1. Eigenschaften von Funktionen aus f BV [a, b]: Es sei f BV [a, b]. Dann hat f höchstens abzählbare viele Sprungstellen und keine weiteren Unstetigkeitsstellen. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
62 Funktionen von beschränkter Variation Bemerkung 1. Eigenschaften von Funktionen aus f BV [a, b]: Es sei f BV [a, b]. Dann hat f höchstens abzählbare viele Sprungstellen und keine weiteren Unstetigkeitsstellen. f BV [a, b] ex. monotone Fkt f 1, f 2 : [a, b] R so daß f (x) = f 1 (x) f 2 (x) x [a, b] Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
63 Funktionen von beschränkter Variation Bemerkung 1. Eigenschaften von Funktionen aus f BV [a, b]: Es sei f BV [a, b]. Dann hat f höchstens abzählbare viele Sprungstellen und keine weiteren Unstetigkeitsstellen. f BV [a, b] ex. monotone Fkt f 1, f 2 : [a, b] R so daß f (x) = f 1 (x) f 2 (x) x [a, b] f BV [a, b]. Dann ist f fast überall auf [a, b] differenzierbar, und es ist f (x) < fast überall auf [a, b]. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
64 Funktionen von beschränkter Variation Beispiele (3.) y = sin( 1 x ) in der Nähe von 0 ist von unbeschränkter Variation. Für x 0 geht 1 x immer schneller gegen der Sinus von diesem Wert, wird also unendlich viele Schwingungen durchlaufen. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
65 Funktionen von beschränkter Variation Beispiele (3.) y = sin( 1 x ) in der Nähe von 0 ist von unbeschränkter Variation. Für x 0 geht 1 x immer schneller gegen der Sinus von diesem Wert, wird also unendlich viele Schwingungen durchlaufen. Andereseits ist von beschränkter Variation: { 0 wenn x = 0 g(x) = x 2 sin( 1 x ) sonst Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
66 Funktionen von beschränkter Variation Abbildung: Beispielfunktionen für unbeschränkte und beschränkte Variation. Links unbeschränkt: g(x) = 0 wenn x = 0, g(x) = x 2 sin( 1 x ) sonst. Rechts beschränkt: x sin( 1 x ) Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
67 Funktionen von beschränkter Variation Beispiele (3.) χ [0, 1 ] ist ebenfalls von beschränkter Variation Abbildung: χ [0, 1 2 ] Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
68 Funktionen von beschränkter Variation Satz 4. Wenn f V <, f diffbar. und supp(f ) (0, 1), dann gilt ε[m] = O( f 2 V M 1 ). Für f = Cχ [0, 1 2 ], gilt ε[m] f 2 V M 1. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
69 lin. Multiskalenapproximation Betrachte Wavelet-Orthonormalbasis des L 2 [0, 1] mit gröbster Skalierung von 2 J < 1: [{φ J,n } 0 n<2 J, {ψ j,n } <j J,0 n<2 j ] Setze voraus, daß die Wavelets ψ j,n C q sind mit q verschwindende Momente. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
70 lin. Multiskalenapproximation Betrachte Wavelet-Orthonormalbasis des L 2 [0, 1] mit gröbster Skalierung von 2 J < 1: [{φ J,n } 0 n<2 J, {ψ j,n } <j J,0 n<2 j ] Setze voraus, daß die Wavelets ψ j,n C q sind mit q verschwindende Momente. Lemma 3. Jedes f L 2 [0, 1] lässt sich linear approximieren durch f M = P Vl f = J j=l+1 f, ψ j,n ψ j,n + 2 j 1 n=0 Der Approximationsfehler ist dann: ε[m] = f f M 2 = l j= 2 j 1 n=0 2 J 1 n=0 f, φ J,n φ J,n f, ψ j,n 2 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
71 lin. Multiskalenapproximation Satz 5. Sei 0 < s < q ein Sobolew Exponent und f L 2 [0, 1]. Dann gilt: f W s [0, 1] J j= 2 j 1 n=0 2 2sj f, ψ j,n 2 < Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
72 lin. Multiskalenapproximation Um das Ganze zu vereinfachen nehmen wir an das supp(f ) (0, 1). Wenn wir f außerhalb von [0, 1] durch 0 erweitern, dann ist f W s (R), was bedeutet, dass: w 2s ˆf (w) 2 dw < Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
73 lin. Multiskalenapproximation Um das Ganze zu vereinfachen nehmen wir an das supp(f ) (0, 1). Wenn wir f außerhalb von [0, 1] durch 0 erweitern, dann ist f W s (R), was bedeutet, dass: w 2s ˆf (w) 2 dw < Der niedrigfrequente Anteil dieses Integrals ist immer noch endlich, weil f L 2 (R): w 2s ˆf (w) 2 dw w 2 J π Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
74 lin. Multiskalenapproximation Um das Ganze zu vereinfachen nehmen wir an das supp(f ) (0, 1). Wenn wir f außerhalb von [0, 1] durch 0 erweitern, dann ist f W s (R), was bedeutet, dass: w 2s ˆf (w) 2 dw < Der niedrigfrequente Anteil dieses Integrals ist immer noch endlich, weil f L 2 (R): w 2s ˆf (w) 2 dw 2 2sJ π 2s ˆf (w) 2 dw w 2 J π w 2 J π Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
75 lin. Multiskalenapproximation Um das Ganze zu vereinfachen nehmen wir an das supp(f ) (0, 1). Wenn wir f außerhalb von [0, 1] durch 0 erweitern, dann ist f W s (R), was bedeutet, dass: w 2s ˆf (w) 2 dw < Der niedrigfrequente Anteil dieses Integrals ist immer noch endlich, weil f L 2 (R): w 2s ˆf (w) 2 dw 2 2sJ π 2s ˆf (w) 2 dw w 2 J π 2 2sJ π 2s w 2 J π R ˆf (w) 2 dw Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
76 lin. Multiskalenapproximation Um das Ganze zu vereinfachen nehmen wir an das supp(f ) (0, 1). Wenn wir f außerhalb von [0, 1] durch 0 erweitern, dann ist f W s (R), was bedeutet, dass: w 2s ˆf (w) 2 dw < Der niedrigfrequente Anteil dieses Integrals ist immer noch endlich, weil f L 2 (R): w 2s ˆf (w) 2 dw 2 2sJ π 2s ˆf (w) 2 dw w 2 J π 2 2sJ π 2s w 2 J π R ˆf (w) 2 dw Plancherel = 2 2sJ π 2s f 2 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
77 lin. Multiskalenapproximation Um das Ganze zu vereinfachen nehmen wir an das supp(f ) (0, 1). Wenn wir f außerhalb von [0, 1] durch 0 erweitern, dann ist f W s (R), was bedeutet, dass: w 2s ˆf (w) 2 dw < Der niedrigfrequente Anteil dieses Integrals ist immer noch endlich, weil f L 2 (R): w 2s ˆf (w) 2 dw 2 2sJ π 2s ˆf (w) 2 dw w 2 J π 2 2sJ π 2s w 2 J π R ˆf (w) 2 dw Plancherel = 2 2sJ π 2s f 2 Die Energie von ˆψ j,n ist im Intervall [ 2 j 2π, 2 j π] [2 j π, 2 j 2π] konzentriert. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
78 lin. Multiskalenapproximation Als Konsequenz daraus folgt: 2 j 1 n=0 f, ψ j,n 2 2 j π w 2 j+i π ˆf (w) 2 dw, Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
79 lin. Multiskalenapproximation Als Konsequenz daraus folgt: 2 j 1 n=0 f, ψ j,n 2 2 j π w 2 j+i π In diesem Intervall gilt zudem w 2 j, und damit 2 j 1 n=0 2 2sj f, ψ j,n 2 2 j π w 2 j+1 π ˆf (w) 2 dw, w 2s ˆf (w) 2 dw. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
80 lin. Multiskalenapproximation Als Konsequenz daraus folgt: 2 j 1 n=0 f, ψ j,n 2 2 j π w 2 j+i π In diesem Intervall gilt zudem w 2 j, und damit 2 j 1 n=0 Es folgt, dass J j= 2 2sj f, ψ j,n 2 2 j 1 n=0 2 2sj f, ψ j,n 2 was erklärt warum die Behauptung gilt. 2 j π w 2 j+1 π w 2 J π ˆf (w) 2 dw, w 2s ˆf (w) 2 dw. w 2s ˆf (w) 2 dw, Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
81 lin. Multiskalenapproximation Satz5. Sei 1/2 < s < q ein Sobolew Exponent, f L 2 [0, 1]. Dann gilt: f W s [0, 1] m 2s f, g m 2 < m=0 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
82 lin. Multiskalenapproximation Satz5. Sei 1/2 < s < q ein Sobolew Exponent, f L 2 [0, 1]. Dann gilt: f W s [0, 1] m 2s f, g m 2 < m=0 und f W s [0, 1] was impliziert, das ε[m] = o(m 2s ) M=1 2s ε[m] M M < Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
83 Übersicht 1 Erster Abschnitt: Lineare Approximation in beliebiger orthonormal Basis 2 Zweiter Abschnitt Erster Unterabschnitt: lin. approx. in Fourierbasis Zweiter Unterabschnitt: Funktionen von beschränkter Variation dritter Unterabschnitt: lin. Multiskalenapproximation 3 dritter Abschnitt Karhunen-loéve-approximation Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
84 Karhunen-loéve-approximation Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
85 Karhunen-loéve-approximation Man kann eine Klasse von Signalen als Zufallsvektoren modelieren. Finite diskrete Signale f werden dabei von einem Zufallsvektor F [n] der Größe N dargestellt. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
86 Karhunen-loéve-approximation Man kann eine Klasse von Signalen als Zufallsvektoren modelieren. Finite diskrete Signale f werden dabei von einem Zufallsvektor F [n] der Größe N dargestellt. Wir werden zeigen, dass die Basis, die den statistischen Fehler bei linearer Approximation minimiert, die Karhunen-Loève-Basis ist. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
87 Karhunen-loéve-approximation Man kann eine Klasse von Signalen als Zufallsvektoren modelieren. Finite diskrete Signale f werden dabei von einem Zufallsvektor F [n] der Größe N dargestellt. Wir werden zeigen, dass die Basis, die den statistischen Fehler bei linearer Approximation minimiert, die Karhunen-Loève-Basis ist. Definition 4. Ist X eine diskrete Zufallsvariable, die die Werte x 1, x 2... mit den jeweiligen Wahrscheinlichkeiten p 1, p 2... animmt, errechnet sich der Erwartungswert E(X ) durch: E(X ) := i x i p i = i x i P(X = x i ) Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
88 Karhunen-loéve-approximation Definition 5. Sei E{X } der Erwartungswert einer Zufallsvariable X. Die Kovarianz zweier Zufallsvariablen X 1 und X 2 ist defniniert durch: Cov(X 1, X 2 ) = E{(X 1 E{X 1 })(X 2 E{X 2 }) }. Die Kovarianz-Matrix R eines Zufallsvektors Y ist definiert durch die N 2 Kovarianzwerte: R[n, m] := Cov(Y [n]y [m]) n, m {1, 2,..., N} Dadurch ist der Kovarianzoperator definiert, der jeden Vektor h[n] transformiert: Kh[n] := N 1 m=0 R[n, m]h[m] Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
89 Karhunen-loéve-approximation Satz 7. Für den Kovarianzoperator K und einem Zufallsvektor F [n], dessen Erwartungswert 0 ist und einem Vektor x[n] gilt: Beweis: E{ F, x 2 } = Kx, x Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
90 Karhunen-loéve-approximation Satz 7. Für den Kovarianzoperator K und einem Zufallsvektor F [n], dessen Erwartungswert 0 ist und einem Vektor x[n] gilt: E{ F, x 2 } = Kx, x Beweis: Die Kovarianzmatrix eines Zufallsvektors F [n] ist definiert durch die N 2 Kovarianzwerte R[n, m] = Cov(F [n]f [m]). Da E{F [n]} = 0, erhalten wir für die Kovarianzwerte: E{ F, x 2 } R[n, m] = E{F [n]f [m]} (3) Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
91 Karhunen-loéve-approximation Satz 7. Für den Kovarianzoperator K und einem Zufallsvektor F [n], dessen Erwartungswert 0 ist und einem Vektor x[n] gilt: E{ F, x 2 } = Kx, x Beweis: Die Kovarianzmatrix eines Zufallsvektors F [n] ist definiert durch die N 2 Kovarianzwerte R[n, m] = Cov(F [n]f [m]). Da E{F [n]} = 0, erhalten wir für die Kovarianzwerte: R[n, m] = E{F [n]f [m]} (3) E{ F, x 2 } = E{ F, x F, x } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
92 Karhunen-loéve-approximation Satz 7. Für den Kovarianzoperator K und einem Zufallsvektor F [n], dessen Erwartungswert 0 ist und einem Vektor x[n] gilt: E{ F, x 2 } = Kx, x Beweis: Die Kovarianzmatrix eines Zufallsvektors F [n] ist definiert durch die N 2 Kovarianzwerte R[n, m] = Cov(F [n]f [m]). Da E{F [n]} = 0, erhalten wir für die Kovarianzwerte: R[n, m] = E{F [n]f [m]} (3) E{ F, x 2 } = E{ F, x F, x } { N 1 = E F [n]x [n] n=0 ( N 1 n=0 F [n]x [n] ) } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
93 Karhunen-loéve-approximation Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
94 Karhunen-loéve-approximation = E { N 1 n=0 F [n]x [n] N 1 m=0 F [m]x[m] } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
95 Karhunen-loéve-approximation = E = E { N 1 n=0 { N 1 F [n]x [n] N 1 n=0 m=0 N 1 m=0 F [m]x[m] F [n]f [m]x [n]x[m] } } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
96 Karhunen-loéve-approximation = E = E Erwartung lin. = { N 1 n=0 { N 1 F [n]x [n] N 1 n=0 m=0 N 1 N 1 n=0 m=0 N 1 m=0 F [m]x[m] F [n]f [m]x [n]x[m] E{F [n]f [m]}x [n]x[m] } } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
97 Karhunen-loéve-approximation = E = E Erwartung lin. = (3) = { N 1 n=0 { N 1 F [n]x [n] N 1 n=0 m=0 N 1 N 1 n=0 m=0 N 1 N 1 n=0 m=0 N 1 m=0 F [m]x[m] F [n]f [m]x [n]x[m] E{F [n]f [m]}x [n]x[m] R[n, m]x[m]x [n] } } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
98 Karhunen-loéve-approximation = E = E Erwartung lin. = (3) = { N 1 n=0 { N 1 F [n]x [n] N 1 n=0 m=0 N 1 N 1 n=0 m=0 N 1 N 1 n=0 m=0 = Kx, x. N 1 m=0 F [m]x[m] F [n]f [m]x [n]x[m] E{F [n]f [m]}x [n]x[m] R[n, m]x[m]x [n] } } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
99 Karhunen-loéve-approximation Satz 8.(Karhunen-Loève Basis) Es existiert eine orthonormale Basis {g k } 0 k<n, welche den Kovarianzoperator K diagonalisiert: Kg k = σ 2 k g k. Diese Basis heißt Karhunen-Loève Basis von Y, wobei die Erwartungswerte der Y [n] 0 sein müssen. Die Vektoren g k sind die Eigenvektoren und die Eigenwerte sind die Varianzen: σ 2 k = Kg k, g k = E{ Y, g k 2 } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
100 Karhunen-loéve-approximation Lemma 4. Sei {g m } 0 m<n eine Orthonormalbasis. Jeder Zufallsvektor F lässt sich dann linear approximieren durch N 1 F, g m g m, m=0 wobei E{F [n]} = 0 sein müssen. (Bemerkung: Wenn sie nicht 0 sind, dann den Erwartungswert von F subtrahieren. Dieser ist dann ein Vektor.) Der statistische Gesamtfehler ist dann: ε[m] = N 1 m=m E{ F, g m 2 } = N 1 m=m Kg m, g m Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
101 Karhunen-loéve-approximation Satz 9. Sei K ein Kovarianzoperator und 1 M < N. Dann ist der Approximationsfehler: ε[m] = N 1 m=m Kg m, g m. ε[m] ist genau dann für alle M minimal, wenn {g m } 0 m<n eine Karhunen-Loève Basis ist, deren Vektoren durch absteigende Eigenwerte angeordnet sind: Kg m, g m Kg m+1, g m+1 0 m < N 1 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
102 Karhunen-loéve-approximation Man kann F als eine Punktwolke vorstellen. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
103 Karhunen-loéve-approximation Man kann F als eine Punktwolke vorstellen. Die Dichte der Wolke sagt etwas über die Wahrscheinlichkeitsverteilung von F aus. Die Eigenvektoren g m geben die Richtung der Achsen der Wolke an. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
104 Karhunen-loéve-approximation Man kann F als eine Punktwolke vorstellen. Die Dichte der Wolke sagt etwas über die Wahrscheinlichkeitsverteilung von F aus. Die Eigenvektoren g m geben die Richtung der Achsen der Wolke an. Großen Eigenwerte bedeuten das die Wolke in Richtung des zugehörigen Eigenvektors stark ausgedehnt ist. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
105 Karhunen-loéve-approximation Man kann F als eine Punktwolke vorstellen. Die Dichte der Wolke sagt etwas über die Wahrscheinlichkeitsverteilung von F aus. Die Eigenvektoren g m geben die Richtung der Achsen der Wolke an. Großen Eigenwerte bedeuten das die Wolke in Richtung des zugehörigen Eigenvektors stark ausgedehnt ist. Die Karhunen-loéve approxiamtion, dreht und spiegelt die Achsen eines System in Richtung seiner minimalen Varianz. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
106 Karhunen-loéve-approximation Satz 10 (Singulärwertzerlegung) Zu jeder Matrix A R n m existieren orthogonale Matrizen U R m m, V R n n und eine Diagonalmatrix Σ := diag(σ 1,..., σ p ) R m n, p = min{m, n} mit so daß σ 1 σ 2... σ p 0, U T AV = Σ Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
107 Karhunen-loéve-approximation Satz 10 (Singulärwertzerlegung) Zu jeder Matrix A R n m existieren orthogonale Matrizen U R m m, V R n n und eine Diagonalmatrix Σ := diag(σ 1,..., σ p ) R m n, p = min{m, n} mit so daß σ 1 σ 2... σ p 0, U T AV = Σ Das Bild der Euklidischen Einheitskugel in R n unter der Abbildung A R mxn hat die Form {Ax x 2 = 1} = {UΣV t x x 2 = 1} = U({Σy y 2 = 1}) Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49
Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung
Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Dr. Gerhard Mülich Christian Maaß 6.Mai 8 Im letzten Vortrag haben wir gesehen, dass das
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
MehrOrthogonale Waveletbasen
Orthogonale Waveletbasen Johannes Stemick 12.12.08 Johannes Stemick () Orthogonale Waveletbasen 12.12.08 1 / 46 Übersicht 1 Multiskalenanalyse und Skalierungsfunktion Haar-Basis Multiskalenanalyse Konstruktion
Mehr53 Die Parsevalsche Gleichung
53 Die Parsevalsche Gleichung 53 Die Parsevalsche Gleichung 5 53. Skalarprodukte auf Räumen quadratintegrierbarer Funktionen. a) Die Orthogonalitätsrelationen (5.5) legen die Interpretation des Ausdrucks
MehrBegleitmaterial zur Vorlesung Numerik II
Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik
Mehr4 Messbare Funktionen
4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrWichtige Klassen reeller Funktionen
0 Wichtige Klassen reeller Funktionen Monotone Funktionen sind i.a. unstetig, aber man kann etwas über das Grenzwertverhalten aussagen, wenn man nur einseitige Grenzwerte betrachtet. Definition 0. : Sei
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrÜbungsaufgaben zu den mathematischen Grundlagen von KM
TUM, Institut für Informatik WS 2003/2004 Prof Dr Thomas Huckle Andreas Krahnke, MSc Dipl-Inf Markus Pögl Übungsaufgaben zu den mathematischen Grundlagen von KM 1 Bestimmen Sie die Darstellung von 1 4
Mehr1.5 Mehrdimensionale Verteilungen
Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4
MehrAnalysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit
A Analysis, Woche 9 Mehrdimensionale Differentialrechnung I A 9. Differenzierbarkeit A3 =. (9.) Definition 9. Sei U R m offen, f : U R n eine Funktion und a R m. Die Funktion f heißt differenzierbar in
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom
Übungsaufgaben 11. Übung SS 18: Woche vom 25. 6. 29. 6. 2016 Stochastik V: ZG; Momente von ZG; Zufallsvektoren Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
MehrOrthogonalreihendarstellung eines zentrierten Gauß-Prozesses
Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses Thomas Steinle Seminar Zufällige Felder Universität Ulm 18. November, 2008 Einleitung Inhalt Einleitung Wiederholung und Themenvorstellung Wichtiges
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
Mehr1.3 Zufallsvariablen
1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
MehrSinguläre Integrale 1 Grundideen der harmonischen Analysis
Singuläre Integrale Grundideen der harmonischen Analsis Jens Hinrichsen und Annina Saluz November 2007 Motivation Ein tpisches Beispiel für ein singuläres Integral ist die Hilbert-Transformation, welche
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 13: Woche vom
Übungsaufgaben 11. Übung SS 13: Woche vom 24. 6. 13-28. 6. 2013 Stochastik V: ZG Momente von ZG; Grenzverteilungssätze Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/
MehrInstitut für Geometrie und Praktische Mathematik
RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben).
Mehrx, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω
5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,
MehrComputergestützte Mathematik zur Linearen Algebra
Computergestützte Mathematik zur Linearen Algebra Singulärwertzerlegung Achim Schädle Übungsleiter: Lennart Jansen Tutoren: Marina Fischer, Kerstin Ignatzy, Narin Konar Pascal Kuhn, Nils Sänger, Tran Dinh
MehrMultivariate Verteilungen. Gerhard Tutz LMU München
Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS
Mehrcos(kx) sin(nx)dx =?
3.5 Fourierreihen 3.5.1 Vorbemerkungen cos(kx) sin(nx)dx =? cos gerade Funktion x cos(kx) gerade Funktion sin ungerade Funktion x sin(nx) ungerade Funktion x cos(kx) sin(nx) ungerade Funktion Weil [, π]
MehrKonvergenz im quadratischen Mittel - Hilberträume
CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften
MehrKonvergenz im quadratischen Mittel und Parsevalsche Gleichung
Konvergenz im quadratischen Mittel und Parsevalsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Prof Dr Picard, gehalten von Helena Malinowski In vorhergehenden Vorträgen und dazugehörigen
MehrBrückenkurs Rechentechniken
Brückenkurs Rechentechniken Dr. Jörg Horst Technische Universität Dortmund Fakultät für Mathematik SS 2014 1 Vollständige Induktion Vollständige Induktion 2 Funktionenfolgen Punktweise Konvergenz Gleichmäßige
MehrMathematische Grundlagen
Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,
Mehr47 Singulärwertzerlegung
47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar
MehrFolie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte
Mehr4 Fehlerabschätzungen und Konvergenz der FEM
4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und
Mehr4 Differenzierbarkeit einer konjugierten Funktion
4 Differenzierbarkeit einer konjugierten Funktion (Eingereicht von Corinna Vits) 4.1 Differenzierbarkeit 1.Ordnung Theorem 4.1.1: Sei f ConvR n strikt konvex. Dann ist int dom und f ist stetig differenzierbar
MehrKapitel 8: Zufallsvektoren
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II
Statistik II 1. Ergänzungen zur Wahrscheinlichkeitstheorie Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 1. Ergänzungen zur
Mehr(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist.
8 Punktmengen Für die Menge M = { 1 n ; n N } ist 1 = max(m), denn 1 M und 1 n 1 für alle n N. Die Menge M besitzt aber kein Minimum, denn zu jeder Zahl x = 1 n M existiert ein y M mit y < x, etwa y =
MehrFUNKTIONALANALYSIS. Carsten Schütt WS 2006/7
1. Eine Teilmenge K eines topologischen Raumes heißt folgenkompakt, wenn jede Folge in K eine Teilfolge enthält, die in K konvergiert. Die Menge K heißt abzählbar kompakt, wenn jede unendliche Teilmenge
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrElemente der Analysis II
Elemente der Analysis II Kapitel 5: Differentialrechnung im R n Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 17. Juni 2009 1 / 31 5.1 Erinnerung Kapitel
MehrKapitel 12 Erwartungswert und Varianz
Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen
Mehr1 Verbandstheorie. Aufgabensammlung. Höhere Mathematik für Physiker III Wintersemester 2014
Aufgabensammlung Höhere Mathematik für Physiker III Wintersemester 2014 1 Verbandstheorie 1. Aufgabe: (a) Sei f C(R) eine stetige Funktion. Wenn Rf(x)φ(x)dx = 0 für alle Testfunktionen φ Cc (R) gilt, dann
MehrDer Satz von Taylor. Kapitel 7
Kapitel 7 Der Satz von Taylor Wir haben bereits die Darstellung verschiedener Funktionen, wie der Exponentialfunktion, der Cosinus- oder Sinus-Funktion, durch unendliche Reihen kennen gelernt. In diesem
MehrLösungen der Übungsaufgaben von Kapitel 3
Analysis I Ein Lernbuch für den sanften Wechsel von der Schule zur Uni 1 Lösungen der Übungsaufgaben von Kapitel 3 zu 3.1 3.1.1 Bestimmen Sie den Abschluss, den offenen Kern und den Rand folgender Teilmengen
MehrSingulärwert-Zerlegung
Singulärwert-Zerlegung Zu jeder komplexen (reellen) m n-matrix A existieren unitäre (orthogonale) Matrizen U und V mit s 1 0 U AV = S = s 2.. 0.. Singulärwert-Zerlegung 1-1 Singulärwert-Zerlegung Zu jeder
Mehr3 Vektorräume abstrakt
Mathematik I für inf/swt Wintersemester / Seite 7 Vektorräume abstrakt Lineare Unabhängigkeit Definition: Sei V Vektorraum W V Dann heißt W := LH(W := Menge aller Linearkombinationen aus W die lineare
Mehr3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte
Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 208/9 3. Übungsblatt - Lösungsskizzen Aufgabe 9 Stetige Verteilungen, 4 =.5 +.5 +
Mehr2.6 Der Satz von Fubini
1 2.6 Der Satz von Fubini Unser Ziel ist der Beweis des folgenden Ergebnisses. 6.1. Satz von Fubini Sei f : R n+m R integrierbar. Dann gibt es eine Nullmenge N R m, so dass gilt: 1. Für alle y R m \ N
MehrEinführung in die angewandte Stochastik
Einführung in die angewandte Stochastik Fabian Meyer 5. April 2018 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 3 1.1 Definitionen................................... 3 1.2 Wahrscheinlichkeitsmaß, Wahrscheinlichkeitsverteilung,
MehrFachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen
Fachbereich Mathematik/Informatik 6. Juni 0 Prof. Dr. H. Brenner Mathematik für Anwender II Testklausur mit Lösungen Aufgabe. Definiere die folgenden (kursiv gedruckten) Begriffe. () Ein Skalarprodukt
Mehr2 Allgemeine Integrationstheorie
2 Allgemeine Integrationstheorie In diesem Abschnitt ist (,S,µ) ein Maßraum, und wir betrachten R immer mit der σ Algebra B(R). Ziel ist es, messbare Funktionen f : R zu integrieren. Das Maß µ wird uns
Mehr3.6 Approximationstheorie
3.6 Approximationstheorie Bisher haben wir uns im Wesentlichen mit der Interpolation beschäftigt. Die Approximation ist weiter gefasst: wir suchen eine einfache Funktion p P (dabei ist der Funktionenraum
MehrLernbuch Lineare Algebra und Analytische Geometrie, 2. Auflage 2012
Lernbuch Lineare Algebra und Analytische Geometrie, 2 Auflage 22 Korrekturen 8 statt y M lies y N 2 statt m + n = m +(n )=m +(n ) lies m + n = m +(n ) 2 statt #P(M) lies #P (M) 4 7 statt Beispiel c) lies
MehrPartielle Differentialgleichungen Kapitel 7
Partielle Differentialgleichungen Kapitel 7 Intermezzo zu Distributionen Die Physik hat der Mathematik die Dirac-δ-Funktion gebracht. Diese δ-funktion soll folgende Eigenschaften haben: n δ (x ϕ (x dx
MehrCharakteristische Funktionen
Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die
MehrInverse Fourier Transformation
ETH Zürich HS 27 Departement Mathematik Seminararbeit Inverse Fourier Transformation Patricia Hinder Sandra König Oktober 27 Prof. M. Struwe Im Vortrag der letzten Woche haben wir gesehen, dass die Faltung
MehrPunktweise Konvergenz stückweise glatter Funktionen. 1 Vorbereitungen
Vortrag zum Seminar zur Fourieranalysis, 3.10.007 Margarete Tenhaak Im letzten Vortrag wurde die Fourier-Reihe einer -periodischen Funktion definiert. Fourier behauptete, dass die Fourier-Reihe einer periodischen
MehrVorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13)
1 Vorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13) Kapitel 6: Differenzialrechnung einer Veränderlichen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 22. Dezember 2011)
MehrAbbildung 10.1: Das Bild zu Beispiel 10.1
Analysis 3, Woche Mannigfaltigkeiten I. Definition einer Mannigfaltigkeit Die Definition einer Mannigfaltigkeit braucht den Begriff Diffeomorphismus, den wir in Definition 9.5 festgelegt haben. Seien U,
Mehr4 Fehlerabschätzungen und Konvergenz der FEM
4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und
MehrKlausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum
MehrT := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass
I. a) Es sei (G, ) eine abelsche Gruppe mit neutralem Element e G. Zeigen Sie, dass U := {g G g 3 = e G } eine Untergruppe von G ist. b) In der symmetrischen Gruppe S 4 definieren wir analog zu a) die
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................
Mehrr i w i (siehe (3.7)). r i v, w i = 0.
Orthogonales Komplement und Orthogonalprojektion Wir betrachten weiterhin einen euklidischen Vektorraum V,,. (6.13) Def.: Ist M V, so heißt das orthogonale Komplement von M. (6.14) Fakt. (i) M ist Untervektorraum
Mehr1 Analytische Geometrie und Grundlagen
$Id: vektor.tex,v 1.44 2018/05/17 14:11:13 hk Exp $ 1 Analytische Geometrie und Grundlagen 1.6 Bewegungen und Kongruenzbegriffe Wir untersuchen gerade die Spiegelung an einer Hyperebene h R d. Ist ein
MehrSpline-Räume - B-Spline-Basen
Spline-Räume - B-Spline-Basen René Janssens 4. November 2009 René Janssens () Spline-Räume - B-Spline-Basen 4. November 2009 1 / 56 Übersicht 1 Erster Abschnitt: Räume von Splinefunktionen Grundlegende
Mehr= ( n x j x j ) 1 / 2
15 Skalarprodukte 77 15 Skalarprodukte 15.1 Einführung. a) Ab jetzt sei stets K = R oder K = C, da Wurzeln eine wichtige Rolle spielen werden. b) Nach dem Satz des Pythagoras ist die Länge eines Vektors
MehrHöhere Funktionalanalysis WS2016/17 Übungsblatt
Höhere Funktionalanalysis WS2016/17 Übungsblatt 1 11.10.2016 Aufgabe 1. Berechne die Normen der Operatoren (a) f L [0, 1], M f : L 2 [0, 1] L 2 [0, 1], (M f g)(x) = f(x)g(x). (b) g C[0, 1], T g : C[0,
MehrMathematische Erfrischungen III - Vektoren und Matrizen
Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen
MehrLineare Algebra II (SS 13)
Lineare Algebra II (SS 13) Bernhard Hanke Universität Augsburg 03.07.2013 Bernhard Hanke 1 / 16 Selbstadjungierte Endomorphismen und der Spektralsatz Definition Es sei (V,, ) ein euklidischer oder unitärer
MehrLineare Algebra I Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß
Lineare Algebra I - 26. Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß Donnerstag 8.12.: 8:30 Uhr - Vorlesung 10:15 Uhr - große Übung / Fragestunde Klausur: Mittwoch, 14.12. 14:15 Uhr, A3 001 Cauchy-Schwarz
MehrFourierreihen. Die erste dieser Aussagen folgt direkt aus der Definition. Für die zweite bemerken
Fachbereich Mathematik SS 0 J. Latschev Analysis II Fourierreihen In diesem Kapitel der Vorlesung widmen wir uns der Frage, inwieweit man jede periodische Funktion als Reihe in gewissen Standardfunktionen
MehrVorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09)
Vorlesung Mathematik für Ingenieure (Wintersemester 2008/09) Kapitel 6: Differenzialrechnung einer Veränderlichen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 9. November 2008) Die
MehrFallstudien der mathematischen Modellbildung Teil 3: Quanten-Operationen. 0 i = i 0
Übungsblatt 1 Aufgabe 1: Pauli-Matrizen Die folgenden Matrizen sind die Pauli-Matrizen, gegeben in der Basis 0, 1. [ [ [ 0 1 0 i 1 0 σ 1 = σ 1 0 = σ i 0 3 = 0 1 1. Zeigen Sie, dass die Pauli-Matrizen hermitesch
Mehr10. Übung zur Linearen Algebra II -
0. Übung zur Linearen Algebra II - Lösungen Kommentare an Hannes.Klarner@Fu-Berlin.de FU Berlin. SS 00. Aufgabe 7 Der ( linearen ) Abbildung ϕ : R R sei bzgl. der kanonischen Basis die Matrix zugeordnet.
MehrÜbungen Analysis I WS 03/04
Blatt Abgabe: Mittwoch, 29.0.03 Aufgabe : Beweisen Sie, daß für jede natürliche Zahl n gilt: n ( ) n (x + y) n = x i y n i, i (b) n ν 2 = ν= i=0 n(n + )(2n + ), 6 (c) 2 3n ist durch 7 teilbar. Aufgabe
MehrLösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink
Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum
MehrFinite Elemente Methode für elliptische Differentialgleichungen
Finite Elemente Methode für elliptische Differentialgleichungen Michael Pokojovy 8. Oktober 2007 Das Ritzsche Verfahren Sei R n ein beschränktes offenes Gebiet mit abschnittsweise glattem Rand S. Betrachte
MehrKonfidenzbereiche. Kapitel Konstruktion
Kapitel 7 Konfidenzbereiche Wir wollen wieder eine Größe τ :Θ Σ schätzen. Jedoch wollen wir diesmal nicht nur einen Wert T (x) angeben, der uns besonders plausibel erscheint, sondern einen ganzen Bereich
MehrMathematische Grundlagen für die Vorlesung. Differentialgeometrie
Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie
MehrInhaltsverzeichnis. 6 Topologische Grundlagen. 6.1 Normierte Räume
Inhaltsverzeichnis 6 Topologische Grundlagen 1 6.1 Normierte Räume................................ 1 6.2 Skalarprodukte................................. 2 6.3 Metrische Räume................................
MehrZusatzmaterial zur Vorlesung Statistik II
Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November
Mehr72 Orthonormalbasen und Konvergenz im quadratischen Mittel
72 Orthonormalbasen und Konvergenz im quadratischen Mittel 30 72 Orthonormalbasen und Konvergenz im quadratischen Mittel Wir untersuchen nun die Konvergenz von Fourier-Reihen im quadratischen Mittel in
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrKAPITEL 8. Interpolation
KAPITEL 8. Interpolation 8.2 Lagrange-Interpolationsaufgabe für Polynome Wir beschränken uns auf die Lagrange-Interpolation mit Polynomen. Der Raum der Polynome vom Grad n: Stützstellen: Π n = { n j=0
MehrVorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)
Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit
Mehr3 Bedingte Erwartungswerte
3 Bedingte Erwartungswerte 3.3 Existenz und Eindeutigkeit des bedingten Erwartungswertes E A 0(X) 3.6 Konvexitätsungleichung für bedingte Erwartungswerte 3.9 Konvergenzsätze von Levi, Fatou und Lebesgue
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrMeßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :
24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
Mehr5 Stetigkeit und Differenzierbarkeit
5 Stetigkeit und Differenzierbarkeit 5.1 Stetigkeit und Grenzwerte von Funktionen f(x 0 ) x 0 Graph einer stetigen Funktion. Analysis I TUHH, Winter 2006/2007 Armin Iske 127 Häufungspunkt und Abschluss.
Mehr