Lineare Approximation

Größe: px
Ab Seite anzeigen:

Download "Lineare Approximation"

Transkript

1 Lineare Approximation Yasemin Hafizogullari 9. Januar 2009 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

2 Übersicht 1 Erster Abschnitt: Lineare Approximation in beliebiger orthonormal Basis 2 Zweiter Abschnitt Erster Unterabschnitt: lin. approx. in Fourierbasis Zweiter Unterabschnitt: Funktionen von beschränkter Variation dritter Unterabschnitt: lin. Multiskalenapproximation 3 dritter Abschnitt Karhunen-loéve-approximation Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

3 Übersicht 1 Erster Abschnitt: Lineare Approximation in beliebiger orthonormal Basis 2 Zweiter Abschnitt Erster Unterabschnitt: lin. approx. in Fourierbasis Zweiter Unterabschnitt: Funktionen von beschränkter Variation dritter Unterabschnitt: lin. Multiskalenapproximation 3 dritter Abschnitt Karhunen-loéve-approximation Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

4 Lineare Approximation in beliebiger orthonormal Basis Lemma 1. Sei B = {g m } m N eine orthonormale Basis eines Hilbertraums H. Dann lässt sich f H linear approximieren durch Für den Approximationsfehler gilt: M 1 f M = f, g m g m. m=0. ε[m] = f f M 2 = f, g m 2 (1) m=m Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

5 Lineare Approximation in beliebiger orthonormal Basis Beweis zu Lemma 1: Jedes f H kann man mittels orthogonaler Projektion in dieser Basis darstellen f = f, g m g m m=0 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

6 Lineare Approximation in beliebiger orthonormal Basis Beweis zu Lemma 1: Jedes f H kann man mittels orthogonaler Projektion in dieser Basis darstellen f = f, g m g m m=0 Wenn man von allen Skalarprodukten f, g m m N nur die ersten M nimmt, erhält man die folgende Approximation: M 1 f M = f, g m g m, m=0 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

7 Lineare Approximation in beliebiger orthonormal Basis Beweis zu Lemma 1: Jedes f H kann man mittels orthogonaler Projektion in dieser Basis darstellen f = f, g m g m m=0 Wenn man von allen Skalarprodukten f, g m m N nur die ersten M nimmt, erhält man die folgende Approximation: M 1 f M = f, g m g m, m=0 Es gilt: f f m = f, g m g m m=m Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

8 Lineare Approximation in beliebiger orthonormal Basis Der Approximationsfehler ist für b m = f, g m Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

9 Lineare Approximation in beliebiger orthonormal Basis Der Approximationsfehler ist für b m = f, g m ε[m] = f f M 2 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

10 Lineare Approximation in beliebiger orthonormal Basis Der Approximationsfehler ist für b m = f, g m ε[m] = f f M 2 = b m g m, b m g m m=m m=m Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

11 Lineare Approximation in beliebiger orthonormal Basis Der Approximationsfehler ist für b m = f, g m ε[m] = f f M 2 = lin. Skalarprod. = m=m b m g m, [ b m g m, m=m m=m m=m b m g m b m g m ] Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

12 Lineare Approximation in beliebiger orthonormal Basis Der Approximationsfehler ist für b m = f, g m ε[m] = f f M 2 = lin. Skalarprod. = lin. Skalarprod. = m=m b m g m, [ b m g m, m=m m=m n=m m=m m=m b m g m b m g m ] b m b n g m, g n Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

13 Lineare Approximation in beliebiger orthonormal Basis Der Approximationsfehler ist für b m = f, g m ε[m] = f f M 2 = lin. Skalarprod. = lin. Skalarprod. = g i,g j =δ i,j = m=m b m g m, [ b m g m, m=m m=m n=m m=m m=m m=m b m g m b m g m ] b m b n g m, g n b 2 m Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

14 Lineare Approximation in beliebiger orthonormal Basis Die Tatsache, daß f 2 = f, g m 2 < impliziert, dass der Fehler m=0 ε[m] für wachsende m gegen 0 geht, d.h. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

15 Lineare Approximation in beliebiger orthonormal Basis Die Tatsache, daß f 2 = f, g m 2 < impliziert, dass der Fehler m=0 ε[m] für wachsende m gegen 0 geht, d.h. lim ε[m] = 0. M Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

16 Lineare Approximation in beliebiger orthonormal Basis Satz 1. Falls für jedes s > 1 2 A, B > 0, so dass gilt, dass m=0 m 2s f, g m 2 <, dann existieren A m 2s f, g m 2 M 2s 1 ε[m] B m 2s f, g m 2 (2) m=0 M=0 m=0 und es gilt ε[m] = o(m 2s ). Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

17 Lineare Approximation in beliebiger orthonormal Basis Der Satz 1 zeigt, dass der Fehler der linearen Approximation von f W B,s dargestellt mit: { } W B,s = f H m 2s f, g m 2 < schneller fällt als M 2s. m=0 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

18 lin. Approx. versus nicht lin. Approx. Beispiele (1.) Wir betrachten nun die Funktion x 1 3 x < (x 1 f : [0, 1] R, x 4 ) x < x < 3 4 sin(6πx) x 1 die mittels Haar-Wavelet approximiert werden soll. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

19 lin. Approx. versus nich lin. Approx x Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

20 lin. Approx. versus nicht lin. Approx. Das Haar-Wavelet ist definiert durch die Skalierungsfunktion { 1 für 0 x < 1 φ(x) = 0 sonst Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

21 lin. Approx. versus nicht lin. Approx. Das Haar-Wavelet ist definiert durch die Skalierungsfunktion { 1 für 0 x < 1 φ(x) = 0 sonst und das eigentliche Wavelet 1 für 0 x < 1 2 ψ(x) = φ(2x) φ(2x 1) = 1 für 1 2 x < 1 0 sonst Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

22 lin. Approx. versus nicht lin. Approx. Das Haar-Wavelet ist definiert durch die Skalierungsfunktion { 1 für 0 x < 1 φ(x) = 0 sonst und das eigentliche Wavelet 1 für 0 x < 1 2 ψ(x) = φ(2x) φ(2x 1) = 1 für 1 2 x < 1 0 sonst ψ j,k (x) := 2 1 j ψ(2 j x k) Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

23 lin. approx. versus nicht lin. approx Abbildung: Haar-Wavelet: Links φ und rechts ψ Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

24 lin. approx. versus nicht lin. approx. Die lineare Approximation f I bis zum Level I (also M = 2 I +1 Koeffizienten) sieht wie folgt aus f I = 0 2 j 1 f, ψ j,k ψ j,k = j=i k=0 0 j=i 2 j 1 k=0 ( 1 ) f (t) ψ j,k (t)dt ψ j,k 0 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

25 lin. approx. versus nicht lin. approx. Für die nichtlineare Approximation benötigen wir die M größten Koeffizienten von unendlich vielen. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

26 lin. approx. versus nicht lin. approx. Für die nichtlineare Approximation benötigen wir die M größten Koeffizienten von unendlich vielen. Wenn f I die lineare Approximation mit allen Wavelets bis zum Level I ist ( < I < 0), gilt für die Waveletkoeffizienten f, ψ j,k mit j < I die Ungleichung f, ψ j,k 2 f, ψ i,k 2 = f f I 2 L 2 ([0,1]) i<i,k Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

27 lin. approx. versus nicht lin. approx. Ergebnis: In diesem Beispiel haben wir I = 10 gewählt. Wenn man nun diese Methode anwendet, dann bleiben M = 32 Koeffizienten übrig. Die Fehler der Approximationen sind dann: linearer Approximationsfehler: ε = nichtlinearer Approximationsfehler: ε = Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

28 lin. approx. versus nicht lin. approx x Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

29 lin. approx. versus nicht lin. approx. Beispiele (2.) Wir werden nun die lineare mit der nichtlinearen Approximation vergleichen. Dazu wählen wir eine Funktion im Intervall I := [0, 1]. Diese Funktion soll nun mit N stückweisen Konstanten angenähert werden. Wir verwenden für den Fehler die die L -Norm. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

30 lin. approx. versus nicht lin. approx. lineare approximation: Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

31 lin. approx. versus nicht lin. approx. lineare approximation: für f gelte f L Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

32 lin. approx. versus nicht lin. approx. lineare approximation: für f gelte f L wähle äquidistante Stützstellen Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

33 lin. approx. versus nicht lin. approx. lineare approximation: für f gelte f L wähle äquidistante Stützstellen definieren die einzelnen Teilintervalle durch I i := [i, i + 1 N ], i {0, 1, 2,..., N 1}. Zu jedem x I i existiert ein ξ I i, so dass gilt: ( ) ( i f (x) f = x i ) f (ξ) N N Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

34 lin. approx. versus nicht lin. approx. lineare approximation: für f gelte f L wähle äquidistante Stützstellen definieren die einzelnen Teilintervalle durch I i := [i, i + 1 N ], i {0, 1, 2,..., N 1}. Zu jedem x I i existiert ein ξ I i, so dass gilt: ( ) ( i f (x) f = x i ) f (ξ) N N Damit gilt dann folgende Ungleichung: inf c R f c L (I i ) ( ) i f f N L (I i ) 1 N f L (I i ) Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

35 lin. approx. versus nicht lin. approx. lineare approximation: für f gelte f L wähle äquidistante Stützstellen definieren die einzelnen Teilintervalle durch I i := [i, i + 1 N ], i {0, 1, 2,..., N 1}. Zu jedem x I i existiert ein ξ I i, so dass gilt: ( ) ( i f (x) f = x i ) f (ξ) N N Damit gilt dann folgende Ungleichung:. inf c R f c L (I i ) ( ) i f f N L (I i ) 1 N f L (I i ) S := {g Funktion g(x) = c i falls x I i } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

36 lin. approx. versus nicht lin. approx. lineare approximation: für f gelte f L wähle äquidistante Stützstellen definieren die einzelnen Teilintervalle durch I i := [i, i + 1 N ], i {0, 1, 2,..., N 1}. Zu jedem x I i existiert ein ξ I i, so dass gilt: ( ) ( i f (x) f = x i ) f (ξ) N N Damit gilt dann folgende Ungleichung:. inf c R f c L (I i ) Also gilt für den Fehler ( ) i f f N L (I i ) 1 N f L (I i ) S := {g Funktion g(x) = c i falls x I i } ε = inf g S f g L (I ) 1 N f L (I ) Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

37 lin. approx. versus nicht lin. approx. Nichtlineare Approximation: Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

38 lin. approx. versus nicht lin. approx. Nichtlineare Approximation: für f gelte f L 1 L Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

39 lin. approx. versus nicht lin. approx. Nichtlineare Approximation: für f gelte f L 1 L wähle Stützstellen x i, i {0, 1, 2,..., N 1} von f, so dass gilt: xi+1 x i f (x) dx = 1 N 1 0 f (x) dx Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

40 lin. approx. versus nicht lin. approx. Nichtlineare Approximation: für f gelte f L 1 L wähle Stützstellen x i, i {0, 1, 2,..., N 1} von f, so dass gilt: xi+1 x i f (x) dx = 1 N 1 0 f (x) dx Setze I i := [x i, x i+1 ]. Für x I i gilt dann x f (x) f (x i ) = f xi+1 (x)dx f (x) dx 1 N x i x i 1 0 f (x) dx Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

41 lin. approx. versus nicht lin. approx. Nichtlineare Approximation: für f gelte f L 1 L wähle Stützstellen x i, i {0, 1, 2,..., N 1} von f, so dass gilt: xi+1 x i f (x) dx = 1 N 1 0 f (x) dx Setze I i := [x i, x i+1 ]. Für x I i gilt dann x f (x) f (x i ) = f xi+1 (x)dx f (x) dx 1 N x i Definiere S analog zu oben. Es ergibt sich für den Fehler ε = inf g S f g L (I ) 1 N x i f (x) dx 1 N f L (I ) }{{} R { } 0 f (x) dx Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

42 Bedeutung der Glattheit einer Funktion Satz (2.) Seien x 0,..., x n paarweise äquidistante Stützstellen, a := min{x 0,..., x n }, b = max{x 0,..., x n } und x R. Sei I := [min{a, x}, max{b, x}]. Für f C n+1 (I ) existiert ζ I so dass f (x) P(f x 0..., x n )(x) = (x x 0 )... (x x n ) f n+1 (ζ) (n + 1)! gilt. Insbesondere gilt n max f (x) P(f x 0,..., x n )(x) max x [a,b] x [a,b] j=0 (x x j ) }{{} =h max x [a,b] f n+1 (x) (n + 1)! Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

43 Übersicht 1 Erster Abschnitt: Lineare Approximation in beliebiger orthonormal Basis 2 Zweiter Abschnitt Erster Unterabschnitt: lin. approx. in Fourierbasis Zweiter Unterabschnitt: Funktionen von beschränkter Variation dritter Unterabschnitt: lin. Multiskalenapproximation 3 dritter Abschnitt Karhunen-loéve-approximation Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

44 lin. Approx. in Fourierbasis Der Approximationsfehler steht im Zusammenhang mit der Sobolew Differenzierbarkeit. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

45 lin. Approx. in Fourierbasis Der Approximationsfehler steht im Zusammenhang mit der Sobolew Differenzierbarkeit. Der Satz von Plancherel beweist das falls: gilt das f L 2 (R). w 2 ˆf (w) 2 dw = 2π f (t) 2 dt < Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

46 lin. Approx. in Fourierbasis Der Approximationsfehler steht im Zusammenhang mit der Sobolew Differenzierbarkeit. Der Satz von Plancherel beweist das falls: gilt das f L 2 (R). Definition 1. w 2 ˆf (w) 2 dw = 2π f (t) 2 dt < (Differenzierbarkeit im Sinne von Sobolew) Wir sagen f L 2 (R) ist differenzierbar im Sinne von Sobolew, wenn gilt. w 2 ˆf (w) 2 dw < Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

47 lin. Approx. in Fourierbasis Für s N kann man den Raum H s = {f L 2 (R) f (s) L 2 (R)} definieren. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

48 lin. Approx. in Fourierbasis Für s N kann man den Raum H s = {f L 2 (R) f (s) L 2 (R)} definieren. Es gilt ˆf s (k) = (iw) sˆf, und außerdem gilt: f (s) 2 = m= f (u) (s), e i2πmu e i2πmk Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

49 lin. Approx. in Fourierbasis Für s N kann man den Raum H s = {f L 2 (R) f (s) L 2 (R)} definieren. Es gilt ˆf s (k) = (iw) sˆf, und außerdem gilt: f (s) 2 = analog Lemma(1) = m= m= f (u) (s), e i2πmu e i2πmk ˆf (s) (m) 2 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

50 lin. Approx. in Fourierbasis Für s N kann man den Raum H s = {f L 2 (R) f (s) L 2 (R)} definieren. Es gilt ˆf s (k) = (iw) sˆf, und außerdem gilt: f (s) 2 = analog Lemma(1) = = <. m= m= m= f (u) (s), e i2πmu e i2πmk ˆf (s) (m) 2 m 2s ˆf (m) 2 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

51 lin. Approx. in Fourierbasis Für s N kann man den Raum H s = {f L 2 (R) f (s) L 2 (R)} definieren. Es gilt ˆf s (k) = (iw) sˆf, und außerdem gilt: f (s) 2 = analog Lemma(1) = = <. m= m= m= f (u) (s), e i2πmu e i2πmk ˆf (s) (m) 2 m 2s ˆf (m) 2 Das motiviert uns die Räume W s (R), W s ([0, 1]) zu definieren. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

52 lin. Approx. in Fourierbasis Definition 2.(W s (R) und W s ([0, 1])) Der Raum W s (R) mit s R, ist definiert durch: { } W s (R) = f L 2 (R) w 2s ˆf (w) 2 dw < Wobei nun per Definition für f W s (R) gilt: m= m 2s f (u), e i2πmu 2 }{{} =ˆf (m) < Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

53 lin. Approx. in Fourierbasis Definition 2.(W s (R) und W s ([0, 1])) Der Raum W s (R) mit s R, ist definiert durch: { } W s (R) = f L 2 (R) w 2s ˆf (w) 2 dw < Wobei nun per Definition für f W s (R) gilt: m= m 2s f (u), e i2πmu 2 }{{} Den Raum W s ([0, 1]) definieren durch: =ˆf (m) < W s ([0, 1]) = {f L 2 [0, 1] f s L 2 [0, 1] und f ist außerhalb von [0, 1] fortseztbar durch f W s (R)} Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

54 lin. Approx. in Fourierbasis Lemma 2. (Fourier-Approximation) Jedes f L 2 [0, 1] lässt sich linear approximieren durch f M = f (u), e i2πmu e i2πmt. m M 2 mit 1 f (u), e i2πmu = f (u) e i2πmu du 0 Der Approximationsfehler ist dann ε[m] = f (u), e i2πmu 2 m > M 2 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

55 lin. Approx. in Fourierbasis Satz 3. Sei f L 2 [0, 1] eine Funktion, dessen Träger in (0, 1) liegt und sei s R s > 1 2. Dann gilt: f W s [0, 1] M=1 M 2 s ε[m] M < was impliziert, dass ε[m] = o(m 2s ) Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

56 Funktionen von beschränkter Variation Definition 3. Man kann die totale Variation mit Hilfe von Zerlegungen definieren: Die totale Variation einer reellwertigen Funktion f : [a, b] R ist dann: V (f ) := sup N f (x i ) f (x i 1 ), i=1 wobei dieses Supremum über alle Zerlegungen des Intervalls [a, b] gebildet wird, so daß a x 0 < x 1 < x n b. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

57 Funktionen von beschränkter Variation Definition 3. Man kann die totale Variation mit Hilfe von Zerlegungen definieren: Die totale Variation einer reellwertigen Funktion f : [a, b] R ist dann: V (f ) := sup N f (x i ) f (x i 1 ), i=1 wobei dieses Supremum über alle Zerlegungen des Intervalls [a, b] gebildet wird, so daß a x 0 < x 1 < x n b. Man kann die Variation für differenzierbare Funktionen auch anders definieren: V (f ) := f (u)du Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

58 Funktionen von beschränkter Variation Definition 3. Wenn f nicht differenzierbar ist so kann man die Variation wie folgt definieren: f (t) f (t h) V (f ) := lim dt h 0 h Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

59 Funktionen von beschränkter Variation Definition 3. Wenn f nicht differenzierbar ist so kann man die Variation wie folgt definieren: f (t) f (t h) V (f ) := lim dt h 0 h Wir sagen f ist von beschränkter Variation wenn gilt: Wir schreiben f BV [a, b] f V := V (f ) < Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

60 Funktionen von beschränkter Variation Bemerkung 1. Eigenschaften von Funktionen aus f BV [a, b]: Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

61 Funktionen von beschränkter Variation Bemerkung 1. Eigenschaften von Funktionen aus f BV [a, b]: Es sei f BV [a, b]. Dann hat f höchstens abzählbare viele Sprungstellen und keine weiteren Unstetigkeitsstellen. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

62 Funktionen von beschränkter Variation Bemerkung 1. Eigenschaften von Funktionen aus f BV [a, b]: Es sei f BV [a, b]. Dann hat f höchstens abzählbare viele Sprungstellen und keine weiteren Unstetigkeitsstellen. f BV [a, b] ex. monotone Fkt f 1, f 2 : [a, b] R so daß f (x) = f 1 (x) f 2 (x) x [a, b] Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

63 Funktionen von beschränkter Variation Bemerkung 1. Eigenschaften von Funktionen aus f BV [a, b]: Es sei f BV [a, b]. Dann hat f höchstens abzählbare viele Sprungstellen und keine weiteren Unstetigkeitsstellen. f BV [a, b] ex. monotone Fkt f 1, f 2 : [a, b] R so daß f (x) = f 1 (x) f 2 (x) x [a, b] f BV [a, b]. Dann ist f fast überall auf [a, b] differenzierbar, und es ist f (x) < fast überall auf [a, b]. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

64 Funktionen von beschränkter Variation Beispiele (3.) y = sin( 1 x ) in der Nähe von 0 ist von unbeschränkter Variation. Für x 0 geht 1 x immer schneller gegen der Sinus von diesem Wert, wird also unendlich viele Schwingungen durchlaufen. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

65 Funktionen von beschränkter Variation Beispiele (3.) y = sin( 1 x ) in der Nähe von 0 ist von unbeschränkter Variation. Für x 0 geht 1 x immer schneller gegen der Sinus von diesem Wert, wird also unendlich viele Schwingungen durchlaufen. Andereseits ist von beschränkter Variation: { 0 wenn x = 0 g(x) = x 2 sin( 1 x ) sonst Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

66 Funktionen von beschränkter Variation Abbildung: Beispielfunktionen für unbeschränkte und beschränkte Variation. Links unbeschränkt: g(x) = 0 wenn x = 0, g(x) = x 2 sin( 1 x ) sonst. Rechts beschränkt: x sin( 1 x ) Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

67 Funktionen von beschränkter Variation Beispiele (3.) χ [0, 1 ] ist ebenfalls von beschränkter Variation Abbildung: χ [0, 1 2 ] Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

68 Funktionen von beschränkter Variation Satz 4. Wenn f V <, f diffbar. und supp(f ) (0, 1), dann gilt ε[m] = O( f 2 V M 1 ). Für f = Cχ [0, 1 2 ], gilt ε[m] f 2 V M 1. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

69 lin. Multiskalenapproximation Betrachte Wavelet-Orthonormalbasis des L 2 [0, 1] mit gröbster Skalierung von 2 J < 1: [{φ J,n } 0 n<2 J, {ψ j,n } <j J,0 n<2 j ] Setze voraus, daß die Wavelets ψ j,n C q sind mit q verschwindende Momente. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

70 lin. Multiskalenapproximation Betrachte Wavelet-Orthonormalbasis des L 2 [0, 1] mit gröbster Skalierung von 2 J < 1: [{φ J,n } 0 n<2 J, {ψ j,n } <j J,0 n<2 j ] Setze voraus, daß die Wavelets ψ j,n C q sind mit q verschwindende Momente. Lemma 3. Jedes f L 2 [0, 1] lässt sich linear approximieren durch f M = P Vl f = J j=l+1 f, ψ j,n ψ j,n + 2 j 1 n=0 Der Approximationsfehler ist dann: ε[m] = f f M 2 = l j= 2 j 1 n=0 2 J 1 n=0 f, φ J,n φ J,n f, ψ j,n 2 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

71 lin. Multiskalenapproximation Satz 5. Sei 0 < s < q ein Sobolew Exponent und f L 2 [0, 1]. Dann gilt: f W s [0, 1] J j= 2 j 1 n=0 2 2sj f, ψ j,n 2 < Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

72 lin. Multiskalenapproximation Um das Ganze zu vereinfachen nehmen wir an das supp(f ) (0, 1). Wenn wir f außerhalb von [0, 1] durch 0 erweitern, dann ist f W s (R), was bedeutet, dass: w 2s ˆf (w) 2 dw < Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

73 lin. Multiskalenapproximation Um das Ganze zu vereinfachen nehmen wir an das supp(f ) (0, 1). Wenn wir f außerhalb von [0, 1] durch 0 erweitern, dann ist f W s (R), was bedeutet, dass: w 2s ˆf (w) 2 dw < Der niedrigfrequente Anteil dieses Integrals ist immer noch endlich, weil f L 2 (R): w 2s ˆf (w) 2 dw w 2 J π Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

74 lin. Multiskalenapproximation Um das Ganze zu vereinfachen nehmen wir an das supp(f ) (0, 1). Wenn wir f außerhalb von [0, 1] durch 0 erweitern, dann ist f W s (R), was bedeutet, dass: w 2s ˆf (w) 2 dw < Der niedrigfrequente Anteil dieses Integrals ist immer noch endlich, weil f L 2 (R): w 2s ˆf (w) 2 dw 2 2sJ π 2s ˆf (w) 2 dw w 2 J π w 2 J π Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

75 lin. Multiskalenapproximation Um das Ganze zu vereinfachen nehmen wir an das supp(f ) (0, 1). Wenn wir f außerhalb von [0, 1] durch 0 erweitern, dann ist f W s (R), was bedeutet, dass: w 2s ˆf (w) 2 dw < Der niedrigfrequente Anteil dieses Integrals ist immer noch endlich, weil f L 2 (R): w 2s ˆf (w) 2 dw 2 2sJ π 2s ˆf (w) 2 dw w 2 J π 2 2sJ π 2s w 2 J π R ˆf (w) 2 dw Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

76 lin. Multiskalenapproximation Um das Ganze zu vereinfachen nehmen wir an das supp(f ) (0, 1). Wenn wir f außerhalb von [0, 1] durch 0 erweitern, dann ist f W s (R), was bedeutet, dass: w 2s ˆf (w) 2 dw < Der niedrigfrequente Anteil dieses Integrals ist immer noch endlich, weil f L 2 (R): w 2s ˆf (w) 2 dw 2 2sJ π 2s ˆf (w) 2 dw w 2 J π 2 2sJ π 2s w 2 J π R ˆf (w) 2 dw Plancherel = 2 2sJ π 2s f 2 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

77 lin. Multiskalenapproximation Um das Ganze zu vereinfachen nehmen wir an das supp(f ) (0, 1). Wenn wir f außerhalb von [0, 1] durch 0 erweitern, dann ist f W s (R), was bedeutet, dass: w 2s ˆf (w) 2 dw < Der niedrigfrequente Anteil dieses Integrals ist immer noch endlich, weil f L 2 (R): w 2s ˆf (w) 2 dw 2 2sJ π 2s ˆf (w) 2 dw w 2 J π 2 2sJ π 2s w 2 J π R ˆf (w) 2 dw Plancherel = 2 2sJ π 2s f 2 Die Energie von ˆψ j,n ist im Intervall [ 2 j 2π, 2 j π] [2 j π, 2 j 2π] konzentriert. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

78 lin. Multiskalenapproximation Als Konsequenz daraus folgt: 2 j 1 n=0 f, ψ j,n 2 2 j π w 2 j+i π ˆf (w) 2 dw, Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

79 lin. Multiskalenapproximation Als Konsequenz daraus folgt: 2 j 1 n=0 f, ψ j,n 2 2 j π w 2 j+i π In diesem Intervall gilt zudem w 2 j, und damit 2 j 1 n=0 2 2sj f, ψ j,n 2 2 j π w 2 j+1 π ˆf (w) 2 dw, w 2s ˆf (w) 2 dw. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

80 lin. Multiskalenapproximation Als Konsequenz daraus folgt: 2 j 1 n=0 f, ψ j,n 2 2 j π w 2 j+i π In diesem Intervall gilt zudem w 2 j, und damit 2 j 1 n=0 Es folgt, dass J j= 2 2sj f, ψ j,n 2 2 j 1 n=0 2 2sj f, ψ j,n 2 was erklärt warum die Behauptung gilt. 2 j π w 2 j+1 π w 2 J π ˆf (w) 2 dw, w 2s ˆf (w) 2 dw. w 2s ˆf (w) 2 dw, Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

81 lin. Multiskalenapproximation Satz5. Sei 1/2 < s < q ein Sobolew Exponent, f L 2 [0, 1]. Dann gilt: f W s [0, 1] m 2s f, g m 2 < m=0 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

82 lin. Multiskalenapproximation Satz5. Sei 1/2 < s < q ein Sobolew Exponent, f L 2 [0, 1]. Dann gilt: f W s [0, 1] m 2s f, g m 2 < m=0 und f W s [0, 1] was impliziert, das ε[m] = o(m 2s ) M=1 2s ε[m] M M < Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

83 Übersicht 1 Erster Abschnitt: Lineare Approximation in beliebiger orthonormal Basis 2 Zweiter Abschnitt Erster Unterabschnitt: lin. approx. in Fourierbasis Zweiter Unterabschnitt: Funktionen von beschränkter Variation dritter Unterabschnitt: lin. Multiskalenapproximation 3 dritter Abschnitt Karhunen-loéve-approximation Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

84 Karhunen-loéve-approximation Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

85 Karhunen-loéve-approximation Man kann eine Klasse von Signalen als Zufallsvektoren modelieren. Finite diskrete Signale f werden dabei von einem Zufallsvektor F [n] der Größe N dargestellt. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

86 Karhunen-loéve-approximation Man kann eine Klasse von Signalen als Zufallsvektoren modelieren. Finite diskrete Signale f werden dabei von einem Zufallsvektor F [n] der Größe N dargestellt. Wir werden zeigen, dass die Basis, die den statistischen Fehler bei linearer Approximation minimiert, die Karhunen-Loève-Basis ist. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

87 Karhunen-loéve-approximation Man kann eine Klasse von Signalen als Zufallsvektoren modelieren. Finite diskrete Signale f werden dabei von einem Zufallsvektor F [n] der Größe N dargestellt. Wir werden zeigen, dass die Basis, die den statistischen Fehler bei linearer Approximation minimiert, die Karhunen-Loève-Basis ist. Definition 4. Ist X eine diskrete Zufallsvariable, die die Werte x 1, x 2... mit den jeweiligen Wahrscheinlichkeiten p 1, p 2... animmt, errechnet sich der Erwartungswert E(X ) durch: E(X ) := i x i p i = i x i P(X = x i ) Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

88 Karhunen-loéve-approximation Definition 5. Sei E{X } der Erwartungswert einer Zufallsvariable X. Die Kovarianz zweier Zufallsvariablen X 1 und X 2 ist defniniert durch: Cov(X 1, X 2 ) = E{(X 1 E{X 1 })(X 2 E{X 2 }) }. Die Kovarianz-Matrix R eines Zufallsvektors Y ist definiert durch die N 2 Kovarianzwerte: R[n, m] := Cov(Y [n]y [m]) n, m {1, 2,..., N} Dadurch ist der Kovarianzoperator definiert, der jeden Vektor h[n] transformiert: Kh[n] := N 1 m=0 R[n, m]h[m] Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

89 Karhunen-loéve-approximation Satz 7. Für den Kovarianzoperator K und einem Zufallsvektor F [n], dessen Erwartungswert 0 ist und einem Vektor x[n] gilt: Beweis: E{ F, x 2 } = Kx, x Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

90 Karhunen-loéve-approximation Satz 7. Für den Kovarianzoperator K und einem Zufallsvektor F [n], dessen Erwartungswert 0 ist und einem Vektor x[n] gilt: E{ F, x 2 } = Kx, x Beweis: Die Kovarianzmatrix eines Zufallsvektors F [n] ist definiert durch die N 2 Kovarianzwerte R[n, m] = Cov(F [n]f [m]). Da E{F [n]} = 0, erhalten wir für die Kovarianzwerte: E{ F, x 2 } R[n, m] = E{F [n]f [m]} (3) Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

91 Karhunen-loéve-approximation Satz 7. Für den Kovarianzoperator K und einem Zufallsvektor F [n], dessen Erwartungswert 0 ist und einem Vektor x[n] gilt: E{ F, x 2 } = Kx, x Beweis: Die Kovarianzmatrix eines Zufallsvektors F [n] ist definiert durch die N 2 Kovarianzwerte R[n, m] = Cov(F [n]f [m]). Da E{F [n]} = 0, erhalten wir für die Kovarianzwerte: R[n, m] = E{F [n]f [m]} (3) E{ F, x 2 } = E{ F, x F, x } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

92 Karhunen-loéve-approximation Satz 7. Für den Kovarianzoperator K und einem Zufallsvektor F [n], dessen Erwartungswert 0 ist und einem Vektor x[n] gilt: E{ F, x 2 } = Kx, x Beweis: Die Kovarianzmatrix eines Zufallsvektors F [n] ist definiert durch die N 2 Kovarianzwerte R[n, m] = Cov(F [n]f [m]). Da E{F [n]} = 0, erhalten wir für die Kovarianzwerte: R[n, m] = E{F [n]f [m]} (3) E{ F, x 2 } = E{ F, x F, x } { N 1 = E F [n]x [n] n=0 ( N 1 n=0 F [n]x [n] ) } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

93 Karhunen-loéve-approximation Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

94 Karhunen-loéve-approximation = E { N 1 n=0 F [n]x [n] N 1 m=0 F [m]x[m] } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

95 Karhunen-loéve-approximation = E = E { N 1 n=0 { N 1 F [n]x [n] N 1 n=0 m=0 N 1 m=0 F [m]x[m] F [n]f [m]x [n]x[m] } } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

96 Karhunen-loéve-approximation = E = E Erwartung lin. = { N 1 n=0 { N 1 F [n]x [n] N 1 n=0 m=0 N 1 N 1 n=0 m=0 N 1 m=0 F [m]x[m] F [n]f [m]x [n]x[m] E{F [n]f [m]}x [n]x[m] } } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

97 Karhunen-loéve-approximation = E = E Erwartung lin. = (3) = { N 1 n=0 { N 1 F [n]x [n] N 1 n=0 m=0 N 1 N 1 n=0 m=0 N 1 N 1 n=0 m=0 N 1 m=0 F [m]x[m] F [n]f [m]x [n]x[m] E{F [n]f [m]}x [n]x[m] R[n, m]x[m]x [n] } } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

98 Karhunen-loéve-approximation = E = E Erwartung lin. = (3) = { N 1 n=0 { N 1 F [n]x [n] N 1 n=0 m=0 N 1 N 1 n=0 m=0 N 1 N 1 n=0 m=0 = Kx, x. N 1 m=0 F [m]x[m] F [n]f [m]x [n]x[m] E{F [n]f [m]}x [n]x[m] R[n, m]x[m]x [n] } } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

99 Karhunen-loéve-approximation Satz 8.(Karhunen-Loève Basis) Es existiert eine orthonormale Basis {g k } 0 k<n, welche den Kovarianzoperator K diagonalisiert: Kg k = σ 2 k g k. Diese Basis heißt Karhunen-Loève Basis von Y, wobei die Erwartungswerte der Y [n] 0 sein müssen. Die Vektoren g k sind die Eigenvektoren und die Eigenwerte sind die Varianzen: σ 2 k = Kg k, g k = E{ Y, g k 2 } Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

100 Karhunen-loéve-approximation Lemma 4. Sei {g m } 0 m<n eine Orthonormalbasis. Jeder Zufallsvektor F lässt sich dann linear approximieren durch N 1 F, g m g m, m=0 wobei E{F [n]} = 0 sein müssen. (Bemerkung: Wenn sie nicht 0 sind, dann den Erwartungswert von F subtrahieren. Dieser ist dann ein Vektor.) Der statistische Gesamtfehler ist dann: ε[m] = N 1 m=m E{ F, g m 2 } = N 1 m=m Kg m, g m Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

101 Karhunen-loéve-approximation Satz 9. Sei K ein Kovarianzoperator und 1 M < N. Dann ist der Approximationsfehler: ε[m] = N 1 m=m Kg m, g m. ε[m] ist genau dann für alle M minimal, wenn {g m } 0 m<n eine Karhunen-Loève Basis ist, deren Vektoren durch absteigende Eigenwerte angeordnet sind: Kg m, g m Kg m+1, g m+1 0 m < N 1 Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

102 Karhunen-loéve-approximation Man kann F als eine Punktwolke vorstellen. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

103 Karhunen-loéve-approximation Man kann F als eine Punktwolke vorstellen. Die Dichte der Wolke sagt etwas über die Wahrscheinlichkeitsverteilung von F aus. Die Eigenvektoren g m geben die Richtung der Achsen der Wolke an. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

104 Karhunen-loéve-approximation Man kann F als eine Punktwolke vorstellen. Die Dichte der Wolke sagt etwas über die Wahrscheinlichkeitsverteilung von F aus. Die Eigenvektoren g m geben die Richtung der Achsen der Wolke an. Großen Eigenwerte bedeuten das die Wolke in Richtung des zugehörigen Eigenvektors stark ausgedehnt ist. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

105 Karhunen-loéve-approximation Man kann F als eine Punktwolke vorstellen. Die Dichte der Wolke sagt etwas über die Wahrscheinlichkeitsverteilung von F aus. Die Eigenvektoren g m geben die Richtung der Achsen der Wolke an. Großen Eigenwerte bedeuten das die Wolke in Richtung des zugehörigen Eigenvektors stark ausgedehnt ist. Die Karhunen-loéve approxiamtion, dreht und spiegelt die Achsen eines System in Richtung seiner minimalen Varianz. Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

106 Karhunen-loéve-approximation Satz 10 (Singulärwertzerlegung) Zu jeder Matrix A R n m existieren orthogonale Matrizen U R m m, V R n n und eine Diagonalmatrix Σ := diag(σ 1,..., σ p ) R m n, p = min{m, n} mit so daß σ 1 σ 2... σ p 0, U T AV = Σ Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

107 Karhunen-loéve-approximation Satz 10 (Singulärwertzerlegung) Zu jeder Matrix A R n m existieren orthogonale Matrizen U R m m, V R n n und eine Diagonalmatrix Σ := diag(σ 1,..., σ p ) R m n, p = min{m, n} mit so daß σ 1 σ 2... σ p 0, U T AV = Σ Das Bild der Euklidischen Einheitskugel in R n unter der Abbildung A R mxn hat die Form {Ax x 2 = 1} = {UΣV t x x 2 = 1} = U({Σy y 2 = 1}) Yasemin Hafizogullari () Lineare Approximation 9. Januar / 49

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Dr. Gerhard Mülich Christian Maaß 6.Mai 8 Im letzten Vortrag haben wir gesehen, dass das

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

Orthogonale Waveletbasen

Orthogonale Waveletbasen Orthogonale Waveletbasen Johannes Stemick 12.12.08 Johannes Stemick () Orthogonale Waveletbasen 12.12.08 1 / 46 Übersicht 1 Multiskalenanalyse und Skalierungsfunktion Haar-Basis Multiskalenanalyse Konstruktion

Mehr

53 Die Parsevalsche Gleichung

53 Die Parsevalsche Gleichung 53 Die Parsevalsche Gleichung 53 Die Parsevalsche Gleichung 5 53. Skalarprodukte auf Räumen quadratintegrierbarer Funktionen. a) Die Orthogonalitätsrelationen (5.5) legen die Interpretation des Ausdrucks

Mehr

Begleitmaterial zur Vorlesung Numerik II

Begleitmaterial zur Vorlesung Numerik II Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Wichtige Klassen reeller Funktionen

Wichtige Klassen reeller Funktionen 0 Wichtige Klassen reeller Funktionen Monotone Funktionen sind i.a. unstetig, aber man kann etwas über das Grenzwertverhalten aussagen, wenn man nur einseitige Grenzwerte betrachtet. Definition 0. : Sei

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Übungsaufgaben zu den mathematischen Grundlagen von KM

Übungsaufgaben zu den mathematischen Grundlagen von KM TUM, Institut für Informatik WS 2003/2004 Prof Dr Thomas Huckle Andreas Krahnke, MSc Dipl-Inf Markus Pögl Übungsaufgaben zu den mathematischen Grundlagen von KM 1 Bestimmen Sie die Darstellung von 1 4

Mehr

1.5 Mehrdimensionale Verteilungen

1.5 Mehrdimensionale Verteilungen Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4

Mehr

Analysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit

Analysis 2, Woche 9. Mehrdimensionale Differentialrechnung I. 9.1 Differenzierbarkeit A Analysis, Woche 9 Mehrdimensionale Differentialrechnung I A 9. Differenzierbarkeit A3 =. (9.) Definition 9. Sei U R m offen, f : U R n eine Funktion und a R m. Die Funktion f heißt differenzierbar in

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom Übungsaufgaben 11. Übung SS 18: Woche vom 25. 6. 29. 6. 2016 Stochastik V: ZG; Momente von ZG; Zufallsvektoren Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses

Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses Thomas Steinle Seminar Zufällige Felder Universität Ulm 18. November, 2008 Einleitung Inhalt Einleitung Wiederholung und Themenvorstellung Wichtiges

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Singuläre Integrale 1 Grundideen der harmonischen Analysis

Singuläre Integrale 1 Grundideen der harmonischen Analysis Singuläre Integrale Grundideen der harmonischen Analsis Jens Hinrichsen und Annina Saluz November 2007 Motivation Ein tpisches Beispiel für ein singuläres Integral ist die Hilbert-Transformation, welche

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 13: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 13: Woche vom Übungsaufgaben 11. Übung SS 13: Woche vom 24. 6. 13-28. 6. 2013 Stochastik V: ZG Momente von ZG; Grenzverteilungssätze Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/

Mehr

Institut für Geometrie und Praktische Mathematik

Institut für Geometrie und Praktische Mathematik RWTH Aachen Verständnisfragen-Teil Institut für Geometrie und Praktische Mathematik (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben).

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

Computergestützte Mathematik zur Linearen Algebra

Computergestützte Mathematik zur Linearen Algebra Computergestützte Mathematik zur Linearen Algebra Singulärwertzerlegung Achim Schädle Übungsleiter: Lennart Jansen Tutoren: Marina Fischer, Kerstin Ignatzy, Narin Konar Pascal Kuhn, Nils Sänger, Tran Dinh

Mehr

Multivariate Verteilungen. Gerhard Tutz LMU München

Multivariate Verteilungen. Gerhard Tutz LMU München Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS

Mehr

cos(kx) sin(nx)dx =?

cos(kx) sin(nx)dx =? 3.5 Fourierreihen 3.5.1 Vorbemerkungen cos(kx) sin(nx)dx =? cos gerade Funktion x cos(kx) gerade Funktion sin ungerade Funktion x sin(nx) ungerade Funktion x cos(kx) sin(nx) ungerade Funktion Weil [, π]

Mehr

Konvergenz im quadratischen Mittel - Hilberträume

Konvergenz im quadratischen Mittel - Hilberträume CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften

Mehr

Konvergenz im quadratischen Mittel und Parsevalsche Gleichung

Konvergenz im quadratischen Mittel und Parsevalsche Gleichung Konvergenz im quadratischen Mittel und Parsevalsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Prof Dr Picard, gehalten von Helena Malinowski In vorhergehenden Vorträgen und dazugehörigen

Mehr

Brückenkurs Rechentechniken

Brückenkurs Rechentechniken Brückenkurs Rechentechniken Dr. Jörg Horst Technische Universität Dortmund Fakultät für Mathematik SS 2014 1 Vollständige Induktion Vollständige Induktion 2 Funktionenfolgen Punktweise Konvergenz Gleichmäßige

Mehr

Mathematische Grundlagen

Mathematische Grundlagen Mathematische Grundlagen 1 / 16 Vektorraum u R n, u = (u 1,..., u n ), u k R Euklidisches Skalarprodukt Euklidische Vektornorm (u, v) = u k v k u 2 = (u, u) = n u 2 k Vektoren u, v R n heißen orthogonal,

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte

Mehr

4 Fehlerabschätzungen und Konvergenz der FEM

4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und

Mehr

4 Differenzierbarkeit einer konjugierten Funktion

4 Differenzierbarkeit einer konjugierten Funktion 4 Differenzierbarkeit einer konjugierten Funktion (Eingereicht von Corinna Vits) 4.1 Differenzierbarkeit 1.Ordnung Theorem 4.1.1: Sei f ConvR n strikt konvex. Dann ist int dom und f ist stetig differenzierbar

Mehr

Kapitel 8: Zufallsvektoren

Kapitel 8: Zufallsvektoren Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II Statistik II 1. Ergänzungen zur Wahrscheinlichkeitstheorie Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 1. Ergänzungen zur

Mehr

(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist.

(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist. 8 Punktmengen Für die Menge M = { 1 n ; n N } ist 1 = max(m), denn 1 M und 1 n 1 für alle n N. Die Menge M besitzt aber kein Minimum, denn zu jeder Zahl x = 1 n M existiert ein y M mit y < x, etwa y =

Mehr

FUNKTIONALANALYSIS. Carsten Schütt WS 2006/7

FUNKTIONALANALYSIS. Carsten Schütt WS 2006/7 1. Eine Teilmenge K eines topologischen Raumes heißt folgenkompakt, wenn jede Folge in K eine Teilfolge enthält, die in K konvergiert. Die Menge K heißt abzählbar kompakt, wenn jede unendliche Teilmenge

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 5: Differentialrechnung im R n Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 17. Juni 2009 1 / 31 5.1 Erinnerung Kapitel

Mehr

Kapitel 12 Erwartungswert und Varianz

Kapitel 12 Erwartungswert und Varianz Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen

Mehr

1 Verbandstheorie. Aufgabensammlung. Höhere Mathematik für Physiker III Wintersemester 2014

1 Verbandstheorie. Aufgabensammlung. Höhere Mathematik für Physiker III Wintersemester 2014 Aufgabensammlung Höhere Mathematik für Physiker III Wintersemester 2014 1 Verbandstheorie 1. Aufgabe: (a) Sei f C(R) eine stetige Funktion. Wenn Rf(x)φ(x)dx = 0 für alle Testfunktionen φ Cc (R) gilt, dann

Mehr

Der Satz von Taylor. Kapitel 7

Der Satz von Taylor. Kapitel 7 Kapitel 7 Der Satz von Taylor Wir haben bereits die Darstellung verschiedener Funktionen, wie der Exponentialfunktion, der Cosinus- oder Sinus-Funktion, durch unendliche Reihen kennen gelernt. In diesem

Mehr

Lösungen der Übungsaufgaben von Kapitel 3

Lösungen der Übungsaufgaben von Kapitel 3 Analysis I Ein Lernbuch für den sanften Wechsel von der Schule zur Uni 1 Lösungen der Übungsaufgaben von Kapitel 3 zu 3.1 3.1.1 Bestimmen Sie den Abschluss, den offenen Kern und den Rand folgender Teilmengen

Mehr

Singulärwert-Zerlegung

Singulärwert-Zerlegung Singulärwert-Zerlegung Zu jeder komplexen (reellen) m n-matrix A existieren unitäre (orthogonale) Matrizen U und V mit s 1 0 U AV = S = s 2.. 0.. Singulärwert-Zerlegung 1-1 Singulärwert-Zerlegung Zu jeder

Mehr

3 Vektorräume abstrakt

3 Vektorräume abstrakt Mathematik I für inf/swt Wintersemester / Seite 7 Vektorräume abstrakt Lineare Unabhängigkeit Definition: Sei V Vektorraum W V Dann heißt W := LH(W := Menge aller Linearkombinationen aus W die lineare

Mehr

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 208/9 3. Übungsblatt - Lösungsskizzen Aufgabe 9 Stetige Verteilungen, 4 =.5 +.5 +

Mehr

2.6 Der Satz von Fubini

2.6 Der Satz von Fubini 1 2.6 Der Satz von Fubini Unser Ziel ist der Beweis des folgenden Ergebnisses. 6.1. Satz von Fubini Sei f : R n+m R integrierbar. Dann gibt es eine Nullmenge N R m, so dass gilt: 1. Für alle y R m \ N

Mehr

Einführung in die angewandte Stochastik

Einführung in die angewandte Stochastik Einführung in die angewandte Stochastik Fabian Meyer 5. April 2018 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 3 1.1 Definitionen................................... 3 1.2 Wahrscheinlichkeitsmaß, Wahrscheinlichkeitsverteilung,

Mehr

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen

Fachbereich Mathematik/Informatik 16. Juni 2012 Prof. Dr. H. Brenner. Mathematik für Anwender II. Testklausur mit Lösungen Fachbereich Mathematik/Informatik 6. Juni 0 Prof. Dr. H. Brenner Mathematik für Anwender II Testklausur mit Lösungen Aufgabe. Definiere die folgenden (kursiv gedruckten) Begriffe. () Ein Skalarprodukt

Mehr

2 Allgemeine Integrationstheorie

2 Allgemeine Integrationstheorie 2 Allgemeine Integrationstheorie In diesem Abschnitt ist (,S,µ) ein Maßraum, und wir betrachten R immer mit der σ Algebra B(R). Ziel ist es, messbare Funktionen f : R zu integrieren. Das Maß µ wird uns

Mehr

3.6 Approximationstheorie

3.6 Approximationstheorie 3.6 Approximationstheorie Bisher haben wir uns im Wesentlichen mit der Interpolation beschäftigt. Die Approximation ist weiter gefasst: wir suchen eine einfache Funktion p P (dabei ist der Funktionenraum

Mehr

Lernbuch Lineare Algebra und Analytische Geometrie, 2. Auflage 2012

Lernbuch Lineare Algebra und Analytische Geometrie, 2. Auflage 2012 Lernbuch Lineare Algebra und Analytische Geometrie, 2 Auflage 22 Korrekturen 8 statt y M lies y N 2 statt m + n = m +(n )=m +(n ) lies m + n = m +(n ) 2 statt #P(M) lies #P (M) 4 7 statt Beispiel c) lies

Mehr

Partielle Differentialgleichungen Kapitel 7

Partielle Differentialgleichungen Kapitel 7 Partielle Differentialgleichungen Kapitel 7 Intermezzo zu Distributionen Die Physik hat der Mathematik die Dirac-δ-Funktion gebracht. Diese δ-funktion soll folgende Eigenschaften haben: n δ (x ϕ (x dx

Mehr

Charakteristische Funktionen

Charakteristische Funktionen Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die

Mehr

Inverse Fourier Transformation

Inverse Fourier Transformation ETH Zürich HS 27 Departement Mathematik Seminararbeit Inverse Fourier Transformation Patricia Hinder Sandra König Oktober 27 Prof. M. Struwe Im Vortrag der letzten Woche haben wir gesehen, dass die Faltung

Mehr

Punktweise Konvergenz stückweise glatter Funktionen. 1 Vorbereitungen

Punktweise Konvergenz stückweise glatter Funktionen. 1 Vorbereitungen Vortrag zum Seminar zur Fourieranalysis, 3.10.007 Margarete Tenhaak Im letzten Vortrag wurde die Fourier-Reihe einer -periodischen Funktion definiert. Fourier behauptete, dass die Fourier-Reihe einer periodischen

Mehr

Vorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13)

Vorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13) 1 Vorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13) Kapitel 6: Differenzialrechnung einer Veränderlichen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 22. Dezember 2011)

Mehr

Abbildung 10.1: Das Bild zu Beispiel 10.1

Abbildung 10.1: Das Bild zu Beispiel 10.1 Analysis 3, Woche Mannigfaltigkeiten I. Definition einer Mannigfaltigkeit Die Definition einer Mannigfaltigkeit braucht den Begriff Diffeomorphismus, den wir in Definition 9.5 festgelegt haben. Seien U,

Mehr

4 Fehlerabschätzungen und Konvergenz der FEM

4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und

Mehr

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 6 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum

Mehr

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass

T := {σ S 4 σ 3 = Id}. a) Es seien V ein Vektorraum und Φ ein Endomorphismus von V, sodass I. a) Es sei (G, ) eine abelsche Gruppe mit neutralem Element e G. Zeigen Sie, dass U := {g G g 3 = e G } eine Untergruppe von G ist. b) In der symmetrischen Gruppe S 4 definieren wir analog zu a) die

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................

Mehr

r i w i (siehe (3.7)). r i v, w i = 0.

r i w i (siehe (3.7)). r i v, w i = 0. Orthogonales Komplement und Orthogonalprojektion Wir betrachten weiterhin einen euklidischen Vektorraum V,,. (6.13) Def.: Ist M V, so heißt das orthogonale Komplement von M. (6.14) Fakt. (i) M ist Untervektorraum

Mehr

1 Analytische Geometrie und Grundlagen

1 Analytische Geometrie und Grundlagen $Id: vektor.tex,v 1.44 2018/05/17 14:11:13 hk Exp $ 1 Analytische Geometrie und Grundlagen 1.6 Bewegungen und Kongruenzbegriffe Wir untersuchen gerade die Spiegelung an einer Hyperebene h R d. Ist ein

Mehr

Spline-Räume - B-Spline-Basen

Spline-Räume - B-Spline-Basen Spline-Räume - B-Spline-Basen René Janssens 4. November 2009 René Janssens () Spline-Räume - B-Spline-Basen 4. November 2009 1 / 56 Übersicht 1 Erster Abschnitt: Räume von Splinefunktionen Grundlegende

Mehr

= ( n x j x j ) 1 / 2

= ( n x j x j ) 1 / 2 15 Skalarprodukte 77 15 Skalarprodukte 15.1 Einführung. a) Ab jetzt sei stets K = R oder K = C, da Wurzeln eine wichtige Rolle spielen werden. b) Nach dem Satz des Pythagoras ist die Länge eines Vektors

Mehr

Höhere Funktionalanalysis WS2016/17 Übungsblatt

Höhere Funktionalanalysis WS2016/17 Übungsblatt Höhere Funktionalanalysis WS2016/17 Übungsblatt 1 11.10.2016 Aufgabe 1. Berechne die Normen der Operatoren (a) f L [0, 1], M f : L 2 [0, 1] L 2 [0, 1], (M f g)(x) = f(x)g(x). (b) g C[0, 1], T g : C[0,

Mehr

Mathematische Erfrischungen III - Vektoren und Matrizen

Mathematische Erfrischungen III - Vektoren und Matrizen Signalverarbeitung und Musikalische Akustik - MuWi UHH WS 06/07 Mathematische Erfrischungen III - Vektoren und Matrizen Universität Hamburg Vektoren entstanden aus dem Wunsch, u.a. Bewegungen, Verschiebungen

Mehr

Lineare Algebra II (SS 13)

Lineare Algebra II (SS 13) Lineare Algebra II (SS 13) Bernhard Hanke Universität Augsburg 03.07.2013 Bernhard Hanke 1 / 16 Selbstadjungierte Endomorphismen und der Spektralsatz Definition Es sei (V,, ) ein euklidischer oder unitärer

Mehr

Lineare Algebra I Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß

Lineare Algebra I Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß Lineare Algebra I - 26. Vorlesung - Prof. Dr. Daniel Roggenkamp & Falko Gauß Donnerstag 8.12.: 8:30 Uhr - Vorlesung 10:15 Uhr - große Übung / Fragestunde Klausur: Mittwoch, 14.12. 14:15 Uhr, A3 001 Cauchy-Schwarz

Mehr

Fourierreihen. Die erste dieser Aussagen folgt direkt aus der Definition. Für die zweite bemerken

Fourierreihen. Die erste dieser Aussagen folgt direkt aus der Definition. Für die zweite bemerken Fachbereich Mathematik SS 0 J. Latschev Analysis II Fourierreihen In diesem Kapitel der Vorlesung widmen wir uns der Frage, inwieweit man jede periodische Funktion als Reihe in gewissen Standardfunktionen

Mehr

Vorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09)

Vorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09) Vorlesung Mathematik für Ingenieure (Wintersemester 2008/09) Kapitel 6: Differenzialrechnung einer Veränderlichen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 9. November 2008) Die

Mehr

Fallstudien der mathematischen Modellbildung Teil 3: Quanten-Operationen. 0 i = i 0

Fallstudien der mathematischen Modellbildung Teil 3: Quanten-Operationen. 0 i = i 0 Übungsblatt 1 Aufgabe 1: Pauli-Matrizen Die folgenden Matrizen sind die Pauli-Matrizen, gegeben in der Basis 0, 1. [ [ [ 0 1 0 i 1 0 σ 1 = σ 1 0 = σ i 0 3 = 0 1 1. Zeigen Sie, dass die Pauli-Matrizen hermitesch

Mehr

10. Übung zur Linearen Algebra II -

10. Übung zur Linearen Algebra II - 0. Übung zur Linearen Algebra II - Lösungen Kommentare an Hannes.Klarner@Fu-Berlin.de FU Berlin. SS 00. Aufgabe 7 Der ( linearen ) Abbildung ϕ : R R sei bzgl. der kanonischen Basis die Matrix zugeordnet.

Mehr

Übungen Analysis I WS 03/04

Übungen Analysis I WS 03/04 Blatt Abgabe: Mittwoch, 29.0.03 Aufgabe : Beweisen Sie, daß für jede natürliche Zahl n gilt: n ( ) n (x + y) n = x i y n i, i (b) n ν 2 = ν= i=0 n(n + )(2n + ), 6 (c) 2 3n ist durch 7 teilbar. Aufgabe

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 6 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 6 6. (Herbst, Thema, Aufgabe 4) Der Vektorraum R 4 sei mit dem Standard Skalarprodukt versehen. Der Unterraum

Mehr

Finite Elemente Methode für elliptische Differentialgleichungen

Finite Elemente Methode für elliptische Differentialgleichungen Finite Elemente Methode für elliptische Differentialgleichungen Michael Pokojovy 8. Oktober 2007 Das Ritzsche Verfahren Sei R n ein beschränktes offenes Gebiet mit abschnittsweise glattem Rand S. Betrachte

Mehr

Konfidenzbereiche. Kapitel Konstruktion

Konfidenzbereiche. Kapitel Konstruktion Kapitel 7 Konfidenzbereiche Wir wollen wieder eine Größe τ :Θ Σ schätzen. Jedoch wollen wir diesmal nicht nur einen Wert T (x) angeben, der uns besonders plausibel erscheint, sondern einen ganzen Bereich

Mehr

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie

Mehr

Inhaltsverzeichnis. 6 Topologische Grundlagen. 6.1 Normierte Räume

Inhaltsverzeichnis. 6 Topologische Grundlagen. 6.1 Normierte Räume Inhaltsverzeichnis 6 Topologische Grundlagen 1 6.1 Normierte Räume................................ 1 6.2 Skalarprodukte................................. 2 6.3 Metrische Räume................................

Mehr

Zusatzmaterial zur Vorlesung Statistik II

Zusatzmaterial zur Vorlesung Statistik II Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November

Mehr

72 Orthonormalbasen und Konvergenz im quadratischen Mittel

72 Orthonormalbasen und Konvergenz im quadratischen Mittel 72 Orthonormalbasen und Konvergenz im quadratischen Mittel 30 72 Orthonormalbasen und Konvergenz im quadratischen Mittel Wir untersuchen nun die Konvergenz von Fourier-Reihen im quadratischen Mittel in

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

KAPITEL 8. Interpolation

KAPITEL 8. Interpolation KAPITEL 8. Interpolation 8.2 Lagrange-Interpolationsaufgabe für Polynome Wir beschränken uns auf die Lagrange-Interpolation mit Polynomen. Der Raum der Polynome vom Grad n: Stützstellen: Π n = { n j=0

Mehr

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit

Mehr

3 Bedingte Erwartungswerte

3 Bedingte Erwartungswerte 3 Bedingte Erwartungswerte 3.3 Existenz und Eindeutigkeit des bedingten Erwartungswertes E A 0(X) 3.6 Konvexitätsungleichung für bedingte Erwartungswerte 3.9 Konvergenzsätze von Levi, Fatou und Lebesgue

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :

Meßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 : 24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

5 Stetigkeit und Differenzierbarkeit

5 Stetigkeit und Differenzierbarkeit 5 Stetigkeit und Differenzierbarkeit 5.1 Stetigkeit und Grenzwerte von Funktionen f(x 0 ) x 0 Graph einer stetigen Funktion. Analysis I TUHH, Winter 2006/2007 Armin Iske 127 Häufungspunkt und Abschluss.

Mehr