Ausarbeitung Hauptseminar moderne Simulationsmethoden

Größe: px
Ab Seite anzeigen:

Download "Ausarbeitung Hauptseminar moderne Simulationsmethoden"

Transkript

1 Ausarbeitung Hauptseminar moderne Simulationsmethoden Die Monte Carlo Finite Elemente Methode Lisa Eppler 18. Januar 2018

2 Der Vortrag, zu dem diese Ausarbeitung gehört, orientiert sich an den Seiten des Buches An Introduction to Computational Stochastic PDEs von Lord et al. Die Nummerierung der Gleichungen und Theoreme ist von diesem Buch übernommen. In den vorherigen Seminarvorträgen wurde zunächst die Galerkin Finite Elemente Methode in 1d und 2d besprochen, bevor wir uns den elliptischen partiellen Dierentialgleichungen mit stochastischen Daten gewidmet haben. Hierbei handelt es sich um ein Randwertproblem (a(x, ω) u(x, ω)) = f(x, ω), x D R 2 (9.5) u(x, ω) = g(x), x D (9.6) wobei a und f Zufallsfelder sind und die Randwerte g deterministisch sein sollen. Es wurde gezeigt, dass das Variationsproblem a(x, ω) u(x, ω) v(x) dx = f(x)v(x) dx, v V (9.7) D D für g = 0 und f L 2 (D) eine eindeutige Lösung u(, ω) W = H0 1 (D) hat, falls folgendes gilt: Annahme 9.5 Realisierungen a(, ω) des Diusionskoezienten liegen in L (D) und erfüllen die Bedingung: 0 < a min (ω) a(x, ω) a max (ω) < für fast alle ω Ω für fast alle ω Ω, wobei a min (ω) := ess inf x D Monte Carlo Methode a(x, ω), a max(ω) := ess sup a(x, ω) x D Die Monte Carlo Methode ist ein Verfahren aus der Stochastik, bei dem ein Experiment mit verschiedenen Eingabedaten Q mal wiederholt wird und das Mittel der Ausgabedaten X Q = X X Q Q ein Ergebnis des Problems liefert. In unserem Fall soll (9.7) mit Hilfe des Galerkinverfahrens Q mal mit verschiedenen Diusionskoezienten ã r := ã(, ω r ), für r = 1,..., Q, i.i.d gelöst werden. (Hierbei wird mit ã(x) die Annäherung an den echten Diffusionskoezienten a(x) bezeichnet, und ã(x, ω) ist eine Realisierung dieser Annäherung. Gleiches gilt für die Lösungen u(x), ũ(x) und ũ(x, ω).)

3 Die Lösung ũ(x), soll dann angenähert werden durch: E[ũ(x)] µ Q,h (x) := 1 Q wobei ũ r h (x) := ũ h(x, ω r ), r = 1,..., Q. Die Varianz lässt sich berechnen durch: σ 2 Q,h (x) : = 1 Q 1 Beispiele Q (ũ r h (x) µ Q,h(x)) 2 = 1 ( Q (ũ r h Q 1 (x)2 ) Q ũ r h (x), r=w Q (2ũ r h (x)µ Q,h(x)) + Q ) (µ Q,h (x) 2 ) = 1 ( Q ) (ũ r h Q 1 (x)2 ) 2µ Q,h (x)qµ Q,h (x) + Qµ Q,h (x) 2 = 1 ( Q ) (ũ r h Q 1 (x)2 ) Qµ Q,h (x) 2 Beispiel 1 Betrachte die eindimensionale gewöhnliche Dierentialgleichung d ( a(x) d ) u(x) = 1 für x (0, 1) R dx dx u(0) = 0, u(1) = 0 wobei der Diusionskoezient a(x) approximiert werden soll durch: a(x, ω) = µ + P k=1 σ k 2 π 2 cos(πkx)ξ k(ω), ξ k U( 1, 1) iid Damit eine eindeutige Lösung existiert, muss Annahme 9.5 erfüllt sein. Diese folgt jedoch auch einer anderen Bedingung, die hier leichter zu zeigen ist: Annahme 9.3 Für den Diusionskoezienten a(x) gilt: 0 < a min a(x) a max < für fast alle ω Ω für reelle Konstanten a max und a min. Diese Annahme ist für σ < 6µ erfüllt, denn es soll gelten: 0 < µ σ π 2 P k=1 1 k 2 a(x, ω) µ + σ π 2 P k=1 1 k 2 <

4 Dass die Werte von a kleiner Unendlich sind ist klar. In die andere Richtung kann für P < die Summe abgeschätzt werden durch: P k=1 1 k 2 < π2 6, und damit ergibt sich die oben genannte Bedingung, damit der Wert trotzdem gröÿer als 0 ist. Der folgende Code implementiert das Beispiel (wobei auf die Funktion oned_ linear_fem zugegrien wird, die in Algorithmus 2.1 in Kapitel 2 implementiert wurde.): 1 f u n c t i o n [ mean_u, var_u ] = oned_mc_fem( ne, sigma, mu, P, Q) 2 h = 1/ ne ; 3 % S p l i t i n t e r v a l i n ne i n t e r v a l s, each with l e n g t h h : 4 x = [ h / 2 : h : 1 h / 2 ] ' ; 5 % sum_us i s the sum o f a l l u ' s, used l a t e r to c a l c u l a t e the mean 6 sum_us = z e r o s ( ne +1,1) ; 7 % sum_sq i s the sum o f a l l squared u ' s, used l a t e r 8 % to c a l c u l a t e the v a r i a n c e 9 sum_sq = z e r o s ( ne +1,1) ; f o r j = 1 :Q 12 % c r e a t e v e c t o r x i with P d i f f e r e n t random numbers i n ( 1,1) 13 % u n i f o r m l y d i s t r i b u t e d : 14 x i = 1+2. rand (P, 1 ) ; 15 % s t a r t v a l u e each p o i n t x i s mu, ne i s number o f p o i n t s x : 16 a = mu ones ( ne, 1 ) ; 17 % sum P times to get a : 18 f o r i = 1 :P 19 a = a + sigma. ( ( i p i ).^( 2) ). c o s ( p i i. x ). x i ( i ) ; 20 end 21 % S o l v e PDE with Algorithm 2. 1 with c a l c u l a t e d a und ones 22 % as r i g h t s i d e f. 23 [ u,a, b ] = oned_linear_fem ( ne, a, z e r o s ( ne, 1 ), ones ( ne, 1 ) ) ; 24 % sum up a l l u ' s and a l l ( u^2) s : 25 sum_us = sum_us + u ; 26 sum_sq = sum_sq + ( u. ^ 2 ) ; 27 end 28 % c a l c u l a t e mean and v a r i a n c e a c c o r d i n g to formula 29 mean_u = sum_us. /Q; 30 var_u = ( 1 / (Q 1) ). ( sum_sq ( sum_us.^2/q) ) ; 31 end Input-Argumente sind die Anzahl der äquidistanten Intervalle ne, in die das Gebiet aufgeteilt wird, die Parameter σ, µ und P, die für die Berechnung von a benötigt werden und die Anzahl der Lösungen Q. Zurückgegeben werden die Monte-Carlo-Ergebnisse, nämlich der Durchschnitt der Lösungen und die Varianz. Abbildung 1 zeigt die erzeugten a(x, ω r ), die dazugehörigen Lösungen ũ r h (x) und den Durchschnittswert der Lösungen µ Q,h (x) (blau) für die Werte ne =

5 512, σ = 4, µ = 1, P = 10 und Q = 50. (a) (b) Abbildung 1: ne = 512, σ = 4, µ = 1, P = 10 und Q = 50. Abbildung 2 zeigt die Ergebnisse für verschieden viele Stichproben. (a) (b) Abbildung 2: ne = 512, σ = 4, µ = 1, P = 10, Q variiert Bevor wir uns dem zweiten Beispiel zuwenden, brauchen wir ein paar Denitionen aus der Stochastik. Denition 4.14 Seien X, Y zwei relle Zufallsvariablen, dann ist Cov(X, Y ) := E [(X E(X))(Y E(Y ))] die Kovarianz von X und Y. Falls die Kovarianz zweier reller Zufallsvariable 0 ist, so heiÿt das, dass die beiden Zufallsvariablen nicht voneinander abhängen. Falls die Kovarianz ungleich 0 ist, so ändert sich X wenn sich Y ändert, entweder in die gleiche

6 Richtung (Cov(X, Y ) > 0) oder in die entgegengesetzte (Cov(X, Y ) < 0) Denition 4.26 Sei X = [X 1,..., X d ] T eine d-dimensionale Zufallsvariable. Die Matrix C = Cov(X) := E [ (X E(X))(X E(X)) T ] heiÿt Kovarianzmatrix, wobei der Eintrag C ij = Cov(X i, X j ). Denition 7.5 Ein Gauÿsches Zufallsfeld {u(x) : x D} ist ein Zufallsfeld 2. Ordnung u = [u(x 1 ),..., u(x M )] T, das der multivariaten Gauÿverteilung für jedes x 1,.., x M D folgt: u N(µ, C) mit µ i = µ(x i ) und C ij = Cov(x i, x j ) Denition 7.9 und 7.14 Ein Gauÿsches Zufallsfeld ist stationär, falls µ unabhängig von x ist und isotrop, falls die Kovarianz invariant unter Rotation ist, also: C(x i, x j ) = c 0 (r), wobei r := x i x j 2 und c 0 : R + R die isotrope Kovarianz ist. Abbildung 3: Beispiele für Gauÿfelder mit Kovairanzfunktion c 0 (r) = e (r2 /l 2 ) Abbildung 3 zeigt verschiedene stationäre und isotrope Gauÿsche Zufallsfelder mit der angegebenen Kovarianzfunktion, wobei immer µ = 0 und die Korrelationslänge l variiert. Diese gibt an, wie viele nächste Nachbarn einen Einuss auf den Wert eines Punktes

7 Mit Hilfe solcher stationärer isotroper Gauÿscher Zufallsfelder wollen wir ein weiteres Beispiel betrachten. Beispiel 2 Sei D = (0, 1) (0, 1) und a(x) = e z(x), x D wobei z(x) ein Gauÿsches Zufallsfeld ist mit µ = 0 und isotroper Kovarianz c 0 (r) = e r2 /l 2. Approximiere a(x) auf dem gewählten Gitter T h durch ã(x, ω) k := a(ν k j, ω) j=1 k T wobei ν k j, j = 1, 2, 3 die Ecken des Dreiecks k sind. Zunächst wollen wir prüfen, ob a(x) Annahme 9.5 erfüllt. Hierzu wurden im vorherigen Kapitel folgende Erkenntnisse getroen: Annahme 9.6 Sei D R 2 beschränkt und a(x) = e z(x), x D wobei z(x) ein Gauÿsches Zufallsfeld ist, sodass für L, s > 0 gilt: E [ z(x) z(y) 2] L x y s 2 Theorem 9.9 Falls Annahme 9.6 gilt, so gilt auch Annahme 9.5. Es muss also gezeigt werden, dass Annahme 9.6 für unser stationäres, isotropes Gauÿfeld gilt: Es soll x der momentane Mittelpunkt sein und y ein weiterer Punkt aus D. Dann gilt: E [ z(x) z(y) 2] = E [ z(x) 2 + z(y) 2 2z(x)z(y) ] = E [ z(x) 2] + E [ z(y) 2] 2E [z(x)z(y)] = Cov(x, x) + Cov(y, y) 2Cov(x, y) Da Cov(x, x) = V ar(x) und die Varianz einer Verteilung an jeder Stelle gleich ist, gilt: Cov(x, x) = Cov(y, y). Wir setzen r := x y 2 und erhalten dann durch Einsetzen unserer Kovarianzfunktion: Cov(x, x) + Cov(y, y) 2Cov(x, y) = 2(c 0 (0) c 0 (r)) = 2(e 0 e (r2 /l 2) )

8 wobei der Mittelwertsatz benutzt wurde. 2k 0 r2 l 2 = 2k l 2 x y 2 2 Annhame 9.6 gilt also, und damit erfüllt das a(x) die Vorraussetzungen, damit die DGL eindeutig lösbar ist. Da der Code zu diesem Beispiel viele Algorithmen aus den vorherigen Kapiteln benutzt und daher schwer zu lesen ist, wird er hier nur als Pseudocode widergegeben, um die Verständlichkeit zu fördern: Algorithmus [mean_u, var_u] = twod_mc_fem(ns,q,ell,alpha) Schritt 1: Diskretisiere den Raum mit einem uniformen Gitter [xv, yv, elt2vert, nvtx, ne, h] = uniform_mesh_info(ns); Schritt 2: Erstelle ein (bzw. zwei) Gauÿsche Zufallsfelder [z1, z2] = circ_emb_sample_2db(c, n1, n2, m1, m2); Schritt 3: Berechne a(x) v1 = exp(z1); v2 = exp(z2); Schritt 4 : Berechne ã(x) a1 = (1/3).*(v1(elt2vert(:, 1)) + v1(elt2vert(:, 2)) + v1(elt2vert(:, 3))); a2 = (1/3).*(v2(elt2vert(:, 1)) + v2(elt2vert(:, 2)) + v2(elt2vert(:, 3))); Schritt 5: Löse die DGL mit dem Galerkin-Verfahren aus Kapitel 2 mit linearen Basisfunktionen [u1_int, A1, rhs1] = twod_linear_fem(ns, xv, yv, elt2vert... nvtx, ne, h, a1, ones(ne,1)); [u2_int, A2, rhs1] = twod_linear_fem(ns, xv, yv, elt2vert... nvtx, ne, h, a2, ones(ne,1)); Schritt 6: Berechne µ Q,h (x) und die Varianz σ 2 Q,h (x) Erklärungen Allgemein: Eingabedaten sind die Anzahl der Gitterpunkte ns in eine Richtung, die Anzahl der Lösungen Q, die Korrelationslänge ell und der Paddingkoezient

9 alpha (hierzu später mehr). Zurückgegeben werden wieder die Monte-Carlo- Ergebnisse. zu Schritt 1: Dieser Algorithmus wurde in einem vorherigen Kapitel implementiert und diskretisiert das Einheitsquadrat. zu Schritt 2: Der Algorithmus circ_emb_sample_2db steht ebenfalls in einem vorherige Kapitel. Jeder Aufruf der Funktion gibt gleich zwei Gauÿfelder zurück. Auf die Gründe hierfür sei hier auf Kapitel 7 verwiesen. Wird diese Funktion aufgerufen, so kann es eine Fehlermeldung geben, die besagt: Invalid covariance; rho(d_minus)=1.3605e-06 Diese kommt daher, dass die Kovarianzmatrix positiv denit sein muss. Durch das sampeln kann es aber passieren, dass negative Eigenwerte entstehen. rho(d_minus) gibt den betragsmäÿig gröÿten negativen Eigenwert an. Hier kommt der vorher erwähnte Padding-Koezient alpha ins Spiel. Ist dieser 0 so wird die Kovarianzmatrix so verändert, dass der kleinste negative Eigenwert betragsmäÿig kleiner wird. Abbildung 4 zeigt, die Lösung und Varianz für die angegebenen Eingabedaten. (a) (b) Abbildung 4: ns = 150, Q = 20, l = 0.1, alpha = 0 Wählt man ein gröÿeres l, so muss Padding benutzt werden, der Koezient alpha also auf 1 gesetzt werden, da der gröÿte negative Eigenwert sonst gröÿer wird.

10 Fehlerabschätzung Es soll der Fehlerterm E[u] µ Q,h H 1 0 (D) abgeschätzt werden, der angibt, in wie weit die Monte-Carlo-Approximation in Abhängigkeit von Q von der erwarteten echten Lösung abweicht. Hierzu wird zunächst eine Nulladdition durchgeführt, die Dreiecksungleichung angewendet und der Fehler so in zwei Teile aufgespalten: E[u] µ Q,h H 1 0 (D) E[u] E[ũ h] H 1 0 (D) + E[ũ h ] µ Q,h H1 0 }{{}}{{ (D) } =:E h,a =:E MC E h,a gibt den Fehler an, der durch die Galerkin-FEM-Methode entsteht und E MC ist der Monte-Carlo-Fehler. Schätze zunächst den ersten Fehlerterm ab: E h,a = E[u] E[ũ h ] H 1 0 (D) E[u] E[u h ] H 1 0 (D) + E[u h] E[ũ h ] H 1 0 (D) (1) = E[u u h ] H 1 0 (D) + E[u h ũ h ] H 1 0 (D) (2) E[ u u h H 1 0 (D) ] + E[ u h ũ h H 1 0 (D) ] (3) = u u h L 1 (Ω,H 1 0 (D)) u h ũ h L 1 (Ω,H 1 0 (D)) u u h L 2 (Ω,H 1 0 (D)) u h ũ h L 2 (Ω,H 1 0 (D)) Hierbei wurde in (1) die Linearität des Erwartungswertes genutzt. (2) ist die Jensen'sche Ungleichung mit φ = H 1 0 (D) : Sei φ : R R eine konvexe Funktion und X eine reellwertige Zufallsvariable mit E[X] <, dann gilt φ(e[x]) E [φ(x)] Gleichung (3) benutzt die Denition der L p (Ω, H0 1 (D))- Norm: u L p (Ω,H 1 0 (D)) := E [ u p H 1 0 (D) ] 1 p. Das Ergebnis lässt sich mit Hilfe von Resultaten des letzten Vortrages einzeln abschätzen: u u h L 2 (Ω,H0 1 (D)) O(h)

11 und und ergibt damit insgesamt: u h ũ h L 2 (Ω,H0 1 (D)) O(h) E h,a O(h). Wenden wir uns dem Monte-Carlo-Fehlerterm zu: Theorem 9.22 Es gelte die Annahme 9.6, f L 2 (D) und g = 0 und E MC := E[ũ h ] µ Q,h H 1 0 (D). Dann gilt: E[E 2 MC] K Q für eine Konstante K > 0 unabhängig von h. Für den Beweis wird ein vorheriges Resultate benötigt, das hier vorher kurz erwähnt werden soll: Lemma 9.13 Es gelte die Annahme 9.6, f L 2 (D) und g = 0. Dann gilt: für alle p 1 und Beweis. (von Theorem 9.22) u h L p (Ω, H 1 0 (D)) u h L p (Ω,H 1 0 (D)) K p a 1 min L p (Ω) f L 2 (D) E [ EMC 2 ] ] = E [ E[ũ h ] µ Q,h 2 H 10 [ (D) ] = E E[ũ h ] 1 Q ũ r h Q (x) 2 H0 1(D) r=w ] = 1 Q [ Q 2 E E[ũ h ] ũ r h 2 H0 1(D) 1 Q 2 Q E r=w [ E[ũ h ] ũ r h 2H 10 (D) ], wobei E[ũ h ] ũ r h uiv.-h1 0 (D)-Zufallsvariablen sind, weshalb die Summe aus dem Erwartungswert rausgezogen werden darf. Da die ũ r h Samples von den ũ h sind, gilt: E[ũ h ] = E[ũ r h ] Nenne nun: ũ r h := X. Dann ist:

12 ] ] E [ E [X] X 2H 10 (D) = E [ E[X] 2H 10 (D) + X 2H 10 (D) 2 E[X], X H 10 [ ] (D) ( ) = E [X] 2 H0 1(D) + E X 2 H0 1(D) 2 E[X], E[X] H 1 0 (D) [ ] = E [X] 2 H0 1(D) + E X 2 H0 1(D) 2 E [X] 2 H0 ] 1(D) = E [X] 2 H0 }{{ 1(D) +E [ X 2H } 10 (D) 0 ] E [ X 2H 10 (D) wobei in ( ) benutzt wurde, dass der Erwartungswert linear ist und in das Skalarprodukt hineingezogen werden kann. Es gilt also, dass: E[E 2 MC] 1 Q 2 Q und mit Lemma 9.13 folgt die Behauptung. E[ ũ r h 2 ] = 1 Q E[ ũ h 2 ] = 1 Q ũ h 2 L 2 (Ω,H 1 0 (D)) Korrolar 9.23 Es gelte die Annahme 9.6, f L 2 (D) und g = 0 und E MC := E[ũ h ] µ Q,h H 1 0 (D). Dann gilt für alle ε > 0: P(E MC Q 1 2 +ε ) LQ 2ε für ein L > 0, das unabhängig ist von h. Um dieses Korollar beweisen zu können, braucht es eine Feststellung aus der Stochastik: Theorem 4.58(i) Falls für ein r, p > 0 und eine Konstante K gilt: dann folgt für jedes ε > 0: E[ X n X p H 1 0 (D)]1/p K n r P( X n X H 1 0 (D) n r+ε ) Kp n pε Beweis. (von Korollar 9.23) Laut Theorem 9.22 gilt: E[E 2 MC] 1/2 K Q 1/2 Hieraus folgt, wendet man Theorem 4.58(i) mit r = 1 2 Behauptung. und p = 2 an, die

13 Es gilt also insgesamt für den Fehlerterm: E[u] µ Q,h H 1 0 (D) E[u] E[ũ h] H 1 0 (D) + E[ũ h ] µ Q,h H 1 }{{} 0 (D). }{{} =:E h,a O(h) =:E MC O(Q 1/2 ) Rechnet man alle Schritte der Monte-Carlo-Methode, inklusive lösen der Q verschiedenen LGS für das Galerkin-Verfahren und das Generieren von Q verschiedenen Gauÿ-Feldern zusammen, so erhält man einen Aufwand im Bereich O(ε 4 ), wenn man die Lösung auf die Genauigkeit von einem ε > 0 approximieren möchte.

Monte Carlo Finite Elemente Methode

Monte Carlo Finite Elemente Methode Monte Carlo Finite Elemente Methode Lisa Eppler Johannes-Gutenberg Universität Mainz 18. Januar 2018 1 / 55 Inhalt Monte Carlo Finite Elemente Methode 1 Wiederholung 2 Monte Carlo 3 Beispiele 1-d 2-d 4

Mehr

Hauptseminar: Moderne Simulationsmethoden

Hauptseminar: Moderne Simulationsmethoden Hauptseminar: Moderne Simulationsmethoden Finite Elemente Methode von Galerkin Tanja Heich Fachbereich 08 Johannes Gutenberg-Universität Mainz 02. November 2017 Hauptseminar Moderne Simulationsmethoden

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

Vorlesung 8a. Kovarianz und Korrelation

Vorlesung 8a. Kovarianz und Korrelation Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere

Mehr

u(x, 0) = g(x) : 0 x 1 u(0, t) = u(1, t) = 0 : 0 t T

u(x, 0) = g(x) : 0 x 1 u(0, t) = u(1, t) = 0 : 0 t T 8.1 Die Methode der Finiten Differenzen Wir beschränken uns auf eindimensionale Probleme und die folgenden Anfangs und Anfangsrandwertprobleme 1) Cauchy Probleme für skalare Erhaltungsgleichungen, also

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung

Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Dr. Gerhard Mülich Christian Maaß 6.Mai 8 Im letzten Vortrag haben wir gesehen, dass das

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Johannes Veit. 8. Januar 2016

Johannes Veit. 8. Januar 2016 Finite im Ein Blick über den Tellerrand... mit FreeFem++ 8. Januar 2016 im 1 2 im 3 4 Gliederung 5 im 1 2 im 3 4 Gliederung 5 dem Einheitsquadrat Laplace - Gleichung: im u(x) = 0 Man betrachte das Problem

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler

Mehr

Strassen Type Theorems Proseminar Stochastik

Strassen Type Theorems Proseminar Stochastik Strassen Type Theorems Proseminar Stochastik Cecelie Hector Universität Hamburg Fachbereich Mathematik SoSe 2004 Vortrag am 25.06.04 Definition (a). Ein topologischer Raum E heißt polnisch, wenn es eine

Mehr

Vorlesung 8b. Kovarianz, Korrelation und Regressionsgerade

Vorlesung 8b. Kovarianz, Korrelation und Regressionsgerade Vorlesung 8b Kovarianz, Korrelation und Regressionsgerade 1 1. Die Kovarianz und ihre Eigenschaften 2 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Vorlesung 9b. Kovarianz und Korrelation

Vorlesung 9b. Kovarianz und Korrelation Vorlesung 9b Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X,Y]:= E [ (X EX)(Y EY) ] Insbesondere ist

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

Konvergenz im quadratischen Mittel und Parsevalsche Gleichung

Konvergenz im quadratischen Mittel und Parsevalsche Gleichung Konvergenz im quadratischen Mittel und Parsevalsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Prof Dr Picard, gehalten von Helena Malinowski In vorhergehenden Vorträgen und dazugehörigen

Mehr

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

Multivariate Verteilungen. Gerhard Tutz LMU München

Multivariate Verteilungen. Gerhard Tutz LMU München Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Partielle Differentialgleichungen

Partielle Differentialgleichungen Partielle Differentialgleichungen Definition. Eine partielle Differentialgleichung ist eine Dgl., in der partielle Ableitungen einer gesuchten Funktion z = z(x 1, x 2,..., x n ) mehrerer unabhängiger Variabler

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19 Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert

Mehr

Finite Elemente Methode für elliptische Differentialgleichungen

Finite Elemente Methode für elliptische Differentialgleichungen Finite Elemente Methode für elliptische Differentialgleichungen Michael Pokojovy 8. Oktober 2007 Das Ritzsche Verfahren Sei R n ein beschränktes offenes Gebiet mit abschnittsweise glattem Rand S. Betrachte

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Vorlesung 7b. Der Zentrale Grenzwertsatz

Vorlesung 7b. Der Zentrale Grenzwertsatz Vorlesung 7b Der Zentrale Grenzwertsatz 1 Zentraler Grenzwertsatz (Tschebyscheff) Die standardisierte Summe von unabhängigen, identisch verteilten R-wertigen Zufallsvariablen konvergiert in Verteilung

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Kapitel 12 Erwartungswert und Varianz

Kapitel 12 Erwartungswert und Varianz Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen

Mehr

f Z (z) = 0 sonst = 1

f Z (z) = 0 sonst = 1 Lösungsvorschläge zu Blatt 8) Da das Teilchen sich mit konstanter Winkelgeschwindigkeit bewegt und zufällig gestoppt wird und da Z und Z + kπ, k Z, das gleiche X liefern, kann Z als eine auf [ π, π] gleichverteilte

Mehr

Spezifische innere Volumina

Spezifische innere Volumina Spezifische innere Volumina Stochastische Geometrie und ihre en - Zufallsfelder Regina Poltnigg und Henrik Haßfeld Universität Ulm 13. Januar 2009 1 Regina Poltnigg und Henrik Haßfeld 1 2 Berechnung von

Mehr

Lineare Approximation

Lineare Approximation Lineare Approximation Yasemin Hafizogullari 9. Januar 2009 Yasemin Hafizogullari () Lineare Approximation 9. Januar 2009 1 / 49 Übersicht 1 Erster Abschnitt: Lineare Approximation in beliebiger orthonormal

Mehr

Stochastik Approximationen der Binomialverteilung

Stochastik Approximationen der Binomialverteilung Stochastik Approximationen der Binomialverteilung Stefan Englert stefan.englert@gmx.net 21. April 2007 Inhaltsverzeichnis 1 Approximation von n! und b n,p (k) 2 2 Der Satz von de Moivre-Laplace 6 3 Die

Mehr

Übungen zu Partielle Differentialgleichungen, WS 2016

Übungen zu Partielle Differentialgleichungen, WS 2016 Übungen zu Partielle Differentialgleichungen, WS 2016 Ulisse Stefanelli 16. Januar 2017 1 Beispiele 1. Betrachten Sie die Beispiele von nichtlinearen PDG und Systemen, die wir im Kurs diskutiert haben,

Mehr

Vorlesung 7b. Kovarianz und Korrelation

Vorlesung 7b. Kovarianz und Korrelation Vorlesung 7b Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X,Y]:= E [ (X EX)(Y EY) ] Insbesondere ist

Mehr

3 Bedingte Erwartungswerte

3 Bedingte Erwartungswerte 3 Bedingte Erwartungswerte 3.3 Existenz und Eindeutigkeit des bedingten Erwartungswertes E A 0(X) 3.6 Konvexitätsungleichung für bedingte Erwartungswerte 3.9 Konvergenzsätze von Levi, Fatou und Lebesgue

Mehr

Mathematische Ökonometrie

Mathematische Ökonometrie Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Algorithmen für geographische Informationssysteme. 6. Vorlesung: 14. Mai 2014

Algorithmen für geographische Informationssysteme. 6. Vorlesung: 14. Mai 2014 Algorithmen für geographische Informationssysteme 6. Vorlesung: 14. Mai 2014 Ausgleichung bei linearem funktionalen Modell Beispiel 2: Ausgleichung von Höhendifferenzen P 2 Δh 2,3 = 7.0 m P 3 Δh 1,2 =

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

Vorlesung 5a. Varianz und Kovarianz

Vorlesung 5a. Varianz und Kovarianz Vorlesung 5a Varianz und Kovarianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist

Mehr

Ein Blick über den Tellerrand... mit FreeFem++

Ein Blick über den Tellerrand... mit FreeFem++ Ein Blick über den Tellerrand... mit FreeFem++ Eine Einführung und etwas Theorie Steffen Weißer Universität des Saarlandes 30. Oktober 2015 Gliederung 1 Zum Seminar 2 Was ist eine PDE? 3 Etwas Funktionalanalysis

Mehr

2 Rechentechniken. 2.1 Potenzen und Wurzeln. Übersicht

2 Rechentechniken. 2.1 Potenzen und Wurzeln. Übersicht 2 Rechentechniken Übersicht 2.1 Potenzen und Wurzeln.............................................. 7 2.2 Lösen linearer Gleichungssysteme..................................... 8 2.3 Polynome.........................................................

Mehr

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b.

VF-3: Es seien A R n n beliebig aber regulär, b R n und gesucht sei die Lösung x R n von A x = b. NumaMB F14 Verständnisfragen-Teil (24 Punkte) Es gibt zu jeder der 12 Aufgaben vier Teilaufgaben. Diese sind mit wahr bzw. falsch zu kennzeichnen (hinschreiben). Bewertung: Vier Fragen richtig beantwortet

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

102 KAPITEL 14. FLÄCHEN

102 KAPITEL 14. FLÄCHEN 102 KAPITEL 14. FLÄCHEN Definition 14.3.1 (Kurve) Es sei M eine k-dimensionale Untermannigfaltigkeit des R n. Eine C 1 - Kurve γ : ( a, a) R n mit γ(( a, a)) M heißt Kurve auf M durch x 0 = γ(0). Definition

Mehr

Statistische Methoden

Statistische Methoden Statistische Methoden Dr. C.J. Luchsinger 2 Beweis CLT Literatur Kapitel 2: Krengel: 12 2.1 Einführung Wir repetieren aus WTS, Kapitel 5: Fragestellung: Was geschieht mit dem Ausdruck n k=1 X k nµ, (2.1)

Mehr

2.Tutorium Multivariate Verfahren

2.Tutorium Multivariate Verfahren 2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Klausur zur Vorlesung Stochastik II

Klausur zur Vorlesung Stochastik II Institut für Stochastik WS 007/008 Universität Karlsruhe. 0. 008 r. B. Klar Klausur zur Vorlesung Stochastik II Muster-Lösung auer: 90 Minuten Name: Vorname: Matrikelnummer: iese Klausur hat bestanden,

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Klausur zur Vorlesung Stochastik II

Klausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 003/004 Universität Karlsruhe 05. 04. 004 Prof. Dr. G. Last Klausur zur Vorlesung Stochastik II Dauer: 90 Minuten Name: Vorname: Matrikelnummer: Diese Klausur hat

Mehr

Zufällige Polytope. Benedikt Liedtke. 18. Januar 2010

Zufällige Polytope. Benedikt Liedtke. 18. Januar 2010 Zufällige Polytope Benedikt Liedtke 18. Januar 2010 Inhaltsverzeichnis 1 Einleitung Motivation Definition zufälliges konvexes Polytop 3 verschiedene Modelle E(K, n) Ef k (K n ) Inhaltsverzeichnis 1 Einleitung

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom

Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom Prof. Dr. M. Kaßmann Fakultät für Mathematik Wintersemester 2011/2012 Universität Bielefeld Übungsaufgaben zu Partielle Differentialgleichungen Blatt III vom 27.10.2011 Aufgabe III.1 (4 Punkte) Sei Ω R

Mehr

Klausur,,Algorithmische Mathematik II

Klausur,,Algorithmische Mathematik II Institut für angewandte Mathematik Sommersemester 017 Andreas Eberle, Matthias Erbar / Behrend Heeren Klausur,,Algorithmische Mathematik II Musterlösung 1 (Unabhängige Zufallsvariablen) a) Wir bezeichnen

Mehr

Stochastische FEM mit elementaren Zufallselementen

Stochastische FEM mit elementaren Zufallselementen Stochastische FEM mit elementaren Zufallselementen Hans-Jörg Starkloff Westsächsische Hochschule Zwickau 13. Südostdeutsches Kolloquium zur Numerischen Mathematik 2007 Freiberg, 27. April 2007 Einführung

Mehr

D-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Alexander Dabrowski. Serie 9

D-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Alexander Dabrowski. Serie 9 D-MATH Numerische Methoden FS 2016 Dr. Vasile Gradinaru Alexander Dabrowski Serie 9 Best Before: 24.5/25.5, in den Übungsgruppen (2 wochen) Koordinatoren: Alexander Dabrowski, HG G 52.1, alexander.dabrowski@sam.math.ethz.ch

Mehr

Gaußsche Felder und Simulation

Gaußsche Felder und Simulation 3 2 data_2d_1.dat data_2d_2.dat data_2d_64.dat data_2d_128.dat 1-1 -2-3 1 2 3 4 5 6 7 Gaußsche Felder und Simulation Benedikt Jahn, Aaron Spettl 4. November 28 Institut für Stochastik, Seminar Zufällige

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Mathematik für Studierende der Biologie und des Lehramtes Chemie

Mathematik für Studierende der Biologie und des Lehramtes Chemie Einführung I Mathematik für Studierende der Biologie und des Lehramtes Chemie Dominik Schillo Universität des Saarlandes 007 (Stand: 007, 4:9 Uhr) Wie viel Kilogramm Salzsäure der Konzentration % muss

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

1 Diskretisierungen der Poisson-Gleichung

1 Diskretisierungen der Poisson-Gleichung 1 Diskretisierungen der Poisson-Gleichung 1 1.1 Klassische Lösungen und Maximumprinzip Im ersten Randwertproblem der Poisson-Gleichung suchen wir eine Funktion u C 2 (Ω) C(Ω) mit (1.1) u = f in Ω, u =

Mehr

Stochastik-Praktikum

Stochastik-Praktikum Stochastik-Praktikum Zufallszahlen und Monte Carlo Peter Frentrup Humboldt-Universität zu Berlin 17. Oktober 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 17. Oktober 2017 1 / 23

Mehr

4 Fehlerabschätzungen und Konvergenz der FEM

4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 4 Fehlerabschätzungen und Konvergenz der FEM 153 Es sei V der Lösungsraum und V N V ein endlich dimensionaler Unterraum. Weiters sei u V die exakte Lösung und

Mehr

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0. Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales

Mehr

Erwartungswerte, Varianzen

Erwartungswerte, Varianzen Kapitel 3 Erwartungswerte, Varianzen Wir wollen nun Zufallsvariablen eine Maßzahl zuordnen, die ihr typisches Verhalten in vager Weise angibt. Haben wir n Punkte x 1,...,x n R d, so ist der Schwerpunkt

Mehr

1 Einführung, Terminologie und Einteilung

1 Einführung, Terminologie und Einteilung Zusammenfassung Kapitel V: Differentialgleichungen 1 Einführung, Terminologie und Einteilung Eine gewöhnliche Differentialgleichungen ist eine Bestimmungsgleichung um eine Funktion u(t) einer unabhängigen

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

Prüfung. Wahrscheinlichkeit und Statistik. ETH Zürich HS 2015 Prof. Dr. P. Embrechts Januar Nachname. Vorname. Legi Nummer

Prüfung. Wahrscheinlichkeit und Statistik. ETH Zürich HS 2015 Prof. Dr. P. Embrechts Januar Nachname. Vorname. Legi Nummer ETH Zürich HS 25 Prof. Dr. P. Embrechts Januar 26 Prüfung Wahrscheinlichkeit und Statistik BSc INFK Nachname Vorname Legi Nummer Das Folgende bitte nicht ausfüllen! Aufgabe Max. Punkte Summe Kontrolle

Mehr

Seminar Gewöhnliche Dierentialgleichungen

Seminar Gewöhnliche Dierentialgleichungen Seminar Gewöhnliche Dierentialgleichungen Dynamische Systeme II Valentin Jonas 8. 6. 215 1 Einleitung In dem letzten Kapitel "Dynamische Systeme I" ging es vor allem um in t glatte, autonome, dynamische

Mehr

Die stochastische Galerkin-Finite-Elemente-Methode

Die stochastische Galerkin-Finite-Elemente-Methode Simulationsmethoden Die stochastische Galerkin-Finite-Elemente-Methode Julian Frech 8. Februar 28 Institut für Mathematik Johannes Gutenberg-Universität Mainz Einleitung Grundlegendes Diese Ausarbeitung

Mehr

x p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren!

x p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren! Aufgabe T- Gegeben seien zwei normalverteilte Zufallsvariablen X N(µ, σ) 2 und X 2 N(µ 2, σ2) 2 mit pdf p (x) bzw. p 2 (x). Bestimmen Sie x (als Funktion der µ i, σ i, sodass x p (x )dx = + x p 2 (x )dx,

Mehr

Riesz scher Darstellungssatz und Duale Räume

Riesz scher Darstellungssatz und Duale Räume Riesz scher Darstellungssatz und Duale Räume LV Numerik Partieller Differentialgleichungen Bärwolff SS 2010 14.06.2010 Julia Buwaya In der Vorlesung wurde der Riesz sche Dartsellungssatz als wichtiges

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

Universität Stuttgart Fakultät Mathematik und Physik Institut für Analysis, Dynamik und Modellierung. Lösungen zur Probeklausur 2.

Universität Stuttgart Fakultät Mathematik und Physik Institut für Analysis, Dynamik und Modellierung. Lösungen zur Probeklausur 2. Adµ Universität Stuttgart Fakultät Mathematik und Physik Institut für Analysis, Dynamik und Modellierung Blatt Probeklausur 2 Lösungen zur Probeklausur 2 Aufgabe 1 1. Formulieren Sie den Satz von Taylor

Mehr

Die Probabilistische Methode

Die Probabilistische Methode Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.

Mehr

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt.

Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Kapitel 3 Konvexität 3.1 Konvexe Mengen Der Begriff der konvexen Menge ist bereits aus Definition 1.4, Teil I, bekannt. Definition 3.1 Konvexer Kegel. Eine Menge Ω R n heißt konvexer Kegel, wenn mit x

Mehr

Modellierung elastischer Materialien Variationsformulierung Galerkin-Approximation FreeFem++ Ausblick: Lineare Thermoelastiz. Lineare Elastizität

Modellierung elastischer Materialien Variationsformulierung Galerkin-Approximation FreeFem++ Ausblick: Lineare Thermoelastiz. Lineare Elastizität Lineare Elastizität Dominik Woznica Universität des Saarlandes 05.02.2016 Gliederung 1 Modellierung elastischer Materialien 2 Variationsformulierung 3 Galerkin-Approximation 4 FreeFem++ 5 Ausblick: Lineare

Mehr

Wie in der reellen Analysis üblich notiert man Folgen f in der Form

Wie in der reellen Analysis üblich notiert man Folgen f in der Form 2.1.3 Folgen und Konvergenz Viele aus der Analysisvorlesung bekannte Begriffe lassen sich in den Bereich der metrischen Räume verallgemeinern. Diese Verallgemeinerung hat sich als sehr nützliches mathematisches

Mehr

Vorlesung 5a. Die Varianz

Vorlesung 5a. Die Varianz Vorlesung 5a Die Varianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert

Mehr

1.5 Mehrdimensionale Verteilungen

1.5 Mehrdimensionale Verteilungen Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Erwartungswerte. Kapitel 5

Erwartungswerte. Kapitel 5 Kapitel 5 Erwartungswerte Wir haben bisher Erwartungswerte nur für diskrete und für absolut stetige Zufallsvariable definiert und berechnet. Ziel dieses Abschnitts ist die Erweiterung des Begriffs des

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

A. Grundlagen der Stochastik

A. Grundlagen der Stochastik A. Grundlagen der Stochastik Satz A.1 (Axiome der Wahrscheinlichkeit). Folgende Axiome der Wahrscheinlichkeit können definiert werden: (1) Die Wahrscheinlichkeit P(A) eines Ergebnisses A bei einem Experiment

Mehr

A. Grundlagen der Stochastik

A. Grundlagen der Stochastik A. Grundlagen der Stochastik Satz A.1 (Axiome der Wahrscheinlichkeit). Folgende Axiome der Wahrscheinlichkeit können definiert werden: (1) Die Wahrscheinlichkeit P(A) eines Ergebnisses A bei einem Experiment

Mehr

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0 Beispiel: Zweidimensionale Normalverteilung I Beispiel: Zweidimensionale Normalverteilung II Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale multivariate Normalverteilung Spezifikation am

Mehr

Konvergenz im quadratischen Mittel - Hilberträume

Konvergenz im quadratischen Mittel - Hilberträume CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften

Mehr