Klausur,,Algorithmische Mathematik II
|
|
- Imke Kalb
- vor 5 Jahren
- Abrufe
Transkript
1 Institut für angewandte Mathematik Sommersemester 03 Andreas Eberle Matthias Erbar / Jan Maas Klausur Algorithmische Mathematik II Musterlösung. (Zufallsvariablen und ihre Verteilung a Wir nehmen an dass die Würfel fair sind und beide Würfe einer Runde sowie die Ergebisse der Runden untereinander unabhängig sind. Zur Konstruktion des W-Raums setze Ω 0 = {...6} und definiere Ω = Ω 4 0 A = P(Ω P[{ω}] = Ω = ω Ω 648 i.e. P ist die Gleichverteilung auf Ω. Wir schreiben ω = ((x y...(x 4 y 4. Für i =...4 definiere die Ereignisse A i := {Spieler gewinnt Runde i} = {ω Ω x i +y i = 0}. Da es in einer Runde 3 günstige Ausgänge gibt 0 = 6+4 = 5+5 = 4+6 folgt p = P[A i ] = A i Ω = =. b Für i =...4 definiere Zufallsvariable Y i = Ai. Dann gilt: P[Y i = ] = p P[Y i = 0] = p. Die Gesamtzahl der gewonnenen Runden ist beschrieben durch S = 4 i= Y i. Da die Ereignisse A i unabhängig sind ist S Bin(4p-verteilt i.e. P[S = k] = ( 4 k p k ( p 4 k für k = Begründung: Es gibt ( 4 k Möglichkeiten k Runden auszuwählen in denen der Spieler gewinnt. Die Wkeit dass der Spieler in diesen Runden gewinnt und in den übrigen verliert beträgt p k ( p 4 k. Der Erwartungswert errechnet sich wie folgt: E[S] = 4 i= E[Y i ] = 4 E[Y ] = 4p. (Skizze der Massefunktion der Bin(4 p Verteilung
2 c Der Zeitpunkt des ersten Gewinns ist beschrieben durch T := min{i {0...4} Y i = } wobei min =. Die Verteilung von T berechnet sich durch { P[Y = 0...Y k = 0Y k = ] k =...4 P[T = k] = P[Y = 0...Y 4 = 0] k = { ( p k p k =...4 = ( p 4 k = wobei in der letzen Gleichheit Unabhängigkeit benutzt wurde. Die Verteilung der Wartezeit auf den dritten Erfolg ist gegeben durch P[T 3 = k] = P[Y k = Y i = Y j = Y l = 0 l k l ij] i<j k = p 3 ( p k 3 i<j k = p 3 ( p k 3 ( k für k = Wobei wieder in der letzten Gleichheit Unabhängigkeit benutzt wurde. Alternativ kann man auch argumentieren: d Es gilt P[T 3 = k] = P[A k und genau zwei der A...A k treten ein] T {T< } = = P[genau zwei der A...A k treten ein] P[A k ] ( k = p ( p k 3 p. 4 k= 4 k {T=k} = {T k} 4 {T= }. Die Behauptung folgt dann durch nehmen des Erwartungswerts auf beiden Seiten. Wir berechnen nun zunächst: Damit ergibt sich k= P[T k] = P[A c Ac k ] = ( pk P[T = ] = ( p 4. 4 E[T;T < ] = ( p k 4 ( p 4 = [ (+4p( p 4] /p. k=
3 . (Mittelwerte und Varianz a Der Erwartungswert und die Varianz einer Zufallsvariable X : Ω S auf einem W Raum (ΩAP mit S R abzählbar sind definiert durch E[X] := a S a P[X = a] Var[X] := E[(X E[X] ] = a S(a E[X] P[X = a] falls die Summen wohldefiniert sind d.h. unabhängig von der Reihenfolge der Abzählung. Hier wählen wir den W Raum Ω = {...6} n A = P(Ω P[{ω}] = Ω = 6 n ω Ω i.e. P ist die Gleichverteilung auf Ω. Wir schreiben ω = (ω...ω n. Sei weiter X i (ω = ω i. Dann gilt Y n = n i= X i sowie E[X i ] = 6 ( = 7 E[X i ] = 6 ( = 9 6. Daraus schliessen wir E[Y n ] = Var[Y n ] = n E[X i ] = 7 n i= n i= Var[X i ] = n(e[x i ] E[X i] = n 35. b Chebycheff-Ungleichung: Für X L and c > 0 gilt: P[ X E[X] c] c Var[X]. Beweis: Setze A = { X E[X] c} und bemerke dass c (X E[X] auf A. Damit folgt: Damit erhalten wir: P[ X E[X] c] = E[ A ] E[ A c (X E[X] ] E[ c (X E[X] ] = c Var[X]. P[ Y n n ] 00 Var[Y n n ] = n. Damit die rechte Seite 0. ist muss gelten n / 97. 3
4 c Wir berechnen den Erwartungswert durch Bedingen auf N mit Hilfe der Formel von der totalen Wkeit. E[Y N ] = E[Y N N = n] P[N = n] = E[Y n N = n] P[N = n] = n= E[Y n ] P[N = n] = n= n= n= n 7 P[N = n] = 7 E[N] = 70 wobei die dritte Gleichheit aus Unabhängigkeit von N und Y n folgt. 3. (Gleichgewichte von Markovketten a Eine Folge von ZV X 0 X : Ω S auf WRaum (ΩAP heißt zeitlich homogene Markovkette mit Startverteilung ν und Übergangswahrscheinlichkeit p falls: P[X 0 = x 0 ] = ν(x 0 x 0 S P[X 0 = x 0...X n = x n ] = ν(x 0 p(x 0 x p(x n x n n Nx i S. ( Hierbei ist p = p(x y eine stochastische Matrix i.e. xy S p(xy 0 xy S y S p(xy = x S. Anstelle der zweiten Gleichung oben kann man auch fordern: P[X 0 = x 0...X n+ = x n+ X 0 = x 0...X n = x n ] = p(x n x n+ n Nx i S falls P[X 0 = x 0...X n = x n ] 0. Ein Gleichgewicht der Markovkette ist eine Wahrscheinlichkeitsverteilung µ auf S so dass (µp(y := x S µ(xp(xy = µ(y y S. Erfüllt eine W keitsverteilung µ nun Detailed Balance so folgt µ(yp(yx = µ(y x S µ(xp(xy = x S da p stochastische Matrix. Somit ist µ ein Gleichgewicht. b i Die Übergangsw keiten des RW auf (V E sind gegeben durch { {xy} E 3 p(xy = 0 sonst. Damit giltp(xy = p(yxfür allexy V.DieGleichverteilung ν aufv erfüllt ν(x = ν(y = V für alle xy V. Daraus folgt sofort die Detailed Balance Bedingung und somit ist ν ein Gleichgewicht von p nach a. 4
5 ii Zur Simulation von µ verwenden wir den Metropolis Algorithmus: Input: x 0 pµ; Output: Stichproben x 0 x einer MK mit Gleichgewicht µ. For n :=... Do: Erzeuge Stichprobe y n p(x n erzeuge u n Unif(0 If u n µ(y n /µ(x n then x n := y n else x n := x n. Die Übergangsmatrix dieser Markovkette ist gegeben durch { α(xyp(xy x y q(xy = z xα(xzp(xz x = y. mit α(x y = min( µ(y/µ(x. Es genügt zu zeigen dass µ Detailed Balance erfüllt für q dann ist es mit a ein Gleichgewicht. DB muss nur für xy V mit x y geprüft werden. Dann folgt ( µ(xq(xy = µ(xmin µ(y µ(x da der vorletzte Ausdruck symmetrisch in x y ist. p(xy = min(µ(xµ(yp(yx = µ(yq(yx c Wir bestimmen zunächst Gleichgewichte der Kette. µ ist Gleichgewicht genau dann wenn: sowie µ(r+µ(s =. Daraus folgt µ(r = µ(r+q µ(s µ(s = ( q µ(s+ µ(r µ(r = q +q µ(s = +q die Kette besitzt also ein eindeutiges Gleichgewicht. Nach Ausführen des Experiments für lange Zeit erwartet man ein Ergebnis verteilt nach µ nach dem Konvergenzsatz für Markovketten. Nach dem Gesetz der großen Zahlen sollte daher bei vielmaliger Wiederholung gelten: #Ausgänge r #Versuche µ(r #Ausgänge s #Versuche µ(s. Damit folgt µ(r = (+q 0.8 und wir folgern q = /8. 5
6 4. (Iterationsverfahren für lineare Gleichungssysteme a Der Jacobi-Algorithmus ist gegeben durch Input: Matrix A R d d mit a ii 0 für alle i d b R d Startwert x (0 R d Output: Iterationsfolge x (k R d for k = 0... do for i =...d do x (k+ i = ( b i a ij x (k j a ii j i Der Gauß-Seidel-Algorithmus ist gegeben durch Input: Matrix A R d d mit a ii 0 für alle i d b R d Startwert x (0 R d Output: Iterationsfolge x (k R d for k = 0... do for i =...d do x (k+ i = ( b i a ij x (k+ j a ij x (k j a ii j<i j>i b Setze A = D L U wobei d ij = a ij {i=j} l ij = a ij {i>j} u ij = a ij {i<j}. Jacobi: Es gilt x (k+ = D ( b+(l+ux (k also x (k+ = T J x (k +f J mit T J = D (L+U und f J = D b. Gauß-Seidel: x (k+ = D ( b+lx (k+ +Ux (k (I D Lx (k+ = D b+d Ux (k x (k+ = (I D L D b+(i D L D Ux (k x (k+ = (D L b+(d L Ux (k also T GS = (D L U und f GS = (D L b. Der Spektralradius einer Matrix T R d d ist ρ(t := max{ λ : λ C Eigenwert von T}. 6
7 c (3 impliziert mit Induktion dass x (k+ x = T k (x (k x also x (k x = T k (x (0 x. Sei v 0 so dass Tv = λv mit λ und setze x (0 = x +v. Dann gilt für alle k x (k x = T k (x (0 x = T k v = λ k v v also konvergiert {x (k } nicht gegen x. d (i Da A strikt diagonaldominant ist d.h. a ii > j i a ij für i =...d konvergieren das Jacobi- und das Gauß-Seidel-Verfahren monoton bzgl. der Maximumsnorm auf R d. (Satz 5. (ii Es gilt T J = ( 0 0 Dieser Matrix hat Eigenwerte ±. Also impliziert c dass das Jacobi Verfahren nicht für alle Anfangswerte konvergiert. Es gilt T GS = ( 0 ( = ( 0 0 Dieser Matrix hat Eigenwerte 0 und. Also impliziert c dass das Gauß-Seidel- Verfahren nicht für alle Anfangswerte konvergiert. 7
8 5. (Interpolation a Sei f C m+ ([ab] und a x 0 <... < x m b. Zu zeigen: Eindeutigkeit des Interpolationspolynoms p zu (x i f(x i. Angenommen es gibt zwei verschiedenen Polynome p q vom Höchstgrad m mit der Eigenschaft dass p(x k = q(x k = f(x k k = 0...m. Dann besitzt das Polynom p q aber m + Nullstellen. Nach dem Hauptsatz der Algebra(BeweisviaSatzvonRolleisteinPolynomvomGradmmitm+Nullstellen aber identisch 0 d.h. p q 0. Dies steht aber im Widerspruch zur Annahme. Zu zeigen: Existenz des Interpolationspolynoms. Betrachte hierzu die Lagrange-Polynome vom Grad m die gegeben sind durch L i (x = m j=0 j i x x j x i x j. Diese besitzen nun die Eigenschaft dass L i (x k = δ ik. Daher löst aber das Polynom m p(x = f(x i L i (x i=0 gerade das Interpolationsproblem zu (x k f(x k für k = 0...m. Alternativ Beweis der Existenz wie in Vorlesung: Die lineare Abbildung p (p(x 0...p(x m von Π m nach R m+ ist injektiv also aus Dimensionsgründen sogar bijektiv. b Man definiere eine Funktion p durch die rechte Seite: p(x := (x x ip i+k (x (x x k p ik (x x k x i Durch Induktion nach k i folgt: Da p ik und p i+k Polynome mit Höchstgrad k i sind ist p ein Polynom mit Höchstgrad k i. Außerdem gilt p(x i = y i p(x k = y k und für alle j = i+...k gilt p(x j = (x j x i p i+k (x j (x j x k p ik (x j x k x i = (x j x i y j (x j x k y j x k x i = y j. Teil a impliziert dass nur ein Polynom von Höchstgrad k i existiert mit dieser Eigenschaft also gilt p = p ik. 8
9 c Input: Integer 0 m Punkte < x <... < x m < Werte y...y m Rx R Output: Wert p(x des Interpolationspolynoms for k = 0...m do p kk (x = y k for d =...m do for i = 0...m d do p ii+d (x = (x x ip i+i+d (x (x x i+d p ii+d (x x i+d x i p(x = p 0m (x d (i Das lineare Gleichungssystem 0 0 π 6 π 4 π 4 π a b c = 0 hat die Lösung a = 8 8 b = 4 6 c =. π π (ii Setze x = 0 x = π 4 x 3 = π und y = y = y3 = 0. Es gilt L(x = 3 x x j y k x k x j k= j k = (x π(x π 4 ( π 4 ( π + x(x π π 4 ( π +0 {...} = 8 8 x x+. π π (iii Mit der Rekursionsformel zeigt man p 00 (x = p (x = p (x = 0 p 0 (x = 4 π ( x+ p (x = x+ π p 0 (x = 8 8 x x+. π π 9
Klausur,,Algorithmische Mathematik II
Institut für angewandte Mathematik Sommersemester 017 Andreas Eberle, Matthias Erbar / Behrend Heeren Klausur,,Algorithmische Mathematik II Musterlösung 1 (Unabhängige Zufallsvariablen) a) Wir bezeichnen
Mehr2. Klausur zu,,algorithmische Mathematik II
IAM/INS Sommersemester 2017 Andreas Eberle, André Uschmajew 2. Klausur zu,,algorithmische Mathematik II Bitte diese Felder in Druckschrift ausfüllen Name: Matrikelnr.: Vorname: Studiengang: Wichtige Hinweise:
MehrKlausur zur Vorlesung,,Algorithmische Mathematik II
Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese
MehrKlausur,,Algorithmische Mathematik II
IAM/INS Sommersemester 207 Andreas Eberle / André Uschmajew, Matthias Erbar / Behrend Heeren Klausur,,Algorithmische Mathematik II Musterlösung. (Zufallsvariablen und ihre Verteilung) Sie λ (0, ). Die
Mehr5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrALMA II - ÜBERBLICK STOCHASTIK. Jochen Garcke
ALMA II - ÜBERBLICK STOCHASTIK Jochen Garcke GRUNDBEGRIFFE Wahrscheinlichkeitsraum (Ω, A, P) beschreibt Zufallssituation Realisierung, Stichprobe, Elementarereignis ω Ω Ergebnisraum zufälliges Ereignis
MehrVertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 5.6.2013 8. Unabhängigkeit von Zufallsgrößen, Erwartungswert und Varianz 8.1
MehrKlausur: Diskrete Strukturen I
Universität Kassel Fachbereich 0/ 5.03.0 Dr. Sebastian Petersen Klausur: Diskrete Strukturen I Aufgabe. (8 Punkte) a) Sei X = {0, }. Geben Sie die Potenzmenge P (X) (durch Auflisten ihrer Elemente) an.
MehrKlausur,,Einführung in die W theorie
Institut für angewandte Mathematik Wintersemester 017/18 Andreas Eberle, Maximilian Fels Klausur,,Einführung in die W theorie Bitte diese Felder in Druckschrift ausfüllen Name: Matrikelnr.: Vorname: Studiengang:
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrÜbersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten
Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung
MehrStochastik Wiederholung von Teil 1
Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,
MehrKlausur zu,,einführung in die Wahrscheinlichkeitstheorie
Institut für angewandte Mathematik Wintersemester 2009/10 Andreas Eberle, Matthias Erbar, Bernhard Hader Klausur zu,,einführung in die Wahrscheinlichkeitstheorie Bitte diese Felder in Druckschrift ausfüllen
MehrThema: Totalvariationabstand, Kopplung und Mischzeiten
Technische Universität Berlin Thema: Totalvariationabstand, Kopplung und Mischzeiten Ausarbeitung zum Seminar Moderne Anwendung von Markovketten Name: Nina Kamswich Matrikelnummer: 33677 Fachbereich: Mathematik
MehrZufallsvariable: Verteilungen & Kennzahlen
Mathematik II für Biologen 12. Juni 2015 Zufallsvariable Kennzahlen: Erwartungswert Kennzahlen: Varianz Kennzahlen: Erwartungstreue Verteilungsfunktion Beispiel: Exponentialverteilung Kennzahlen: Erwartungswert
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrStochastik Aufgaben zum Üben: Teil 2
Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 11. November 2010 1 Erwartungswert und Varianz Erwartungswert Varianz und Streuung Rechenregeln Binomialverteilung
MehrWahrscheinlichkeitsrechnung und Statistik
8. Vorlesung - 2017 Bemerkung: Sei X = (X 1,..., X n ) Zufallsvektor. Der n dimensionale Vektor ( ) E(X ) = E(X 1 ),..., E(X n ) ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N (0,
MehrVertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen
MehrZulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik, 5.5. Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß auf
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrPr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.
2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die
Mehrx+ 2y = 2 3x+ 3y+ 3z = 0
Mathematik für Informatiker III WS 5/ Musterlösung zur Klausur vom 8.. Anmerkung: Für die Aufgaben bis 4 gab es 4 Punkte, zusammen mit der Zusatzaufgabe 5 konnte man 4 Punkte erreichen. Um die Klausur
MehrUniversität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt
Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrAbgabetermin: 5. Mai 2017, Uhr
Übungsblatt Nr. 1 26. April 2017 1. Sei F k, k K, eine Familie von σ-algebren, wobei K eine beliebige Menge ist. Zeigen Sie, daß F d = k K F k ebenfalls eine σ-algebra ist! Beweisen Sie, daß die Vereinigung
Mehr8 Interpolation. 8.1 Problemstellung. Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen. x 0 < x 1 <... < x n.
8 Interpolation 81 Problemstellung Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen x 0 < x 1 < < x n Eingabedaten: (x 0, f 0 ),(x 1, f 1 ),,(x n, f n ) Gegebene Daten (x j, f j ) Analysis
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrÜbung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit
Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung
MehrVorlesung 8b. Bedingte Erwartung und bedingte Varianz
Vorlesung 8b Bedingte Erwartung und bedingte Varianz 1 1. Zerlegung eines Erwartungswertes nach der ersten Stufe (Buch S. 91) 2 Wie in der vorigen Vorlesung betrachten wir die gemeinsame Verteilung von
MehrFinanzmathematische Modelle und Simulation
Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf
Mehr2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p
Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrDer Ergodensatz. Hendrik Hülsbusch
Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen
MehrDiskrete Strukturen I
Universität Kassel Fachbereich 10/1 PD Dr. Sebastian Petersen 14.09.2017 Klausur zur Vorlesung Diskrete Strukturen I Es können maximal 40 Punkte erreicht werden. Version mit Lösungsskizze Zur Notation:
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
Mehr5 Potenzreihenansatz und spezielle Funktionen
5 Potenzreihenansatz und spezielle Funktionen In diesem Kapitel betrachten wir eine Methode zur Lösung linearer Differentialgleichungen höherer Ordnung, die sich anwenden läßt, wenn sich alle Koeffizienten
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
MehrEndliche Markov-Ketten - eine Übersicht
Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrMusterlösungen zur Leistungsnachweisklausur vom Studiengang Informatik, Ingenieurinformatik, Lehramt
TU ILMENAU Institut für Mathematik Numerische Mathematik PD Dr. W. Neundorf Musterlösungen zur Leistungsnachweisklausur vom.0.006 Studiengang Informatik, Ingenieurinformatik, Lehramt 1. Lineare Algebra
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrSeminar über Markovketten
Universität Siegen Fachbereich Mathematik Seminar über Markovketten Sommersemester 003 Dozent Dr. Edgar Kaufmann Seminarteilnehmer Tobias Kegel Alexander Luke Uwe Nowak Übergangswahrscheinlichkeiten höherer
Mehr, r [0, 2], ϕ [0,π/2], ϑ [0,π/6]. x 3. x 2 2 x 2 1. F(x) = x 2 3
Prof. Dr. Eck Höhere Mathematik 3 9.3.9 Aufgabe ( Punkte) Gegeben ist der Körper K mit der Parametrisierung x r cos ϕ cos ϑ K : x = Φ(r,ϕ,ϑ) = r sin ϕ cos ϑ, r [, ], ϕ [,π/], ϑ [,π/6]. x 3 r sin ϑ a) Berechnen
MehrD-MAVT NUMERISCHE MATHEMATIK FS 14 K. Nipp, A. Hiltebrand Lösung vom Test 2
D-MAVT NUMERISCHE MATHEMATIK FS 4 K Nipp, A Hiltebrand Lösung vom Test Sei A ( 3 3 ) a) Bestimmen Sie κ(a), die Kondition von A (in der -Norm): κ(a) b) Berechnen Sie den Spektralradius von A: ρ(a) 4 c)
MehrFolie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte
MehrD-MAVT Lineare Algebra I HS 2018 Prof. Dr. N. Hungerbühler. Lösungen = A 4 3 6
D-MAVT Lineare Algebra I HS 28 Prof. Dr. N. Hungerbühler Lösungen. Gegeben seien die Matrizen A := ( 2 3 3 ), B := Welche der folgenden Aussagen sind richtig? (a) (AB) T = A T B T. 5 3 2 6 Die Formel (AB)
Mehr16.3 Rekurrente und transiente Zustände
16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrMusterlösung Klausur zu Analysis II. Verständnisteil
Technische Universität Berlin SS 2009 Institut für Mathematik 20.07.2009 Prof. Dr. R. Schneider Fritz Krüger Sebastian Holtz Musterlösung Klausur zu Analysis II Verständnisteil 1. (a) Sei D R n konvex
Mehr18.4 Das Newton-Verfahren
18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift
MehrLösungen zur Übungsserie 9
Analysis 1 Herbstsemester 2018 Prof. Peter Jossen Montag,? November Lösungen zur Übungsserie 9 Aufgaben 1,2,3,5,6,8,9,11 Aufgabe 1. Sei a R. Berechnen Sie die folgenden Grenzwerte, falls sie existieren.
MehrEine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«
Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrÜbungsblatt 10 Musterlösung
Übungsblatt 0 Musterlösung Numerik gewöhnlicher Differentialgleichungen MA2304 - SS6 Aufgabe 45 Fehlerkonstante von MSV Betrachten Sie ein allgemeines lineares q Schrittverfahren α q j y i+ j = h β q j
MehrMathematik für Sicherheitsingenieure I B (BScS 2011)
Priv.-Doz. Dr. J. Ruppenthal Wuppertal, 5.9.7 Mathematik für Sicherheitsingenieure I B (BScS Aufgabe. (5+8+7 Punkte a eben Sie für jede der folgenden Aussagen an, ob sie WAHR oder FALSCH ist. Eine Begründung
Mehr(x x j ) R m [x] (3) x x j x k x j. R m [x]. (4)
33 Interpolation 147 33 Interpolation In vielen praktischen Anwendungen der Mathematik treten Funktionen f auf, deren Werte nur näherungsweise berechnet werden können oder sogar nur auf gewissen endlichen
MehrStatistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrStroppel Musterlösung , 180min. Aufgabe 1 (4 Punkte) Bestimmen Sie die folgenden Grenzwerte und Funktionengrenzwerte.
Stroppel Musterlösung 3908, 80min Aufgabe 4 Punkte) Bestimmen Sie die folgenden Grenzwerte und Funktionengrenzwerte a) 4n 3 9 lim b) lim n n + n) n + )5n 4) c) lim x 0 sinlnx + )) sinhx) a) Es ist lim
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 17. November 2010 1 Gesetze Das Gesetz der seltenen Ereignisse Das schwache Gesetz der großen Zahl 2 Verteilungsfunktionen
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 3
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/14 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Einführung in die Wahrscheinlichkeitstheorie svorschläge zu Übungsblatt
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrProbeklausur zu Funktionentheorie, Lebesguetheorie und gewöhnlichen Differentialgleichungen
MATHEMATISCHES INSTITUT SoSe 24 DER UNIVERSITÄT MÜNCHEN Probeklausur zu Funktionentheorie, Lebesguetheorie und gewöhnlichen Differentialgleichungen Musterlösung Prof. Dr. P. Pickl Aufgabe Zeigen Sie, dass
MehrVorlesung 5a. Zufallsvariable mit Dichten
Vorlesung 5a 1 Vorlesung 5a Zufallsvariable mit Dichten Vorlesung 5a Zufallsvariable mit Dichten Teil 1 Uniforme Verteilung, Exponentialverteilung. Kontinuierlich uniform verteilte Zufallsvariable: 2 Kontinuierlich
MehrBegleitmaterial zur Vorlesung Numerik I
Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik
MehrKlausur: Diskrete Strukturen I
Universität Kassel Fachbereich 10/1 13.03.2013 Klausur: Diskrete Strukturen I Name: Vorname: Matrikelnummer: Versuch: Unterschrift: Bitte fangen Sie für jede Aufgabe ein neues Blatt an. Beschreiben Sie
MehrKLAUSUR. Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.:
KLAUSUR Lineare Algebra (E-Techniker/Mechatroniker/W-Ingenieure/Informatiker).3. (W. Koepf) Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.: Für jede Aufgabe gibt es Punkte. Zum Bestehen der Klausur
MehrProbeklausur Statistik II
Prof. Dr. Chr. Müller PROBE-KLAUSUR 1 1 2 3 4 5 6 7 8 Gesamt: 15 8 16 16 7 8 15 15 100 Probeklausur Statistik II Name: Vorname: Fachrichtung: Matrikel-Nummer: Bitte beachten Sie folgendes: 1) Die Klausur
MehrAUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW
AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW Lineare Gleichungssysteme Lösen Sie folgende Gleichungssysteme über R: a) x + x + x = 6x + x + x = 4 x x x = x 7x x = 7 x x = b) x + x 4x + x 4 = 9 x + 9x x x
MehrWahrscheinlichkeitsrechnung und Statistik
7. Vorlesung - 2018 Bemerkung: Sei X = X 1,..., X n Zufallsvektor. Der n dimensionale Vektor EX = EX 1,..., EX n ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N0, 1. X, Y sind die Koordinaten
MehrName Vorname Fachrichtg. Matrikelnr. Punkte Klausur Aufgabe max. Punkte Punkte. Bitte beachten!
Fakultät für Mathematik Institut für Algebra und Geometrie Prof. Dr. Martin Henk, Dr. Michael Höding Modulprüfung Mathematik III Fachrichtung: Computer Science in Engineering, Computervisualistik, Informatik,
Mehr3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
MehrMusterlösung Klausur,,Einführung in die W theorie
Institut für angewandte Mathematik Wintersemester 3/4 Andreas Eberle, Lisa Hartung / Patrick Müller Musterlösung Klausur,,Einführung in die W theorie. (Zufallsvariablen und ihre Verteilung) a) Was ist
MehrLösungshinweise zur Klausur. Mathematik für Informatiker III. (Dr. Frank Hoffmann) 18. Februar 2008
Lösungshinweise zur Klausur Mathematik für Informatiker III (Dr. Frank Hoffmann) 8. Februar 8 Aufgabe Algebraisches I /6++ (a) Rechnen Sie zunächst nach, dass die Menge B = {,, von Vektoren eine Basis
MehrVorlesung 7a. Der Zentrale Grenzwertsatz
Vorlesung 7a Der Zentrale Grenzwertsatz als Erlebnis und Das Schwache Gesetz der Großen Zahlen Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4
MehrLösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung
D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 21. Dezember 2011 1 Definition Binomialverteilung Geometrische Verteilung Poissonverteilung 2 Standardisierte Verteilung
MehrKapitel 8: Zufallsvektoren
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und
MehrKarlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester
Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang Sommersemester 03 6.06.03 Höhere Mathematik II für die Fachrichtungen Elektrotechnik und Informationstechnik
MehrÜbungen zur Vorlesung Einführung in die Mathematik
Übungen zur Vorlesung Einführung in die Mathematik von G. Greschonig und L. Summerer, WS 2017/18 Aufgabe 1. Zeige, dass das Quadrat einer ungeraden Zahl, vermindert um 1, stets durch 4 teilbar ist. Folgere
MehrMathematik für Betriebswirte I (Lineare Algebra) 1. Klausur Wintersemester 2013/
Mathematik für Betriebswirte I (Lineare Algebra). Klausur Wintersemester 20/204 06.02.204 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN Nachname:... Vorname:... Matrikelnummer: Studienfach:... Name des
MehrMathematik für Naturwissenschaften, Teil 2
Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge
Mehr