Klausur,,Algorithmische Mathematik II

Größe: px
Ab Seite anzeigen:

Download "Klausur,,Algorithmische Mathematik II"

Transkript

1 Institut für angewandte Mathematik Sommersemester 03 Andreas Eberle Matthias Erbar / Jan Maas Klausur Algorithmische Mathematik II Musterlösung. (Zufallsvariablen und ihre Verteilung a Wir nehmen an dass die Würfel fair sind und beide Würfe einer Runde sowie die Ergebisse der Runden untereinander unabhängig sind. Zur Konstruktion des W-Raums setze Ω 0 = {...6} und definiere Ω = Ω 4 0 A = P(Ω P[{ω}] = Ω = ω Ω 648 i.e. P ist die Gleichverteilung auf Ω. Wir schreiben ω = ((x y...(x 4 y 4. Für i =...4 definiere die Ereignisse A i := {Spieler gewinnt Runde i} = {ω Ω x i +y i = 0}. Da es in einer Runde 3 günstige Ausgänge gibt 0 = 6+4 = 5+5 = 4+6 folgt p = P[A i ] = A i Ω = =. b Für i =...4 definiere Zufallsvariable Y i = Ai. Dann gilt: P[Y i = ] = p P[Y i = 0] = p. Die Gesamtzahl der gewonnenen Runden ist beschrieben durch S = 4 i= Y i. Da die Ereignisse A i unabhängig sind ist S Bin(4p-verteilt i.e. P[S = k] = ( 4 k p k ( p 4 k für k = Begründung: Es gibt ( 4 k Möglichkeiten k Runden auszuwählen in denen der Spieler gewinnt. Die Wkeit dass der Spieler in diesen Runden gewinnt und in den übrigen verliert beträgt p k ( p 4 k. Der Erwartungswert errechnet sich wie folgt: E[S] = 4 i= E[Y i ] = 4 E[Y ] = 4p. (Skizze der Massefunktion der Bin(4 p Verteilung

2 c Der Zeitpunkt des ersten Gewinns ist beschrieben durch T := min{i {0...4} Y i = } wobei min =. Die Verteilung von T berechnet sich durch { P[Y = 0...Y k = 0Y k = ] k =...4 P[T = k] = P[Y = 0...Y 4 = 0] k = { ( p k p k =...4 = ( p 4 k = wobei in der letzen Gleichheit Unabhängigkeit benutzt wurde. Die Verteilung der Wartezeit auf den dritten Erfolg ist gegeben durch P[T 3 = k] = P[Y k = Y i = Y j = Y l = 0 l k l ij] i<j k = p 3 ( p k 3 i<j k = p 3 ( p k 3 ( k für k = Wobei wieder in der letzten Gleichheit Unabhängigkeit benutzt wurde. Alternativ kann man auch argumentieren: d Es gilt P[T 3 = k] = P[A k und genau zwei der A...A k treten ein] T {T< } = = P[genau zwei der A...A k treten ein] P[A k ] ( k = p ( p k 3 p. 4 k= 4 k {T=k} = {T k} 4 {T= }. Die Behauptung folgt dann durch nehmen des Erwartungswerts auf beiden Seiten. Wir berechnen nun zunächst: Damit ergibt sich k= P[T k] = P[A c Ac k ] = ( pk P[T = ] = ( p 4. 4 E[T;T < ] = ( p k 4 ( p 4 = [ (+4p( p 4] /p. k=

3 . (Mittelwerte und Varianz a Der Erwartungswert und die Varianz einer Zufallsvariable X : Ω S auf einem W Raum (ΩAP mit S R abzählbar sind definiert durch E[X] := a S a P[X = a] Var[X] := E[(X E[X] ] = a S(a E[X] P[X = a] falls die Summen wohldefiniert sind d.h. unabhängig von der Reihenfolge der Abzählung. Hier wählen wir den W Raum Ω = {...6} n A = P(Ω P[{ω}] = Ω = 6 n ω Ω i.e. P ist die Gleichverteilung auf Ω. Wir schreiben ω = (ω...ω n. Sei weiter X i (ω = ω i. Dann gilt Y n = n i= X i sowie E[X i ] = 6 ( = 7 E[X i ] = 6 ( = 9 6. Daraus schliessen wir E[Y n ] = Var[Y n ] = n E[X i ] = 7 n i= n i= Var[X i ] = n(e[x i ] E[X i] = n 35. b Chebycheff-Ungleichung: Für X L and c > 0 gilt: P[ X E[X] c] c Var[X]. Beweis: Setze A = { X E[X] c} und bemerke dass c (X E[X] auf A. Damit folgt: Damit erhalten wir: P[ X E[X] c] = E[ A ] E[ A c (X E[X] ] E[ c (X E[X] ] = c Var[X]. P[ Y n n ] 00 Var[Y n n ] = n. Damit die rechte Seite 0. ist muss gelten n / 97. 3

4 c Wir berechnen den Erwartungswert durch Bedingen auf N mit Hilfe der Formel von der totalen Wkeit. E[Y N ] = E[Y N N = n] P[N = n] = E[Y n N = n] P[N = n] = n= E[Y n ] P[N = n] = n= n= n= n 7 P[N = n] = 7 E[N] = 70 wobei die dritte Gleichheit aus Unabhängigkeit von N und Y n folgt. 3. (Gleichgewichte von Markovketten a Eine Folge von ZV X 0 X : Ω S auf WRaum (ΩAP heißt zeitlich homogene Markovkette mit Startverteilung ν und Übergangswahrscheinlichkeit p falls: P[X 0 = x 0 ] = ν(x 0 x 0 S P[X 0 = x 0...X n = x n ] = ν(x 0 p(x 0 x p(x n x n n Nx i S. ( Hierbei ist p = p(x y eine stochastische Matrix i.e. xy S p(xy 0 xy S y S p(xy = x S. Anstelle der zweiten Gleichung oben kann man auch fordern: P[X 0 = x 0...X n+ = x n+ X 0 = x 0...X n = x n ] = p(x n x n+ n Nx i S falls P[X 0 = x 0...X n = x n ] 0. Ein Gleichgewicht der Markovkette ist eine Wahrscheinlichkeitsverteilung µ auf S so dass (µp(y := x S µ(xp(xy = µ(y y S. Erfüllt eine W keitsverteilung µ nun Detailed Balance so folgt µ(yp(yx = µ(y x S µ(xp(xy = x S da p stochastische Matrix. Somit ist µ ein Gleichgewicht. b i Die Übergangsw keiten des RW auf (V E sind gegeben durch { {xy} E 3 p(xy = 0 sonst. Damit giltp(xy = p(yxfür allexy V.DieGleichverteilung ν aufv erfüllt ν(x = ν(y = V für alle xy V. Daraus folgt sofort die Detailed Balance Bedingung und somit ist ν ein Gleichgewicht von p nach a. 4

5 ii Zur Simulation von µ verwenden wir den Metropolis Algorithmus: Input: x 0 pµ; Output: Stichproben x 0 x einer MK mit Gleichgewicht µ. For n :=... Do: Erzeuge Stichprobe y n p(x n erzeuge u n Unif(0 If u n µ(y n /µ(x n then x n := y n else x n := x n. Die Übergangsmatrix dieser Markovkette ist gegeben durch { α(xyp(xy x y q(xy = z xα(xzp(xz x = y. mit α(x y = min( µ(y/µ(x. Es genügt zu zeigen dass µ Detailed Balance erfüllt für q dann ist es mit a ein Gleichgewicht. DB muss nur für xy V mit x y geprüft werden. Dann folgt ( µ(xq(xy = µ(xmin µ(y µ(x da der vorletzte Ausdruck symmetrisch in x y ist. p(xy = min(µ(xµ(yp(yx = µ(yq(yx c Wir bestimmen zunächst Gleichgewichte der Kette. µ ist Gleichgewicht genau dann wenn: sowie µ(r+µ(s =. Daraus folgt µ(r = µ(r+q µ(s µ(s = ( q µ(s+ µ(r µ(r = q +q µ(s = +q die Kette besitzt also ein eindeutiges Gleichgewicht. Nach Ausführen des Experiments für lange Zeit erwartet man ein Ergebnis verteilt nach µ nach dem Konvergenzsatz für Markovketten. Nach dem Gesetz der großen Zahlen sollte daher bei vielmaliger Wiederholung gelten: #Ausgänge r #Versuche µ(r #Ausgänge s #Versuche µ(s. Damit folgt µ(r = (+q 0.8 und wir folgern q = /8. 5

6 4. (Iterationsverfahren für lineare Gleichungssysteme a Der Jacobi-Algorithmus ist gegeben durch Input: Matrix A R d d mit a ii 0 für alle i d b R d Startwert x (0 R d Output: Iterationsfolge x (k R d for k = 0... do for i =...d do x (k+ i = ( b i a ij x (k j a ii j i Der Gauß-Seidel-Algorithmus ist gegeben durch Input: Matrix A R d d mit a ii 0 für alle i d b R d Startwert x (0 R d Output: Iterationsfolge x (k R d for k = 0... do for i =...d do x (k+ i = ( b i a ij x (k+ j a ij x (k j a ii j<i j>i b Setze A = D L U wobei d ij = a ij {i=j} l ij = a ij {i>j} u ij = a ij {i<j}. Jacobi: Es gilt x (k+ = D ( b+(l+ux (k also x (k+ = T J x (k +f J mit T J = D (L+U und f J = D b. Gauß-Seidel: x (k+ = D ( b+lx (k+ +Ux (k (I D Lx (k+ = D b+d Ux (k x (k+ = (I D L D b+(i D L D Ux (k x (k+ = (D L b+(d L Ux (k also T GS = (D L U und f GS = (D L b. Der Spektralradius einer Matrix T R d d ist ρ(t := max{ λ : λ C Eigenwert von T}. 6

7 c (3 impliziert mit Induktion dass x (k+ x = T k (x (k x also x (k x = T k (x (0 x. Sei v 0 so dass Tv = λv mit λ und setze x (0 = x +v. Dann gilt für alle k x (k x = T k (x (0 x = T k v = λ k v v also konvergiert {x (k } nicht gegen x. d (i Da A strikt diagonaldominant ist d.h. a ii > j i a ij für i =...d konvergieren das Jacobi- und das Gauß-Seidel-Verfahren monoton bzgl. der Maximumsnorm auf R d. (Satz 5. (ii Es gilt T J = ( 0 0 Dieser Matrix hat Eigenwerte ±. Also impliziert c dass das Jacobi Verfahren nicht für alle Anfangswerte konvergiert. Es gilt T GS = ( 0 ( = ( 0 0 Dieser Matrix hat Eigenwerte 0 und. Also impliziert c dass das Gauß-Seidel- Verfahren nicht für alle Anfangswerte konvergiert. 7

8 5. (Interpolation a Sei f C m+ ([ab] und a x 0 <... < x m b. Zu zeigen: Eindeutigkeit des Interpolationspolynoms p zu (x i f(x i. Angenommen es gibt zwei verschiedenen Polynome p q vom Höchstgrad m mit der Eigenschaft dass p(x k = q(x k = f(x k k = 0...m. Dann besitzt das Polynom p q aber m + Nullstellen. Nach dem Hauptsatz der Algebra(BeweisviaSatzvonRolleisteinPolynomvomGradmmitm+Nullstellen aber identisch 0 d.h. p q 0. Dies steht aber im Widerspruch zur Annahme. Zu zeigen: Existenz des Interpolationspolynoms. Betrachte hierzu die Lagrange-Polynome vom Grad m die gegeben sind durch L i (x = m j=0 j i x x j x i x j. Diese besitzen nun die Eigenschaft dass L i (x k = δ ik. Daher löst aber das Polynom m p(x = f(x i L i (x i=0 gerade das Interpolationsproblem zu (x k f(x k für k = 0...m. Alternativ Beweis der Existenz wie in Vorlesung: Die lineare Abbildung p (p(x 0...p(x m von Π m nach R m+ ist injektiv also aus Dimensionsgründen sogar bijektiv. b Man definiere eine Funktion p durch die rechte Seite: p(x := (x x ip i+k (x (x x k p ik (x x k x i Durch Induktion nach k i folgt: Da p ik und p i+k Polynome mit Höchstgrad k i sind ist p ein Polynom mit Höchstgrad k i. Außerdem gilt p(x i = y i p(x k = y k und für alle j = i+...k gilt p(x j = (x j x i p i+k (x j (x j x k p ik (x j x k x i = (x j x i y j (x j x k y j x k x i = y j. Teil a impliziert dass nur ein Polynom von Höchstgrad k i existiert mit dieser Eigenschaft also gilt p = p ik. 8

9 c Input: Integer 0 m Punkte < x <... < x m < Werte y...y m Rx R Output: Wert p(x des Interpolationspolynoms for k = 0...m do p kk (x = y k for d =...m do for i = 0...m d do p ii+d (x = (x x ip i+i+d (x (x x i+d p ii+d (x x i+d x i p(x = p 0m (x d (i Das lineare Gleichungssystem 0 0 π 6 π 4 π 4 π a b c = 0 hat die Lösung a = 8 8 b = 4 6 c =. π π (ii Setze x = 0 x = π 4 x 3 = π und y = y = y3 = 0. Es gilt L(x = 3 x x j y k x k x j k= j k = (x π(x π 4 ( π 4 ( π + x(x π π 4 ( π +0 {...} = 8 8 x x+. π π (iii Mit der Rekursionsformel zeigt man p 00 (x = p (x = p (x = 0 p 0 (x = 4 π ( x+ p (x = x+ π p 0 (x = 8 8 x x+. π π 9

Klausur,,Algorithmische Mathematik II

Klausur,,Algorithmische Mathematik II Institut für angewandte Mathematik Sommersemester 017 Andreas Eberle, Matthias Erbar / Behrend Heeren Klausur,,Algorithmische Mathematik II Musterlösung 1 (Unabhängige Zufallsvariablen) a) Wir bezeichnen

Mehr

2. Klausur zu,,algorithmische Mathematik II

2. Klausur zu,,algorithmische Mathematik II IAM/INS Sommersemester 2017 Andreas Eberle, André Uschmajew 2. Klausur zu,,algorithmische Mathematik II Bitte diese Felder in Druckschrift ausfüllen Name: Matrikelnr.: Vorname: Studiengang: Wichtige Hinweise:

Mehr

Klausur zur Vorlesung,,Algorithmische Mathematik II

Klausur zur Vorlesung,,Algorithmische Mathematik II Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese

Mehr

Klausur,,Algorithmische Mathematik II

Klausur,,Algorithmische Mathematik II IAM/INS Sommersemester 207 Andreas Eberle / André Uschmajew, Matthias Erbar / Behrend Heeren Klausur,,Algorithmische Mathematik II Musterlösung. (Zufallsvariablen und ihre Verteilung) Sie λ (0, ). Die

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

ALMA II - ÜBERBLICK STOCHASTIK. Jochen Garcke

ALMA II - ÜBERBLICK STOCHASTIK. Jochen Garcke ALMA II - ÜBERBLICK STOCHASTIK Jochen Garcke GRUNDBEGRIFFE Wahrscheinlichkeitsraum (Ω, A, P) beschreibt Zufallssituation Realisierung, Stichprobe, Elementarereignis ω Ω Ergebnisraum zufälliges Ereignis

Mehr

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 5.6.2013 8. Unabhängigkeit von Zufallsgrößen, Erwartungswert und Varianz 8.1

Mehr

Klausur: Diskrete Strukturen I

Klausur: Diskrete Strukturen I Universität Kassel Fachbereich 0/ 5.03.0 Dr. Sebastian Petersen Klausur: Diskrete Strukturen I Aufgabe. (8 Punkte) a) Sei X = {0, }. Geben Sie die Potenzmenge P (X) (durch Auflisten ihrer Elemente) an.

Mehr

Klausur,,Einführung in die W theorie

Klausur,,Einführung in die W theorie Institut für angewandte Mathematik Wintersemester 017/18 Andreas Eberle, Maximilian Fels Klausur,,Einführung in die W theorie Bitte diese Felder in Druckschrift ausfüllen Name: Matrikelnr.: Vorname: Studiengang:

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Klausur zu,,einführung in die Wahrscheinlichkeitstheorie

Klausur zu,,einführung in die Wahrscheinlichkeitstheorie Institut für angewandte Mathematik Wintersemester 2009/10 Andreas Eberle, Matthias Erbar, Bernhard Hader Klausur zu,,einführung in die Wahrscheinlichkeitstheorie Bitte diese Felder in Druckschrift ausfüllen

Mehr

Thema: Totalvariationabstand, Kopplung und Mischzeiten

Thema: Totalvariationabstand, Kopplung und Mischzeiten Technische Universität Berlin Thema: Totalvariationabstand, Kopplung und Mischzeiten Ausarbeitung zum Seminar Moderne Anwendung von Markovketten Name: Nina Kamswich Matrikelnummer: 33677 Fachbereich: Mathematik

Mehr

Zufallsvariable: Verteilungen & Kennzahlen

Zufallsvariable: Verteilungen & Kennzahlen Mathematik II für Biologen 12. Juni 2015 Zufallsvariable Kennzahlen: Erwartungswert Kennzahlen: Varianz Kennzahlen: Erwartungstreue Verteilungsfunktion Beispiel: Exponentialverteilung Kennzahlen: Erwartungswert

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Stochastik Aufgaben zum Üben: Teil 2

Stochastik Aufgaben zum Üben: Teil 2 Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 11. November 2010 1 Erwartungswert und Varianz Erwartungswert Varianz und Streuung Rechenregeln Binomialverteilung

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 8. Vorlesung - 2017 Bemerkung: Sei X = (X 1,..., X n ) Zufallsvektor. Der n dimensionale Vektor ( ) E(X ) = E(X 1 ),..., E(X n ) ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N (0,

Mehr

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen

Mehr

Zulassungsprüfung Stochastik,

Zulassungsprüfung Stochastik, Zulassungsprüfung Stochastik, 5.5. Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß auf

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die

Mehr

x+ 2y = 2 3x+ 3y+ 3z = 0

x+ 2y = 2 3x+ 3y+ 3z = 0 Mathematik für Informatiker III WS 5/ Musterlösung zur Klausur vom 8.. Anmerkung: Für die Aufgaben bis 4 gab es 4 Punkte, zusammen mit der Zusatzaufgabe 5 konnte man 4 Punkte erreichen. Um die Klausur

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Abgabetermin: 5. Mai 2017, Uhr

Abgabetermin: 5. Mai 2017, Uhr Übungsblatt Nr. 1 26. April 2017 1. Sei F k, k K, eine Familie von σ-algebren, wobei K eine beliebige Menge ist. Zeigen Sie, daß F d = k K F k ebenfalls eine σ-algebra ist! Beweisen Sie, daß die Vereinigung

Mehr

8 Interpolation. 8.1 Problemstellung. Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen. x 0 < x 1 <... < x n.

8 Interpolation. 8.1 Problemstellung. Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen. x 0 < x 1 <... < x n. 8 Interpolation 81 Problemstellung Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen x 0 < x 1 < < x n Eingabedaten: (x 0, f 0 ),(x 1, f 1 ),,(x n, f n ) Gegebene Daten (x j, f j ) Analysis

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung

Mehr

Vorlesung 8b. Bedingte Erwartung und bedingte Varianz

Vorlesung 8b. Bedingte Erwartung und bedingte Varianz Vorlesung 8b Bedingte Erwartung und bedingte Varianz 1 1. Zerlegung eines Erwartungswertes nach der ersten Stufe (Buch S. 91) 2 Wie in der vorigen Vorlesung betrachten wir die gemeinsame Verteilung von

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

Diskrete Strukturen I

Diskrete Strukturen I Universität Kassel Fachbereich 10/1 PD Dr. Sebastian Petersen 14.09.2017 Klausur zur Vorlesung Diskrete Strukturen I Es können maximal 40 Punkte erreicht werden. Version mit Lösungsskizze Zur Notation:

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

5 Potenzreihenansatz und spezielle Funktionen

5 Potenzreihenansatz und spezielle Funktionen 5 Potenzreihenansatz und spezielle Funktionen In diesem Kapitel betrachten wir eine Methode zur Lösung linearer Differentialgleichungen höherer Ordnung, die sich anwenden läßt, wenn sich alle Koeffizienten

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Musterlösungen zur Leistungsnachweisklausur vom Studiengang Informatik, Ingenieurinformatik, Lehramt

Musterlösungen zur Leistungsnachweisklausur vom Studiengang Informatik, Ingenieurinformatik, Lehramt TU ILMENAU Institut für Mathematik Numerische Mathematik PD Dr. W. Neundorf Musterlösungen zur Leistungsnachweisklausur vom.0.006 Studiengang Informatik, Ingenieurinformatik, Lehramt 1. Lineare Algebra

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Seminar über Markovketten

Seminar über Markovketten Universität Siegen Fachbereich Mathematik Seminar über Markovketten Sommersemester 003 Dozent Dr. Edgar Kaufmann Seminarteilnehmer Tobias Kegel Alexander Luke Uwe Nowak Übergangswahrscheinlichkeiten höherer

Mehr

, r [0, 2], ϕ [0,π/2], ϑ [0,π/6]. x 3. x 2 2 x 2 1. F(x) = x 2 3

, r [0, 2], ϕ [0,π/2], ϑ [0,π/6]. x 3. x 2 2 x 2 1. F(x) = x 2 3 Prof. Dr. Eck Höhere Mathematik 3 9.3.9 Aufgabe ( Punkte) Gegeben ist der Körper K mit der Parametrisierung x r cos ϕ cos ϑ K : x = Φ(r,ϕ,ϑ) = r sin ϕ cos ϑ, r [, ], ϕ [,π/], ϑ [,π/6]. x 3 r sin ϑ a) Berechnen

Mehr

D-MAVT NUMERISCHE MATHEMATIK FS 14 K. Nipp, A. Hiltebrand Lösung vom Test 2

D-MAVT NUMERISCHE MATHEMATIK FS 14 K. Nipp, A. Hiltebrand Lösung vom Test 2 D-MAVT NUMERISCHE MATHEMATIK FS 4 K Nipp, A Hiltebrand Lösung vom Test Sei A ( 3 3 ) a) Bestimmen Sie κ(a), die Kondition von A (in der -Norm): κ(a) b) Berechnen Sie den Spektralradius von A: ρ(a) 4 c)

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte

Mehr

D-MAVT Lineare Algebra I HS 2018 Prof. Dr. N. Hungerbühler. Lösungen = A 4 3 6

D-MAVT Lineare Algebra I HS 2018 Prof. Dr. N. Hungerbühler. Lösungen = A 4 3 6 D-MAVT Lineare Algebra I HS 28 Prof. Dr. N. Hungerbühler Lösungen. Gegeben seien die Matrizen A := ( 2 3 3 ), B := Welche der folgenden Aussagen sind richtig? (a) (AB) T = A T B T. 5 3 2 6 Die Formel (AB)

Mehr

16.3 Rekurrente und transiente Zustände

16.3 Rekurrente und transiente Zustände 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Musterlösung Klausur zu Analysis II. Verständnisteil

Musterlösung Klausur zu Analysis II. Verständnisteil Technische Universität Berlin SS 2009 Institut für Mathematik 20.07.2009 Prof. Dr. R. Schneider Fritz Krüger Sebastian Holtz Musterlösung Klausur zu Analysis II Verständnisteil 1. (a) Sei D R n konvex

Mehr

18.4 Das Newton-Verfahren

18.4 Das Newton-Verfahren 18.4 Das Newton-Verfahren Ziel: Wir suchen die Nullstellen einer Funktion f : D R n, D R n : f(x) = 0 Wir kennen bereits die Fixpunktiteration x k+1 := Φ(x k ) mit Startwert x 0 und Iterationsvorschrift

Mehr

Lösungen zur Übungsserie 9

Lösungen zur Übungsserie 9 Analysis 1 Herbstsemester 2018 Prof. Peter Jossen Montag,? November Lösungen zur Übungsserie 9 Aufgaben 1,2,3,5,6,8,9,11 Aufgabe 1. Sei a R. Berechnen Sie die folgenden Grenzwerte, falls sie existieren.

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Übungsblatt 10 Musterlösung

Übungsblatt 10 Musterlösung Übungsblatt 0 Musterlösung Numerik gewöhnlicher Differentialgleichungen MA2304 - SS6 Aufgabe 45 Fehlerkonstante von MSV Betrachten Sie ein allgemeines lineares q Schrittverfahren α q j y i+ j = h β q j

Mehr

Mathematik für Sicherheitsingenieure I B (BScS 2011)

Mathematik für Sicherheitsingenieure I B (BScS 2011) Priv.-Doz. Dr. J. Ruppenthal Wuppertal, 5.9.7 Mathematik für Sicherheitsingenieure I B (BScS Aufgabe. (5+8+7 Punkte a eben Sie für jede der folgenden Aussagen an, ob sie WAHR oder FALSCH ist. Eine Begründung

Mehr

(x x j ) R m [x] (3) x x j x k x j. R m [x]. (4)

(x x j ) R m [x] (3) x x j x k x j. R m [x]. (4) 33 Interpolation 147 33 Interpolation In vielen praktischen Anwendungen der Mathematik treten Funktionen f auf, deren Werte nur näherungsweise berechnet werden können oder sogar nur auf gewissen endlichen

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Stroppel Musterlösung , 180min. Aufgabe 1 (4 Punkte) Bestimmen Sie die folgenden Grenzwerte und Funktionengrenzwerte.

Stroppel Musterlösung , 180min. Aufgabe 1 (4 Punkte) Bestimmen Sie die folgenden Grenzwerte und Funktionengrenzwerte. Stroppel Musterlösung 3908, 80min Aufgabe 4 Punkte) Bestimmen Sie die folgenden Grenzwerte und Funktionengrenzwerte a) 4n 3 9 lim b) lim n n + n) n + )5n 4) c) lim x 0 sinlnx + )) sinhx) a) Es ist lim

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 17. November 2010 1 Gesetze Das Gesetz der seltenen Ereignisse Das schwache Gesetz der großen Zahl 2 Verteilungsfunktionen

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 3

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 3 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/14 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Einführung in die Wahrscheinlichkeitstheorie svorschläge zu Übungsblatt

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Probeklausur zu Funktionentheorie, Lebesguetheorie und gewöhnlichen Differentialgleichungen

Probeklausur zu Funktionentheorie, Lebesguetheorie und gewöhnlichen Differentialgleichungen MATHEMATISCHES INSTITUT SoSe 24 DER UNIVERSITÄT MÜNCHEN Probeklausur zu Funktionentheorie, Lebesguetheorie und gewöhnlichen Differentialgleichungen Musterlösung Prof. Dr. P. Pickl Aufgabe Zeigen Sie, dass

Mehr

Vorlesung 5a. Zufallsvariable mit Dichten

Vorlesung 5a. Zufallsvariable mit Dichten Vorlesung 5a 1 Vorlesung 5a Zufallsvariable mit Dichten Vorlesung 5a Zufallsvariable mit Dichten Teil 1 Uniforme Verteilung, Exponentialverteilung. Kontinuierlich uniform verteilte Zufallsvariable: 2 Kontinuierlich

Mehr

Begleitmaterial zur Vorlesung Numerik I

Begleitmaterial zur Vorlesung Numerik I Begleitmaterial zur Vorlesung Numerik I Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik I 1 / 49 Inhalte der Numerik

Mehr

Klausur: Diskrete Strukturen I

Klausur: Diskrete Strukturen I Universität Kassel Fachbereich 10/1 13.03.2013 Klausur: Diskrete Strukturen I Name: Vorname: Matrikelnummer: Versuch: Unterschrift: Bitte fangen Sie für jede Aufgabe ein neues Blatt an. Beschreiben Sie

Mehr

KLAUSUR. Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.:

KLAUSUR. Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.: KLAUSUR Lineare Algebra (E-Techniker/Mechatroniker/W-Ingenieure/Informatiker).3. (W. Koepf) Name: Vorname: Matr. Nr./Studiengang: Versuch Nr.: Für jede Aufgabe gibt es Punkte. Zum Bestehen der Klausur

Mehr

Probeklausur Statistik II

Probeklausur Statistik II Prof. Dr. Chr. Müller PROBE-KLAUSUR 1 1 2 3 4 5 6 7 8 Gesamt: 15 8 16 16 7 8 15 15 100 Probeklausur Statistik II Name: Vorname: Fachrichtung: Matrikel-Nummer: Bitte beachten Sie folgendes: 1) Die Klausur

Mehr

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW

AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW AUFGABENSAMMLUNG ZU VEKTORRECHNUNG FÜR USW Lineare Gleichungssysteme Lösen Sie folgende Gleichungssysteme über R: a) x + x + x = 6x + x + x = 4 x x x = x 7x x = 7 x x = b) x + x 4x + x 4 = 9 x + 9x x x

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 7. Vorlesung - 2018 Bemerkung: Sei X = X 1,..., X n Zufallsvektor. Der n dimensionale Vektor EX = EX 1,..., EX n ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N0, 1. X, Y sind die Koordinaten

Mehr

Name Vorname Fachrichtg. Matrikelnr. Punkte Klausur Aufgabe max. Punkte Punkte. Bitte beachten!

Name Vorname Fachrichtg. Matrikelnr. Punkte Klausur Aufgabe max. Punkte Punkte. Bitte beachten! Fakultät für Mathematik Institut für Algebra und Geometrie Prof. Dr. Martin Henk, Dr. Michael Höding Modulprüfung Mathematik III Fachrichtung: Computer Science in Engineering, Computervisualistik, Informatik,

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Musterlösung Klausur,,Einführung in die W theorie

Musterlösung Klausur,,Einführung in die W theorie Institut für angewandte Mathematik Wintersemester 3/4 Andreas Eberle, Lisa Hartung / Patrick Müller Musterlösung Klausur,,Einführung in die W theorie. (Zufallsvariablen und ihre Verteilung) a) Was ist

Mehr

Lösungshinweise zur Klausur. Mathematik für Informatiker III. (Dr. Frank Hoffmann) 18. Februar 2008

Lösungshinweise zur Klausur. Mathematik für Informatiker III. (Dr. Frank Hoffmann) 18. Februar 2008 Lösungshinweise zur Klausur Mathematik für Informatiker III (Dr. Frank Hoffmann) 8. Februar 8 Aufgabe Algebraisches I /6++ (a) Rechnen Sie zunächst nach, dass die Menge B = {,, von Vektoren eine Basis

Mehr

Vorlesung 7a. Der Zentrale Grenzwertsatz

Vorlesung 7a. Der Zentrale Grenzwertsatz Vorlesung 7a Der Zentrale Grenzwertsatz als Erlebnis und Das Schwache Gesetz der Großen Zahlen Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4

Mehr

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 21. Dezember 2011 1 Definition Binomialverteilung Geometrische Verteilung Poissonverteilung 2 Standardisierte Verteilung

Mehr

Kapitel 8: Zufallsvektoren

Kapitel 8: Zufallsvektoren Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und

Mehr

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester

Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang. Sommersemester Karlsruher Institut für Technologie Institut für Analysis Dr. Andreas Müller-Rettkowski Dr. Vu Hoang Sommersemester 03 6.06.03 Höhere Mathematik II für die Fachrichtungen Elektrotechnik und Informationstechnik

Mehr

Übungen zur Vorlesung Einführung in die Mathematik

Übungen zur Vorlesung Einführung in die Mathematik Übungen zur Vorlesung Einführung in die Mathematik von G. Greschonig und L. Summerer, WS 2017/18 Aufgabe 1. Zeige, dass das Quadrat einer ungeraden Zahl, vermindert um 1, stets durch 4 teilbar ist. Folgere

Mehr

Mathematik für Betriebswirte I (Lineare Algebra) 1. Klausur Wintersemester 2013/

Mathematik für Betriebswirte I (Lineare Algebra) 1. Klausur Wintersemester 2013/ Mathematik für Betriebswirte I (Lineare Algebra). Klausur Wintersemester 20/204 06.02.204 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN Nachname:... Vorname:... Matrikelnummer: Studienfach:... Name des

Mehr

Mathematik für Naturwissenschaften, Teil 2

Mathematik für Naturwissenschaften, Teil 2 Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr