Vorlesung 13a. Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen. Teil 2

Größe: px
Ab Seite anzeigen:

Download "Vorlesung 13a. Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen. Teil 2"

Transkript

1 Vorlesung 13a Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen Teil 2 1

2 Die Erneuerungskette: 2

3 Die Erneuerungskette: Auf S = N betrachten wir folgende stochastische Dynamik:

4 Die Erneuerungskette: Auf S = N betrachten wir folgende stochastische Dynamik: P(i, i 1) = 1 für i > 1, P(1, i) = λ i, i = 1,2,...

5 Die Erneuerungskette: Auf S = N betrachten wir folgende stochastische Dynamik: P(i, i 1) = 1 für i > 1, P(1, i) = λ i, i = 1,2,... mit vorgegebenen W-Gewichten λ i.

6 Die Erneuerungskette: Auf S = N betrachten wir folgende stochastische Dynamik: P(i, i 1) = 1 für i > 1, P(1, i) = λ i, i = 1,2,... mit vorgegebenen W-Gewichten λ i. Interpretation: i ist die Restlebenszeit eines Gerätes.

7 Die Erneuerungskette: Auf S = N betrachten wir folgende stochastische Dynamik: P(i, i 1) = 1 für i > 1, P(1, i) = λ i, i = 1,2,... mit vorgegebenen W-Gewichten λ i. Interpretation: i ist die Restlebenszeit eines Gerätes. Wenn das Gerät die Restlebenszeit 1 erreicht hat, geht es im nächsten Schritt kaputt und wird sofort durch ein neues Gerät ersetzt, dessen anfängliche Restlebenszeit L die Verteilunsgewichte (λ i ) hat.

8 Wir suchen nach der Gleichgewichtsverteilung π von P : 3

9 Wir suchen nach der Gleichgewichtsverteilung π von P : (G) π i π 1 λ i = π i, i = 1,2,...

10 Wir suchen nach der Gleichgewichtsverteilung π von P : (G) π i π 1 λ i = π i, i = 1,2,... π i π i+1 = π 1 λ i, i = 1,2,...

11 Wir suchen nach der Gleichgewichtsverteilung π von P : (G) π i π 1 λ i = π i, i = 1,2,... π i π i+1 = π 1 λ i, i = 1,2,... Summiert über i von 1 bis k 1 ergibt das:

12 Wir suchen nach der Gleichgewichtsverteilung π von P : (G) π i π 1 λ i = π i, i = 1,2,... π i π i+1 = π 1 λ i, i = 1,2,... Summiert über i von 1 bis k 1 ergibt das: π 1 π k = π 1 P{L < k},

13 Wir suchen nach der Gleichgewichtsverteilung π von P : (G) π i π 1 λ i = π i, i = 1,2,... π i π i+1 = π 1 λ i, i = 1,2,... Summiert über i von 1 bis k 1 ergibt das: π 1 π k = π 1 P{L < k}, oder (dazu äquivalent) π k = π 1 P{L k}.

14 π k = π 1 P{L k} 4

15 π k = π 1 P{L k} Treffen wir jetzt die Annahme EL <. Durch Summation über alle k bekommen wir:

16 π k = π 1 P{L k} Treffen wir jetzt die Annahme EL <. Durch Summation über alle k bekommen wir: 1 = π 1 EL, und das eingesetzt in obige Gleichung liefert:

17 π k = π 1 P{L k} Treffen wir jetzt die Annahme EL <. Durch Summation über alle k bekommen wir: 1 = π 1 EL, und das eingesetzt in obige Gleichung liefert: P{L k} π k = EL

18 π k = π 1 P{L k} Treffen wir jetzt die Annahme EL <. Durch Summation über alle k bekommen wir: 1 = π 1 EL, und das eingesetzt in obige Gleichung liefert: P{L k} π k = EL Dies erfüllt in der Tat die Bedingung (G):

19 π k = π 1 P{L k} Treffen wir jetzt die Annahme EL <. Durch Summation über alle k bekommen wir: 1 = π 1 EL, und das eingesetzt in obige Gleichung liefert: P{L k} π k = EL Dies erfüllt in der Tat die Bedingung (G): π k π k+1 = π 1 P{L = k}.

20 Sei R 1 := R 1 (X) := inf{n 1 ; X n = 1} die Rückkehrzeit des Pfades X zum Zustand 1. 5

21 Sei R 1 := R 1 (X) := inf{n 1 ; X n = 1} die Rückkehrzeit des Pfades X zum Zustand 1. Wir haben gezeigt: π 1 = 1, m.a. W. EL

22 Sei R 1 := R 1 (X) := inf{n 1 ; X n = 1} die Rückkehrzeit des Pfades X zum Zustand 1. Wir haben gezeigt: π 1 = 1, m.a. W. EL π 1 = 1 E 1 (R 1 ).

23 Sei R 1 := R 1 (X) := inf{n 1 ; X n = 1} die Rückkehrzeit des Pfades X zum Zustand 1. Wir haben gezeigt: π 1 = 1, m.a. W. EL π 1 = 1 E 1 (R 1 ). Das Gewicht des Zustands 1 im Gleichgewicht ist die erwartete Rückkehrzeit bei Start in 1.

24 Die eben formulierte Beziehung gilt in einem ganz allgemeinen Rahmen. 6

25 Die eben formulierte Beziehung gilt in einem ganz allgemeinen Rahmen. Dazu definieren wir erst:

26 Die eben formulierte Beziehung gilt in einem ganz allgemeinen Rahmen. Dazu definieren wir erst: Eine Übergangswahrscheinlichkeit P auf S heißt irreduzibel, wenn es für alle a, b S ein n N gibt mit P n (a, b) > 0.

27 Die eben formulierte Beziehung gilt in einem ganz allgemeinen Rahmen. Dazu definieren wir erst: Eine Übergangswahrscheinlichkeit P auf S heißt irreduzibel, wenn es für alle a, b S ein n N gibt mit P n (a, b) > 0. Beispiele dafür: Irrfahrten auf zusammenhängenden Graphen, Ehrenfest-Modell,...

28 Satz Ist π eine Gleichgewichtsverteiltung zu einer irreduziblen Übergangswahrscheinlichkeit P, dann gilt für alle a S: vgl. Skript Kersting, Korollar 5.7 7

29 Satz Ist π eine Gleichgewichtsverteiltung zu einer irreduziblen Übergangswahrscheinlichkeit P, dann gilt für alle a S: π(a) = 1 E a (R a ). vgl. Skript Kersting, Korollar 5.7

30 Zum Abschluss des Kapitels überlegen wir noch, wie man erwartete Treffzeiten mit der Zerlegung nach dem ersten Schritt in den Griff bekommt. 8

31 Zum Abschluss des Kapitels überlegen wir noch, wie man erwartete Treffzeiten mit der Zerlegung nach dem ersten Schritt in den Griff bekommt. Sei dazu X = (X 0, X 1,...) ein zufälliger Pfad auf S, der der stochastischen Dynamik P folgt.

32 Zum Abschluss des Kapitels überlegen wir noch, wie man erwartete Treffzeiten mit der Zerlegung nach dem ersten Schritt in den Griff bekommt. Sei dazu X = (X 0, X 1,...) ein zufälliger Pfad auf S, der der stochastischen Dynamik P folgt. Man sagt dafür auch: X ist eine Markovkette mit Übergangswahrscheinlichkeit P.

33 Satz: 9

34 Satz: Sei B eine Teilmenge von S, und T B := inf{n 0 : X n B}.

35 Satz: Sei B eine Teilmenge von S, und T B := inf{n 0 : X n B}. Dann gilt für die erwarteten Treffzeiten bei Start in a, e(a) := E a [T B ], das Gleichungssystem:

36 Satz: Sei B eine Teilmenge von S, und T B := inf{n 0 : X n B}. Dann gilt für die erwarteten Treffzeiten bei Start in a, e(a) := E a [T B ], das Gleichungssystem: e(a) = 1 + b S P(a, b) e(b) für a / B, e(a) = 0 für a B.

37 Der Beweis des Satzes beruht auf der Zerlegung nach dem ersten Schritt: 10

38 Der Beweis des Satzes beruht auf der Zerlegung nach dem ersten Schritt: Ist a / B, dann muss man jedenfalls einen Schritt machen.

39 Der Beweis des Satzes beruht auf der Zerlegung nach dem ersten Schritt: Ist a / B, dann muss man jedenfalls einen Schritt machen. Für die um 1 verminderte Treffzeit von B folgt mit dem Satz von der totalen Wahrscheinlichkeit:

40 Der Beweis des Satzes beruht auf der Zerlegung nach dem ersten Schritt: Ist a / B, dann muss man jedenfalls einen Schritt machen. Für die um 1 verminderte Treffzeit von B folgt mit dem Satz von der totalen Wahrscheinlichkeit: E a [T 1] = b S P a {X 1 = b}e b [T].

41 Der Beweis des Satzes beruht auf der Zerlegung nach dem ersten Schritt: Ist a / B, dann muss man jedenfalls einen Schritt machen. Für die um 1 verminderte Treffzeit von B folgt mit dem Satz von der totalen Wahrscheinlichkeit: E a [T 1] = b S P a {X 1 = b}e b [T]. (Vergleiche dazu auch: Skript Kersting S. 125)

42 Mini-Beispiel: 11

43 S := {a, b}, Mini-Beispiel: P(a, b) := p

44 S := {a, b}, Mini-Beispiel: P(a, b) := p E a [T b ] =?

45 S := {a, b}, Mini-Beispiel: P(a, b) := p E a [T b ] =? E a [T b ] = 1 + (1 p)e a [T b ]

46 S := {a, b}, Mini-Beispiel: P(a, b) := p E a [T b ] =? E a [T b ] = 1 + (1 p)e a [T b ] = E a [T b ] = 1 p.

47 S := {a, b}, Mini-Beispiel: P(a, b) := p E a [T b ] =? E a [T b ] = 1 + (1 p)e a [T b ] = E a [T b ] = 1 p. Das wussten wir auch so, denn unter P a ist hier T b geometrisch verteilt zum Parameter p.

48 Beispiel: 12

49 Beispiel: S := {0,1,2,..., r}, mit r N.

50 Beispiel: S := {0,1,2,..., r}, mit r N. P(a, x) := 1 für x = a + 1,..., r. r a

51 Beispiel: S := {0,1,2,..., r}, mit r N. P(a, x) := 1 für x = a + 1,..., r. r a E 0 [T r ] =?

52 Beispiel: S := {0,1,2,..., r}, mit r N. P(a, x) := 1 für x = a + 1,..., r. r a E 0 [T r ] =? Sei e(x) := E x [T r ], x = 0,..., r.

53 Beispiel: S := {0,1,2,..., r}, mit r N. P(a, x) := 1 für x = a + 1,..., r. r a E 0 [T r ] =? Sei e(x) := E x [T r ], x = 0,..., r. Zerlegung nach dem ersten Schritt ergibt

54 Beispiel: S := {0,1,2,..., r}, mit r N. P(a, x) := 1 für x = a + 1,..., r. r a E 0 [T r ] =? Sei e(x) := E x [T r ], x = 0,..., r. Zerlegung nach dem ersten Schritt ergibt e(x) = (e(x + 1) e(r)) r x

55 Beispiel: S := {0,1,2,..., r}, mit r N. P(a, x) := 1 für x = a + 1,..., r. r a E 0 [T r ] =? Sei e(x) := E x [T r ], x = 0,..., r. Zerlegung nach dem ersten Schritt ergibt e(x) = (e(x + 1) e(r)) r x (r x)e(x) = r x + e(x + 1) e(r).

56 Der Rest ist Rechnung: 13

57 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r)

58 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r) Für x + 1 statt x:

59 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r) Für x + 1 statt x: (r (x+1))e(x+1) = r (x+1)+e(x+2)+...+e(r)

60 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r) Für x + 1 statt x: (r (x+1))e(x+1) = r (x+1)+e(x+2)+...+e(r) Subtraktion ergibt:

61 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r) Für x + 1 statt x: (r (x+1))e(x+1) = r (x+1)+e(x+2)+...+e(r) Subtraktion ergibt: (r x)e(x) (r x 1)e(x + 1) = 1 + e(x + 1)

62 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r) Für x + 1 statt x: (r (x+1))e(x+1) = r (x+1)+e(x+2)+...+e(r) Subtraktion ergibt: (r x)e(x) (r x 1)e(x + 1) = 1 + e(x + 1) e(x) e(x + 1) = r x 1, x = 1,..., r 1.

63 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r) Für x + 1 statt x: (r (x+1))e(x+1) = r (x+1)+e(x+2)+...+e(r) Subtraktion ergibt: (r x)e(x) (r x 1)e(x + 1) = 1 + e(x + 1) e(x) e(x + 1) = 1 r x, x = 1,..., r 1. Insbesondere ist e(r 1) = 1. Summation ergibt:

64 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r) Für x + 1 statt x: (r (x+1))e(x+1) = r (x+1)+e(x+2)+...+e(r) Subtraktion ergibt: (r x)e(x) (r x 1)e(x + 1) = 1 + e(x + 1) e(x) e(x + 1) = r x 1, x = 1,..., r 1. Insbesondere ist e(r 1) = 1. Summation ergibt: e(x) = 1 r x + 1 r x

65 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r) Für x + 1 statt x: (r (x+1))e(x+1) = r (x+1)+e(x+2)+...+e(r) Subtraktion ergibt: (r x)e(x) (r x 1)e(x + 1) = 1 + e(x + 1) e(x) e(x + 1) = r x 1, x = 1,..., r 1. Insbesondere ist e(r 1) = 1. Summation ergibt: e(x) = r x 1 + r x E 0 [T r ] = e(0) = r ( ln r für r ).

66 Das eben diskutierte Beispiel tritt auf bei der Analyse eines Algorithmus zum Auffinden des Maximums von r verschiedenen Zahlen in einer rein zufälligen Anordnung a(1),..., a(r). Man begint mit dem Eintrag a(1) und vergleicht ihn mit a(2), a(3),..., bis man zu einem a(i) > a(1) kommt. Man trägt a(i) anstelle von a(1) ein, und vergleicht die verbleibenden a(i + 1), a(i + 2),... mit a(i), bis man zu einem a(j) > a(i) kommt, usw. Die zufällige Folge der Ränge von a(1), a(i), a(j),... folgt dann der im Beispiel beschriebenen Dynamik, und die Treffzeit von r entspricht der Anzahl der Einträge. Vgl. dazu Skript Kersting Seite

Vorlesung 12b. Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen. Teil 1

Vorlesung 12b. Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen. Teil 1 Vorlesung 12b Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen Teil 1 1 Wir wissen schon: 2 Wir wissen schon: Eine gemeinsame Verteilung kann man verstehen als Produkt aus Start-und Übergangsverteilung:

Mehr

Vorlesung 9b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 9b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten Vorlesung 9b Bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 1. Zerlegung der gemeinsamen Verteilung (Buch S. 111) 2 Bisher legten wir das Hauptaugenmerk auf den Aufbau der gemeinsamen Verteilung

Mehr

Zweitklausur. b p b. q a. c 1. p a

Zweitklausur. b p b. q a. c 1. p a Elementare Stochastik SoSe 27 Zweitklausur Lösungen. Berechnen Sie für die angegebenen Übergangswahrscheinlichkeiten (mit p a,p b >, q a := p a, q b := p b ) die erwartete Anzahl von Schritten bis zum

Mehr

Vorlesung 11b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 11b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten Vorlesung 11b Bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Bisher legten wir das Hauptaugenmerk auf den Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten

Mehr

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a

Mehr

Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 1

Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 1 Vorlesung 8b Zweistufige Zufallsexperimente Teil 1 1 Stellen wir uns ein zufälliges Paar X = (X 1, X 2 ) vor, das auf zweistufige Weise zustande kommt: es gibt eine Regel, die besagt, wie X 2 verteilt

Mehr

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen

Mehr

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:

Mehr

Das Prinzip der Suchmaschine Google TM

Das Prinzip der Suchmaschine Google TM /9 Das Prinzip der Suchmaschine Google TM Numerische Mathematik WS 20/2 Basieren auf dem Paper The $25,000,000,000 Eigenvector: The Linear Algebra behind Google von Kurt Bryan und Tanya Leise (SIAM Review,

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Die Mathematik hinter Google

Die Mathematik hinter Google Die Mathematik hinter Google Wolfram Decker TU Kaiserslautern Neustadt, 5. Dezember 05 Elemente einer Suchmaschine WWW Crawler Module Page Repository User query independent Indexing Module 000 000 000

Mehr

i Pr(X = i). Bsp: Sei X die Summe zweier Würfe eines Würfels. Dann gilt E[X] =

i Pr(X = i). Bsp: Sei X die Summe zweier Würfe eines Würfels. Dann gilt E[X] = Erwartungswert Definition Erwartungswert Der Erwartungswert einer diskreten ZV ist definiert als E[X] = i i Pr(X = i). E[X] ist endlich, falls i i Pr(X = i) konvergiert, sonst unendlich. Bsp: Sei X die

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,

Mehr

DisMod-Repetitorium Tag 3

DisMod-Repetitorium Tag 3 DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität

Mehr

16.3 Rekurrente und transiente Zustände

16.3 Rekurrente und transiente Zustände 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht

Mehr

Bsp. 120 Ein-Prozessorsystem mit mehreren E/A-Einheiten.

Bsp. 120 Ein-Prozessorsystem mit mehreren E/A-Einheiten. Bsp. 20 Ein-Prozessorsystem mit mehreren E/A-Einheiten. Ein Programm. das sich in der CPU befindet, geht mit Wkt. q i in die I/O-Einheit i über, oder endet (mit Wkt. q 0 ) und macht Platz für ein neues

Mehr

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { } Zur Einleitung: Lineare Gleichungssysteme Wir untersuchen zunächst mit Methoden, die Sie vermutlich aus der Schule kennen, explizit einige kleine lineare Gleichungssysteme. Das Gleichungssystem I wird

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

Vorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09)

Vorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09) Vorlesung Mathematik für Ingenieure Wintersemester 8/9 Kapitel 4: Matrizen, lineare Abbildungen und Gleichungssysteme Volker Kaibel Otto-von-Guericke Universität Magdeburg Version vom 5. November 8 Page-Rank

Mehr

Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 2

Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 2 Vorlesung 8b Zweistufige Zufallsexperimente Teil 2 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen: P(X 1 = a 1,X 2 = a 2 ) = P(X 1 = a 1 )P a1 (X

Mehr

3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur

3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur 3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur Ein Zustand j ist erreichbar von i (i j), falls P i (X t = j für ein t 0) > 0. i j, wenn i erreichbar von j und j erreichbar von i ist. Die

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Vorlesung 5a. Zufallsvariable mit Dichten

Vorlesung 5a. Zufallsvariable mit Dichten Vorlesung 5a 1 Vorlesung 5a Zufallsvariable mit Dichten Vorlesung 5a Zufallsvariable mit Dichten Teil 1 Uniforme Verteilung, Exponentialverteilung. Kontinuierlich uniform verteilte Zufallsvariable: 2 Kontinuierlich

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute 3.4 PageRank Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute Wichtigkeit von Webseiten; nicht Relevanz bezüglich Benutzeranfrage. Anfrageunabhängiges Ranking. Ausgangspunkt: Eingangsgrad.

Mehr

Seminar zur. Zahlentheorie. Prof. Dr. T. Wedhorn. Vortrag zum Thema. Euklidische und faktorielle Ringe Peter Picht. und.

Seminar zur. Zahlentheorie. Prof. Dr. T. Wedhorn. Vortrag zum Thema. Euklidische und faktorielle Ringe Peter Picht. und. Seminar zur Zahlentheorie Prof. Dr. T. Wedhorn Vortrag zum Thema Euklidische und faktorielle Ringe 13.11.2007 Peter Picht und Stephan Schmidt 4 Euklidische und faktorielle Ringe (A) Assoziierheit, Irreduziblität,

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { } Zur Einleitung: Lineare Gleichungssysteme Wir untersuchen zunächst mit Methoden, die Sie vermutlich aus der Schule kennen, explizit einige kleine lineare Gleichungssysteme. Das Gleichungssystem I wird

Mehr

UNTERLAGEN ZUR TEILBARKEIT IN KOMMUTATIVEN RINGEN

UNTERLAGEN ZUR TEILBARKEIT IN KOMMUTATIVEN RINGEN UNTERLAGEN ZUR TEILBARKEIT IN KOMMUTATIVEN RINGEN VORLESUNG KOMMUTATIVE ALGEBRA, SOMMERSEMESTER 2007 1. Definitionen Ein kommutativer Ring mit Eins R ist ein Integritätsbereich, wenn er zumindest zwei

Mehr

Vorlesung 9b. Bedingte Wahrscheinlichkeiten und bedingte Erwartungswerte

Vorlesung 9b. Bedingte Wahrscheinlichkeiten und bedingte Erwartungswerte Vorlesung 9b Bedingte Wahrscheinlichkeiten und bedingte Erwartungswerte 1 Definition. Seien E 1, E 2 Ereignisse. Dann ist die bedingte Wahrscheinlichkeit von E 2, gegeben E 1, definiert als P(E 2 E 1 )

Mehr

Abgabetermin: 5. Mai 2017, Uhr

Abgabetermin: 5. Mai 2017, Uhr Übungsblatt Nr. 1 26. April 2017 1. Sei F k, k K, eine Familie von σ-algebren, wobei K eine beliebige Menge ist. Zeigen Sie, daß F d = k K F k ebenfalls eine σ-algebra ist! Beweisen Sie, daß die Vereinigung

Mehr

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij.

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij. 8 Markov-Ketten 8.1 Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.

Mehr

Lineares Gleichungssystem - n = 3

Lineares Gleichungssystem - n = 3 Lineares Gleichungssystem - n = 3. Problemstellung Für Unbekannte ist das Gleichungssystem geometrisch äquivalent der Suche nach einem Schnittpunkt zweier Geraden in R. Für 3 Unbekannte ist das Äquivalent

Mehr

10 Schnell mischende Markov-Ketten

10 Schnell mischende Markov-Ketten 10 Schnell mischende Markov-Ketten Allgemeines zu schnell mischenden Markov-Ketten findet man zum Beispiel in dem Buch Introduction to Markov Chains von Behrends (2000). Außerdem haben wir von einem Teil

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

WS 2013/14. Diskrete Strukturen

WS 2013/14. Diskrete Strukturen WS 2013/14 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws1314

Mehr

3. Prozesse mit kontinuierlicher Zeit

3. Prozesse mit kontinuierlicher Zeit 3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 6 Langzeitverhalten, stationäre Masse Multiplikation von Rechts! Literatur Kapitel 6 * Grimmett & Stirzaker: Kapitel 6.4 * Krengel: 6. 6. Motivation Um die nachfolgenden

Mehr

Einführung in Stochastische Prozesse und Zeitreihenanalyse Vorlesung, 2017S, 2.0h 24.November 2017 Hubalek/Scherrer

Einführung in Stochastische Prozesse und Zeitreihenanalyse Vorlesung, 2017S, 2.0h 24.November 2017 Hubalek/Scherrer Name: Mat.Nr.: Bitte keinen Rotstift oder Bleistift verwenden! 105.59 Einführung in Stochastische Prozesse und Zeitreihenanalyse Vorlesung, 2017S, 2.0h 24.November 2017 Hubalek/Scherrer (Dauer 90 Minuten,

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die

Mehr

Vorlesung 13b. Relative Entropie

Vorlesung 13b. Relative Entropie Vorlesung 13b Relative Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). 2 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. S sei eine abzählbare Menge (ein

Mehr

Skript und Übungen Teil II

Skript und Übungen Teil II Vorkurs Mathematik Herbst 2009 M. Carl E. Bönecke Skript und Übungen Teil II Das erste Semester wiederholt die Schulmathematik in einer neuen axiomatischen Sprache; es ähnelt damit dem nachträglichen Erlernen

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Seminar über Markovketten

Seminar über Markovketten Universität Siegen Fachbereich Mathematik Seminar über Markovketten Sommersemester 003 Dozent Dr. Edgar Kaufmann Seminarteilnehmer Tobias Kegel Alexander Luke Uwe Nowak Übergangswahrscheinlichkeiten höherer

Mehr

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012 Weihnachtszettel zur Vorlesung Stochastik I Wintersemester 0/0 Aufgabe. Der Weihnachtsmann hat vergessen die Weihnachtsgeschenke mit Namen zu beschriften und muss sie daher zufällig verteilen. Dabei enthält

Mehr

Lösungen Wahrscheinlichkeitstheorie

Lösungen Wahrscheinlichkeitstheorie Lösungen Wahrscheinlichkeitstheorie Serie 6 Aufgabe 1 (stochastische Unabhängigkeit). Für die Ereignisse A, B und C sind folgende Wahrscheinlichkeiten bekannt: P (A) = 0, 2; P (B) = 0, 6; P (A \ B) = 0,

Mehr

Serie a) Welche der folgenden Vektoren sind Eigenvektoren der Matrix 1 0 1? 0 1 1

Serie a) Welche der folgenden Vektoren sind Eigenvektoren der Matrix 1 0 1? 0 1 1 Prof. Norbert Hungerbühler Serie Lineare Algebra II ETH Zürich - D-MAVT. a Welche der folgenden Vektoren sind Eigenvektoren der Matrix? i (,,. ii (,,. iii (,,. iv (, 3,. v (,,. Ein Vektor v ist Eigenvektor

Mehr

Lösung zur 13. Hausübung Algebraische Strukturen (keine Abgabe)

Lösung zur 13. Hausübung Algebraische Strukturen (keine Abgabe) TU Kaiserslautern Fachbereich Mathematik Prof. Dr. Andreas Gathmann Inga Schwabrow Lösung zur 13. Hausübung Algebraische Strukturen (keine Abgabe) Aufgabe 1. Wintersemester 2016/17 (1 + i) (1 i) 3 (2 +

Mehr

Erste topologische Eigenschaften: Zusammenhang und Kompaktheit

Erste topologische Eigenschaften: Zusammenhang und Kompaktheit Abschnitt 2 Erste topologische Eigenschaften: Zusammenhang und Kompaktheit Zusammenhang 2.1 Definition. Ein Raum X heißt zusammenhängend, wenn er außer X und Ø keine Teilmengen hat, die zugleich offen

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Diskrete Strukturen. Vorlesung 15: Arithmetik. 5. Februar 2019

Diskrete Strukturen. Vorlesung 15: Arithmetik. 5. Februar 2019 1 Diskrete Strukturen Vorlesung 15: Arithmetik 5. Februar 2019 Nächste Termine Modul Diskrete Strukturen Hörsaalübung (Mo. 9:15) Vorlesung (Di. 17:15) 4.2. Tutorium (Klausurvorbereitung) 11.2. 12.2. 5.2.

Mehr

WS 2015/16 Diskrete Strukturen Kapitel 3: Kombinatorik (3)

WS 2015/16 Diskrete Strukturen Kapitel 3: Kombinatorik (3) WS 2015/16 Diskrete Strukturen Kapitel 3: Kombinatorik (3) Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_15

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Lineare Gleichungssysteme und Matrizen

Lineare Gleichungssysteme und Matrizen Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 25 Überblick Überblick Metropolis-Algorithmus

Mehr

Modellierung WS 2014/15. Wahrscheinlichkeits-Modelle und stochastische Prozesse. (mit Folien von Prof. H. Schütze)

Modellierung WS 2014/15. Wahrscheinlichkeits-Modelle und stochastische Prozesse. (mit Folien von Prof. H. Schütze) Modellierung WS 2014/15 Wahrscheinlichkeits-Modelle und stochastische Prozesse (mit Folien von Prof. H. Schütze) Prof. Norbert Fuhr 1 / 63 Wahrscheinlichkeits-Modelle Wahrscheinlichkeits-Modelle Zufalls-Experiment

Mehr

Wahrscheinlichkeits-Modelle. Modellierung WS 2014/15. Wahrscheinlichkeits-Modelle. und stochastische Prozesse. (mit Folien von Prof. H.

Wahrscheinlichkeits-Modelle. Modellierung WS 2014/15. Wahrscheinlichkeits-Modelle. und stochastische Prozesse. (mit Folien von Prof. H. Wahrscheinlichkeits-Modelle Modellierung WS 2014/15 Wahrscheinlichkeits-Modelle und stochastische Prozesse (mit Folien von Prof. H. Schütze) Prof. Norbert Fuhr Zufalls-Experiment Ein Zufalls-Experiment

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1

Lösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1 D-MAVT Lineare Algebra II FS 8 Prof. Dr. N. Hungerbühler Lösungen Serie. Welche der folgenden Vektoren sind Eigenvektoren der Matrix? (a) (,, ). Ein Vektor v ist Eigenvektor von A :=, falls Av ein skalares

Mehr

Algorithmen II Vorlesung am

Algorithmen II Vorlesung am Algorithmen II Vorlesung am..03 Randomisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum

Mehr

Kombinatorik kompakt. Stochastik WS 2016/17 1

Kombinatorik kompakt. Stochastik WS 2016/17 1 Kombinatorik kompakt Stochastik WS 2016/17 1 Übersicht Auswahl/Kombinationen von N aus m Elementen Statistische unterscheidbare ununterscheidbare Physik Objekte (gleiche) Objekte ( ohne m N m+n 1 ) N mit

Mehr

55 Lokale Extrema unter Nebenbedingungen

55 Lokale Extrema unter Nebenbedingungen 55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :

Mehr

7. Übungsblatt - Lösungsskizzen

7. Übungsblatt - Lösungsskizzen Einführung in die Wahrscheinlicheitstheorie und Statisti Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 08/9 7. Übungsblatt - Lösungssien Aufgabe 5 Faltung und Ausdünnung einer Poisson-Verteilung,

Mehr

Einführung in Markoff-Ketten

Einführung in Markoff-Ketten Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung

Mehr

6 Lineare Kongruenzen

6 Lineare Kongruenzen 6 Lineare Kongruenzen Sei m > 0 un a, b beliebig. Wir wollen ie Frage untersuchen, unter welchen Beingungen an a, b un m eine Zahl x 0 existiert, so aß ax 0 b mo m. Wenn ein solches x 0 existiert, sagen

Mehr

Beispiel: Primelemente in den Gaußschen Zahlen

Beispiel: Primelemente in den Gaußschen Zahlen Beispiel: Primelemente in den Gaußschen Zahlen Satz Primelemente in Z[i] Für die Primelemente π Z[i] gilt bis auf Assoziiertheit 1 N(π) = p für ein p P oder 2 π = p für ein p P mit p x 2 + y 2 für (x,

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

2 Stationarität. Strikte Stationarität

2 Stationarität. Strikte Stationarität 2 Stationarität. Strikte Stationarität Die in 1 benutzten Begriffe sind noch zu präzisieren : Definition 2.1. a) Ein stochastischer Prozess {X t } t T heißt strikt stationär, falls für je endlich viele

Mehr

Vorlesung 4b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson

Vorlesung 4b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson Vorlesung 4b Versuche, Erfolge, Wartezeiten: Die Welt des p-münzwurfs - von Bernoulli zu Poisson 1 0. Fortgesetzter p-münzwurf 2 Definition: Sei p (0,1), q := 1 p. Eine Bernoulli-Folge zum Parameter p

Mehr

Fragenkatalog Kapitel 1 Fehleranalyse

Fragenkatalog Kapitel 1 Fehleranalyse Teil 1: Numerik katalog Kapitel 1 Fehleranalyse 1. Zwischen was besteht ein funktionaler Zusammenhang z i? Welche Form hat er? 2. Welche 4 Typen von Fehlerquellen gibt es? Nenne Beispiele! 3. Wie berechnet

Mehr

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.

Teil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v. Teil I Lineare Algebra I Vorlesung Sommersemester 2 Olga Holtz MA 378 Sprechstunde Fr 4-6 und nv holtz@mathtu-berlinde Sadegh Jokar MA 373 Sprechstunde, Do 2-4 und nv jokar@mathtu-berlinde Kapitel 4 Der

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)

1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende) . Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)

Mehr

Vorlesung 7b. Der Zentrale Grenzwertsatz

Vorlesung 7b. Der Zentrale Grenzwertsatz Vorlesung 7b Der Zentrale Grenzwertsatz 1 Zentraler Grenzwertsatz (Tschebyscheff) Die standardisierte Summe von unabhängigen, identisch verteilten R-wertigen Zufallsvariablen konvergiert in Verteilung

Mehr

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,

Mehr

KAPITEL 1. Martingale

KAPITEL 1. Martingale KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst

Mehr

Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation. Propp-Wilson-Algorithmus

Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation. Propp-Wilson-Algorithmus Technische Universität Berlin Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation Propp-Wilson-Algorithmus Lisa Brust Matrikelnummer: 330793 Master Mathematik 30. Juni 2016

Mehr

NP-Vollständigkeit einiger Zahlprobleme

NP-Vollständigkeit einiger Zahlprobleme NP-Vollständigkeit einiger Zahlprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 22. Januar 2010 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit

Mehr

Stochastische Prozesse Stoffzusammenfassung

Stochastische Prozesse Stoffzusammenfassung Stochastische Prozesse Stoffzusammenfassung Joachim Breitner 7. August 2018 Diese Zusammefassung ist natürlich alles andere als vollständig und zu knapp, um immer alle Aussagen mit Voraussetzungen korrekt

Mehr

Vorlesung 6b. Von der Binomial-zur Normalverteilung

Vorlesung 6b. Von der Binomial-zur Normalverteilung Vorlesung 6b 1 Vorlesung 6b Von der Binomial-zur Normalverteilung Binomialverteilungen mit großem n und großer Varianz npq sehen glockenförmig aus, wenn man sie geeignet ins Bild holt. 2 Binomialverteilungen

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Institut für Analysis und Scientific Computing E. Weinmüller WS 2015

Institut für Analysis und Scientific Computing E. Weinmüller WS 2015 Institut für Analysis und Scientific Computing TU Wien E. Weinmüller WS 5 L I N E A R E A L G E B R A F Ü R T P H, U E (3.64). Haupttest (FR,..5) (mit Lösung ) Ein einfacher Taschenrechner ist erlaubt.

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

6.1 Zerlegungen Ober- und Unterintegrale Existenz des Integrals

6.1 Zerlegungen Ober- und Unterintegrale Existenz des Integrals Kapitel 6 Das Riemann-Integral In diesem Abschnitt wollen wir einen Integralbegriff einführen. Dieser Integralbegriff geht auf Riemann 1 zurück und beruht auf einer naheliegenden Anschauung. Es wird sich

Mehr

Vorlesung. Inhalt. Lineare Algebra und Wahrscheinlichkeitsrechnung für Informatik Gunter Ochs, Nico Rompos Sommersemester 2016

Vorlesung. Inhalt. Lineare Algebra und Wahrscheinlichkeitsrechnung für Informatik Gunter Ochs, Nico Rompos Sommersemester 2016 Vorlesung Lineare Algebra und Wahrscheinlichkeitsrechnung für Informatik Gunter Ochs, Nico Rompos Sommersemester 2016 Inhalt Polynome, Algebraische Strukturen Vektorrechnung Lineare Algebra Elementare

Mehr

Kapitel 7. Martingale 1

Kapitel 7. Martingale 1 Kapitel 7 Martingale 1 7.1 Definition: a) (Ω, F) sei ein messbarer Raum. Eine Filtration (oder Filtrierung) ist eine aufsteigende Folge F = (F n ) n N von Teil-σ-Algebren von F, d.h. F n F n+1 F für n

Mehr

Die Abbildung zeigt die Kette aus dem "

Die Abbildung zeigt die Kette aus dem ½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;

Mehr

Körper- und Galoistheorie

Körper- und Galoistheorie Prof. Dr. H. Brenner Osnabrück SS 2011 Körper- und Galoistheorie Vorlesung 11 Zerfällungskörper Wir wollen zu einem Polynom F K[X] einen Körper konstruieren, über dem F in Linearfaktoren zerfällt. Dies

Mehr

9 Schnell mischende Markov-Ketten

9 Schnell mischende Markov-Ketten 9 Schnell mischende Markov-Ketten Allgemeines zu schnell mischenden Markov-Ketten findet man zum Beispiel in dem Buch Introduction to Markov Chains von Behrends (2000). Außerdem haben wir von einem Teil

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

Beweis: Färbe jede Kante zufällig und unabhängig mit Ws 1 2. Ereignis A i : i-te Clique K (i), i = 1,..., ( n K (i)

Beweis: Färbe jede Kante zufällig und unabhängig mit Ws 1 2. Ereignis A i : i-te Clique K (i), i = 1,..., ( n K (i) Die Probabilistische Methode Beobachtung: Besitzt ein Ereignis Ws > 0, so muss es existieren! Notation: Sei K n der komplette Graph mit n Knoten und ( n 2) Kanten. Satz Falls 2 (k 2) 1 > ( n k), existiert

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Unabhängigkeit Prof. Dr. Achim Klenke http://www.aklenke.de 6. Vorlesung: 02.12.2011 1/30 Inhalt 1 Wahrscheinlichkeit 2 2/30 Wahrscheinlichkeit

Mehr

Zufällige Polytope. Benedikt Liedtke. 18. Januar 2010

Zufällige Polytope. Benedikt Liedtke. 18. Januar 2010 Zufällige Polytope Benedikt Liedtke 18. Januar 2010 Inhaltsverzeichnis 1 Einleitung Motivation Definition zufälliges konvexes Polytop 3 verschiedene Modelle E(K, n) Ef k (K n ) Inhaltsverzeichnis 1 Einleitung

Mehr