Vorlesung 13a. Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen. Teil 2
|
|
- Detlef Raske
- vor 5 Jahren
- Abrufe
Transkript
1 Vorlesung 13a Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen Teil 2 1
2 Die Erneuerungskette: 2
3 Die Erneuerungskette: Auf S = N betrachten wir folgende stochastische Dynamik:
4 Die Erneuerungskette: Auf S = N betrachten wir folgende stochastische Dynamik: P(i, i 1) = 1 für i > 1, P(1, i) = λ i, i = 1,2,...
5 Die Erneuerungskette: Auf S = N betrachten wir folgende stochastische Dynamik: P(i, i 1) = 1 für i > 1, P(1, i) = λ i, i = 1,2,... mit vorgegebenen W-Gewichten λ i.
6 Die Erneuerungskette: Auf S = N betrachten wir folgende stochastische Dynamik: P(i, i 1) = 1 für i > 1, P(1, i) = λ i, i = 1,2,... mit vorgegebenen W-Gewichten λ i. Interpretation: i ist die Restlebenszeit eines Gerätes.
7 Die Erneuerungskette: Auf S = N betrachten wir folgende stochastische Dynamik: P(i, i 1) = 1 für i > 1, P(1, i) = λ i, i = 1,2,... mit vorgegebenen W-Gewichten λ i. Interpretation: i ist die Restlebenszeit eines Gerätes. Wenn das Gerät die Restlebenszeit 1 erreicht hat, geht es im nächsten Schritt kaputt und wird sofort durch ein neues Gerät ersetzt, dessen anfängliche Restlebenszeit L die Verteilunsgewichte (λ i ) hat.
8 Wir suchen nach der Gleichgewichtsverteilung π von P : 3
9 Wir suchen nach der Gleichgewichtsverteilung π von P : (G) π i π 1 λ i = π i, i = 1,2,...
10 Wir suchen nach der Gleichgewichtsverteilung π von P : (G) π i π 1 λ i = π i, i = 1,2,... π i π i+1 = π 1 λ i, i = 1,2,...
11 Wir suchen nach der Gleichgewichtsverteilung π von P : (G) π i π 1 λ i = π i, i = 1,2,... π i π i+1 = π 1 λ i, i = 1,2,... Summiert über i von 1 bis k 1 ergibt das:
12 Wir suchen nach der Gleichgewichtsverteilung π von P : (G) π i π 1 λ i = π i, i = 1,2,... π i π i+1 = π 1 λ i, i = 1,2,... Summiert über i von 1 bis k 1 ergibt das: π 1 π k = π 1 P{L < k},
13 Wir suchen nach der Gleichgewichtsverteilung π von P : (G) π i π 1 λ i = π i, i = 1,2,... π i π i+1 = π 1 λ i, i = 1,2,... Summiert über i von 1 bis k 1 ergibt das: π 1 π k = π 1 P{L < k}, oder (dazu äquivalent) π k = π 1 P{L k}.
14 π k = π 1 P{L k} 4
15 π k = π 1 P{L k} Treffen wir jetzt die Annahme EL <. Durch Summation über alle k bekommen wir:
16 π k = π 1 P{L k} Treffen wir jetzt die Annahme EL <. Durch Summation über alle k bekommen wir: 1 = π 1 EL, und das eingesetzt in obige Gleichung liefert:
17 π k = π 1 P{L k} Treffen wir jetzt die Annahme EL <. Durch Summation über alle k bekommen wir: 1 = π 1 EL, und das eingesetzt in obige Gleichung liefert: P{L k} π k = EL
18 π k = π 1 P{L k} Treffen wir jetzt die Annahme EL <. Durch Summation über alle k bekommen wir: 1 = π 1 EL, und das eingesetzt in obige Gleichung liefert: P{L k} π k = EL Dies erfüllt in der Tat die Bedingung (G):
19 π k = π 1 P{L k} Treffen wir jetzt die Annahme EL <. Durch Summation über alle k bekommen wir: 1 = π 1 EL, und das eingesetzt in obige Gleichung liefert: P{L k} π k = EL Dies erfüllt in der Tat die Bedingung (G): π k π k+1 = π 1 P{L = k}.
20 Sei R 1 := R 1 (X) := inf{n 1 ; X n = 1} die Rückkehrzeit des Pfades X zum Zustand 1. 5
21 Sei R 1 := R 1 (X) := inf{n 1 ; X n = 1} die Rückkehrzeit des Pfades X zum Zustand 1. Wir haben gezeigt: π 1 = 1, m.a. W. EL
22 Sei R 1 := R 1 (X) := inf{n 1 ; X n = 1} die Rückkehrzeit des Pfades X zum Zustand 1. Wir haben gezeigt: π 1 = 1, m.a. W. EL π 1 = 1 E 1 (R 1 ).
23 Sei R 1 := R 1 (X) := inf{n 1 ; X n = 1} die Rückkehrzeit des Pfades X zum Zustand 1. Wir haben gezeigt: π 1 = 1, m.a. W. EL π 1 = 1 E 1 (R 1 ). Das Gewicht des Zustands 1 im Gleichgewicht ist die erwartete Rückkehrzeit bei Start in 1.
24 Die eben formulierte Beziehung gilt in einem ganz allgemeinen Rahmen. 6
25 Die eben formulierte Beziehung gilt in einem ganz allgemeinen Rahmen. Dazu definieren wir erst:
26 Die eben formulierte Beziehung gilt in einem ganz allgemeinen Rahmen. Dazu definieren wir erst: Eine Übergangswahrscheinlichkeit P auf S heißt irreduzibel, wenn es für alle a, b S ein n N gibt mit P n (a, b) > 0.
27 Die eben formulierte Beziehung gilt in einem ganz allgemeinen Rahmen. Dazu definieren wir erst: Eine Übergangswahrscheinlichkeit P auf S heißt irreduzibel, wenn es für alle a, b S ein n N gibt mit P n (a, b) > 0. Beispiele dafür: Irrfahrten auf zusammenhängenden Graphen, Ehrenfest-Modell,...
28 Satz Ist π eine Gleichgewichtsverteiltung zu einer irreduziblen Übergangswahrscheinlichkeit P, dann gilt für alle a S: vgl. Skript Kersting, Korollar 5.7 7
29 Satz Ist π eine Gleichgewichtsverteiltung zu einer irreduziblen Übergangswahrscheinlichkeit P, dann gilt für alle a S: π(a) = 1 E a (R a ). vgl. Skript Kersting, Korollar 5.7
30 Zum Abschluss des Kapitels überlegen wir noch, wie man erwartete Treffzeiten mit der Zerlegung nach dem ersten Schritt in den Griff bekommt. 8
31 Zum Abschluss des Kapitels überlegen wir noch, wie man erwartete Treffzeiten mit der Zerlegung nach dem ersten Schritt in den Griff bekommt. Sei dazu X = (X 0, X 1,...) ein zufälliger Pfad auf S, der der stochastischen Dynamik P folgt.
32 Zum Abschluss des Kapitels überlegen wir noch, wie man erwartete Treffzeiten mit der Zerlegung nach dem ersten Schritt in den Griff bekommt. Sei dazu X = (X 0, X 1,...) ein zufälliger Pfad auf S, der der stochastischen Dynamik P folgt. Man sagt dafür auch: X ist eine Markovkette mit Übergangswahrscheinlichkeit P.
33 Satz: 9
34 Satz: Sei B eine Teilmenge von S, und T B := inf{n 0 : X n B}.
35 Satz: Sei B eine Teilmenge von S, und T B := inf{n 0 : X n B}. Dann gilt für die erwarteten Treffzeiten bei Start in a, e(a) := E a [T B ], das Gleichungssystem:
36 Satz: Sei B eine Teilmenge von S, und T B := inf{n 0 : X n B}. Dann gilt für die erwarteten Treffzeiten bei Start in a, e(a) := E a [T B ], das Gleichungssystem: e(a) = 1 + b S P(a, b) e(b) für a / B, e(a) = 0 für a B.
37 Der Beweis des Satzes beruht auf der Zerlegung nach dem ersten Schritt: 10
38 Der Beweis des Satzes beruht auf der Zerlegung nach dem ersten Schritt: Ist a / B, dann muss man jedenfalls einen Schritt machen.
39 Der Beweis des Satzes beruht auf der Zerlegung nach dem ersten Schritt: Ist a / B, dann muss man jedenfalls einen Schritt machen. Für die um 1 verminderte Treffzeit von B folgt mit dem Satz von der totalen Wahrscheinlichkeit:
40 Der Beweis des Satzes beruht auf der Zerlegung nach dem ersten Schritt: Ist a / B, dann muss man jedenfalls einen Schritt machen. Für die um 1 verminderte Treffzeit von B folgt mit dem Satz von der totalen Wahrscheinlichkeit: E a [T 1] = b S P a {X 1 = b}e b [T].
41 Der Beweis des Satzes beruht auf der Zerlegung nach dem ersten Schritt: Ist a / B, dann muss man jedenfalls einen Schritt machen. Für die um 1 verminderte Treffzeit von B folgt mit dem Satz von der totalen Wahrscheinlichkeit: E a [T 1] = b S P a {X 1 = b}e b [T]. (Vergleiche dazu auch: Skript Kersting S. 125)
42 Mini-Beispiel: 11
43 S := {a, b}, Mini-Beispiel: P(a, b) := p
44 S := {a, b}, Mini-Beispiel: P(a, b) := p E a [T b ] =?
45 S := {a, b}, Mini-Beispiel: P(a, b) := p E a [T b ] =? E a [T b ] = 1 + (1 p)e a [T b ]
46 S := {a, b}, Mini-Beispiel: P(a, b) := p E a [T b ] =? E a [T b ] = 1 + (1 p)e a [T b ] = E a [T b ] = 1 p.
47 S := {a, b}, Mini-Beispiel: P(a, b) := p E a [T b ] =? E a [T b ] = 1 + (1 p)e a [T b ] = E a [T b ] = 1 p. Das wussten wir auch so, denn unter P a ist hier T b geometrisch verteilt zum Parameter p.
48 Beispiel: 12
49 Beispiel: S := {0,1,2,..., r}, mit r N.
50 Beispiel: S := {0,1,2,..., r}, mit r N. P(a, x) := 1 für x = a + 1,..., r. r a
51 Beispiel: S := {0,1,2,..., r}, mit r N. P(a, x) := 1 für x = a + 1,..., r. r a E 0 [T r ] =?
52 Beispiel: S := {0,1,2,..., r}, mit r N. P(a, x) := 1 für x = a + 1,..., r. r a E 0 [T r ] =? Sei e(x) := E x [T r ], x = 0,..., r.
53 Beispiel: S := {0,1,2,..., r}, mit r N. P(a, x) := 1 für x = a + 1,..., r. r a E 0 [T r ] =? Sei e(x) := E x [T r ], x = 0,..., r. Zerlegung nach dem ersten Schritt ergibt
54 Beispiel: S := {0,1,2,..., r}, mit r N. P(a, x) := 1 für x = a + 1,..., r. r a E 0 [T r ] =? Sei e(x) := E x [T r ], x = 0,..., r. Zerlegung nach dem ersten Schritt ergibt e(x) = (e(x + 1) e(r)) r x
55 Beispiel: S := {0,1,2,..., r}, mit r N. P(a, x) := 1 für x = a + 1,..., r. r a E 0 [T r ] =? Sei e(x) := E x [T r ], x = 0,..., r. Zerlegung nach dem ersten Schritt ergibt e(x) = (e(x + 1) e(r)) r x (r x)e(x) = r x + e(x + 1) e(r).
56 Der Rest ist Rechnung: 13
57 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r)
58 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r) Für x + 1 statt x:
59 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r) Für x + 1 statt x: (r (x+1))e(x+1) = r (x+1)+e(x+2)+...+e(r)
60 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r) Für x + 1 statt x: (r (x+1))e(x+1) = r (x+1)+e(x+2)+...+e(r) Subtraktion ergibt:
61 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r) Für x + 1 statt x: (r (x+1))e(x+1) = r (x+1)+e(x+2)+...+e(r) Subtraktion ergibt: (r x)e(x) (r x 1)e(x + 1) = 1 + e(x + 1)
62 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r) Für x + 1 statt x: (r (x+1))e(x+1) = r (x+1)+e(x+2)+...+e(r) Subtraktion ergibt: (r x)e(x) (r x 1)e(x + 1) = 1 + e(x + 1) e(x) e(x + 1) = r x 1, x = 1,..., r 1.
63 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r) Für x + 1 statt x: (r (x+1))e(x+1) = r (x+1)+e(x+2)+...+e(r) Subtraktion ergibt: (r x)e(x) (r x 1)e(x + 1) = 1 + e(x + 1) e(x) e(x + 1) = 1 r x, x = 1,..., r 1. Insbesondere ist e(r 1) = 1. Summation ergibt:
64 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r) Für x + 1 statt x: (r (x+1))e(x+1) = r (x+1)+e(x+2)+...+e(r) Subtraktion ergibt: (r x)e(x) (r x 1)e(x + 1) = 1 + e(x + 1) e(x) e(x + 1) = r x 1, x = 1,..., r 1. Insbesondere ist e(r 1) = 1. Summation ergibt: e(x) = 1 r x + 1 r x
65 Der Rest ist Rechnung: (r x)e(x) = r x + e(x + 1) e(r) Für x + 1 statt x: (r (x+1))e(x+1) = r (x+1)+e(x+2)+...+e(r) Subtraktion ergibt: (r x)e(x) (r x 1)e(x + 1) = 1 + e(x + 1) e(x) e(x + 1) = r x 1, x = 1,..., r 1. Insbesondere ist e(r 1) = 1. Summation ergibt: e(x) = r x 1 + r x E 0 [T r ] = e(0) = r ( ln r für r ).
66 Das eben diskutierte Beispiel tritt auf bei der Analyse eines Algorithmus zum Auffinden des Maximums von r verschiedenen Zahlen in einer rein zufälligen Anordnung a(1),..., a(r). Man begint mit dem Eintrag a(1) und vergleicht ihn mit a(2), a(3),..., bis man zu einem a(i) > a(1) kommt. Man trägt a(i) anstelle von a(1) ein, und vergleicht die verbleibenden a(i + 1), a(i + 2),... mit a(i), bis man zu einem a(j) > a(i) kommt, usw. Die zufällige Folge der Ränge von a(1), a(i), a(j),... folgt dann der im Beispiel beschriebenen Dynamik, und die Treffzeit von r entspricht der Anzahl der Einträge. Vgl. dazu Skript Kersting Seite
Vorlesung 12b. Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen. Teil 1
Vorlesung 12b Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen Teil 1 1 Wir wissen schon: 2 Wir wissen schon: Eine gemeinsame Verteilung kann man verstehen als Produkt aus Start-und Übergangsverteilung:
MehrVorlesung 9b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 9b Bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 1. Zerlegung der gemeinsamen Verteilung (Buch S. 111) 2 Bisher legten wir das Hauptaugenmerk auf den Aufbau der gemeinsamen Verteilung
MehrZweitklausur. b p b. q a. c 1. p a
Elementare Stochastik SoSe 27 Zweitklausur Lösungen. Berechnen Sie für die angegebenen Übergangswahrscheinlichkeiten (mit p a,p b >, q a := p a, q b := p b ) die erwartete Anzahl von Schritten bis zum
MehrVorlesung 11b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 11b Bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Bisher legten wir das Hauptaugenmerk auf den Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten
MehrVorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten
Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a
MehrVorlesung 8b. Zweistufige Zufallsexperimente. Teil 1
Vorlesung 8b Zweistufige Zufallsexperimente Teil 1 1 Stellen wir uns ein zufälliges Paar X = (X 1, X 2 ) vor, das auf zweistufige Weise zustande kommt: es gibt eine Regel, die besagt, wie X 2 verteilt
MehrVertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
MehrDas Prinzip der Suchmaschine Google TM
/9 Das Prinzip der Suchmaschine Google TM Numerische Mathematik WS 20/2 Basieren auf dem Paper The $25,000,000,000 Eigenvector: The Linear Algebra behind Google von Kurt Bryan und Tanya Leise (SIAM Review,
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
MehrDie Mathematik hinter Google
Die Mathematik hinter Google Wolfram Decker TU Kaiserslautern Neustadt, 5. Dezember 05 Elemente einer Suchmaschine WWW Crawler Module Page Repository User query independent Indexing Module 000 000 000
Mehri Pr(X = i). Bsp: Sei X die Summe zweier Würfe eines Würfels. Dann gilt E[X] =
Erwartungswert Definition Erwartungswert Der Erwartungswert einer diskreten ZV ist definiert als E[X] = i i Pr(X = i). E[X] ist endlich, falls i i Pr(X = i) konvergiert, sonst unendlich. Bsp: Sei X die
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten
MehrEin Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr
Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,
MehrDisMod-Repetitorium Tag 3
DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität
Mehr16.3 Rekurrente und transiente Zustände
16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht
MehrBsp. 120 Ein-Prozessorsystem mit mehreren E/A-Einheiten.
Bsp. 20 Ein-Prozessorsystem mit mehreren E/A-Einheiten. Ein Programm. das sich in der CPU befindet, geht mit Wkt. q i in die I/O-Einheit i über, oder endet (mit Wkt. q 0 ) und macht Platz für ein neues
MehrLösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }
Zur Einleitung: Lineare Gleichungssysteme Wir untersuchen zunächst mit Methoden, die Sie vermutlich aus der Schule kennen, explizit einige kleine lineare Gleichungssysteme. Das Gleichungssystem I wird
MehrDer Ergodensatz. Hendrik Hülsbusch
Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen
MehrVorlesung Mathematik für Ingenieure 1 (Wintersemester 2008/09)
Vorlesung Mathematik für Ingenieure Wintersemester 8/9 Kapitel 4: Matrizen, lineare Abbildungen und Gleichungssysteme Volker Kaibel Otto-von-Guericke Universität Magdeburg Version vom 5. November 8 Page-Rank
MehrVorlesung 8b. Zweistufige Zufallsexperimente. Teil 2
Vorlesung 8b Zweistufige Zufallsexperimente Teil 2 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen: P(X 1 = a 1,X 2 = a 2 ) = P(X 1 = a 1 )P a1 (X
Mehr3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur
3. Markov Ketten in stetiger Zeit, Teil II 3.2. Klassenstruktur Ein Zustand j ist erreichbar von i (i j), falls P i (X t = j für ein t 0) > 0. i j, wenn i erreichbar von j und j erreichbar von i ist. Die
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
MehrVorlesung 5a. Zufallsvariable mit Dichten
Vorlesung 5a 1 Vorlesung 5a Zufallsvariable mit Dichten Vorlesung 5a Zufallsvariable mit Dichten Teil 1 Uniforme Verteilung, Exponentialverteilung. Kontinuierlich uniform verteilte Zufallsvariable: 2 Kontinuierlich
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrArbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute
3.4 PageRank Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute Wichtigkeit von Webseiten; nicht Relevanz bezüglich Benutzeranfrage. Anfrageunabhängiges Ranking. Ausgangspunkt: Eingangsgrad.
MehrSeminar zur. Zahlentheorie. Prof. Dr. T. Wedhorn. Vortrag zum Thema. Euklidische und faktorielle Ringe Peter Picht. und.
Seminar zur Zahlentheorie Prof. Dr. T. Wedhorn Vortrag zum Thema Euklidische und faktorielle Ringe 13.11.2007 Peter Picht und Stephan Schmidt 4 Euklidische und faktorielle Ringe (A) Assoziierheit, Irreduziblität,
MehrHauptachsentransformation: Eigenwerte und Eigenvektoren
Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung
MehrLösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }
Zur Einleitung: Lineare Gleichungssysteme Wir untersuchen zunächst mit Methoden, die Sie vermutlich aus der Schule kennen, explizit einige kleine lineare Gleichungssysteme. Das Gleichungssystem I wird
MehrUNTERLAGEN ZUR TEILBARKEIT IN KOMMUTATIVEN RINGEN
UNTERLAGEN ZUR TEILBARKEIT IN KOMMUTATIVEN RINGEN VORLESUNG KOMMUTATIVE ALGEBRA, SOMMERSEMESTER 2007 1. Definitionen Ein kommutativer Ring mit Eins R ist ein Integritätsbereich, wenn er zumindest zwei
MehrVorlesung 9b. Bedingte Wahrscheinlichkeiten und bedingte Erwartungswerte
Vorlesung 9b Bedingte Wahrscheinlichkeiten und bedingte Erwartungswerte 1 Definition. Seien E 1, E 2 Ereignisse. Dann ist die bedingte Wahrscheinlichkeit von E 2, gegeben E 1, definiert als P(E 2 E 1 )
MehrAbgabetermin: 5. Mai 2017, Uhr
Übungsblatt Nr. 1 26. April 2017 1. Sei F k, k K, eine Familie von σ-algebren, wobei K eine beliebige Menge ist. Zeigen Sie, daß F d = k K F k ebenfalls eine σ-algebra ist! Beweisen Sie, daß die Vereinigung
Mehrfür die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij.
8 Markov-Ketten 8.1 Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.
MehrLineares Gleichungssystem - n = 3
Lineares Gleichungssystem - n = 3. Problemstellung Für Unbekannte ist das Gleichungssystem geometrisch äquivalent der Suche nach einem Schnittpunkt zweier Geraden in R. Für 3 Unbekannte ist das Äquivalent
Mehr10 Schnell mischende Markov-Ketten
10 Schnell mischende Markov-Ketten Allgemeines zu schnell mischenden Markov-Ketten findet man zum Beispiel in dem Buch Introduction to Markov Chains von Behrends (2000). Außerdem haben wir von einem Teil
MehrPr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.
2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet
MehrWS 2013/14. Diskrete Strukturen
WS 2013/14 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws1314
Mehr3. Prozesse mit kontinuierlicher Zeit
3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 6 Langzeitverhalten, stationäre Masse Multiplikation von Rechts! Literatur Kapitel 6 * Grimmett & Stirzaker: Kapitel 6.4 * Krengel: 6. 6. Motivation Um die nachfolgenden
MehrEinführung in Stochastische Prozesse und Zeitreihenanalyse Vorlesung, 2017S, 2.0h 24.November 2017 Hubalek/Scherrer
Name: Mat.Nr.: Bitte keinen Rotstift oder Bleistift verwenden! 105.59 Einführung in Stochastische Prozesse und Zeitreihenanalyse Vorlesung, 2017S, 2.0h 24.November 2017 Hubalek/Scherrer (Dauer 90 Minuten,
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die
MehrVorlesung 13b. Relative Entropie
Vorlesung 13b Relative Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). 2 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. S sei eine abzählbare Menge (ein
MehrSkript und Übungen Teil II
Vorkurs Mathematik Herbst 2009 M. Carl E. Bönecke Skript und Übungen Teil II Das erste Semester wiederholt die Schulmathematik in einer neuen axiomatischen Sprache; es ähnelt damit dem nachträglichen Erlernen
MehrEinführung in die Theorie der Markov-Ketten. Jens Schomaker
Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrSeminar über Markovketten
Universität Siegen Fachbereich Mathematik Seminar über Markovketten Sommersemester 003 Dozent Dr. Edgar Kaufmann Seminarteilnehmer Tobias Kegel Alexander Luke Uwe Nowak Übergangswahrscheinlichkeiten höherer
MehrWeihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012
Weihnachtszettel zur Vorlesung Stochastik I Wintersemester 0/0 Aufgabe. Der Weihnachtsmann hat vergessen die Weihnachtsgeschenke mit Namen zu beschriften und muss sie daher zufällig verteilen. Dabei enthält
MehrLösungen Wahrscheinlichkeitstheorie
Lösungen Wahrscheinlichkeitstheorie Serie 6 Aufgabe 1 (stochastische Unabhängigkeit). Für die Ereignisse A, B und C sind folgende Wahrscheinlichkeiten bekannt: P (A) = 0, 2; P (B) = 0, 6; P (A \ B) = 0,
MehrSerie a) Welche der folgenden Vektoren sind Eigenvektoren der Matrix 1 0 1? 0 1 1
Prof. Norbert Hungerbühler Serie Lineare Algebra II ETH Zürich - D-MAVT. a Welche der folgenden Vektoren sind Eigenvektoren der Matrix? i (,,. ii (,,. iii (,,. iv (, 3,. v (,,. Ein Vektor v ist Eigenvektor
MehrLösung zur 13. Hausübung Algebraische Strukturen (keine Abgabe)
TU Kaiserslautern Fachbereich Mathematik Prof. Dr. Andreas Gathmann Inga Schwabrow Lösung zur 13. Hausübung Algebraische Strukturen (keine Abgabe) Aufgabe 1. Wintersemester 2016/17 (1 + i) (1 i) 3 (2 +
MehrErste topologische Eigenschaften: Zusammenhang und Kompaktheit
Abschnitt 2 Erste topologische Eigenschaften: Zusammenhang und Kompaktheit Zusammenhang 2.1 Definition. Ein Raum X heißt zusammenhängend, wenn er außer X und Ø keine Teilmengen hat, die zugleich offen
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
MehrDiskrete Strukturen. Vorlesung 15: Arithmetik. 5. Februar 2019
1 Diskrete Strukturen Vorlesung 15: Arithmetik 5. Februar 2019 Nächste Termine Modul Diskrete Strukturen Hörsaalübung (Mo. 9:15) Vorlesung (Di. 17:15) 4.2. Tutorium (Klausurvorbereitung) 11.2. 12.2. 5.2.
MehrWS 2015/16 Diskrete Strukturen Kapitel 3: Kombinatorik (3)
WS 2015/16 Diskrete Strukturen Kapitel 3: Kombinatorik (3) Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_15
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrLineare Gleichungssysteme und Matrizen
Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 25 Überblick Überblick Metropolis-Algorithmus
MehrModellierung WS 2014/15. Wahrscheinlichkeits-Modelle und stochastische Prozesse. (mit Folien von Prof. H. Schütze)
Modellierung WS 2014/15 Wahrscheinlichkeits-Modelle und stochastische Prozesse (mit Folien von Prof. H. Schütze) Prof. Norbert Fuhr 1 / 63 Wahrscheinlichkeits-Modelle Wahrscheinlichkeits-Modelle Zufalls-Experiment
MehrWahrscheinlichkeits-Modelle. Modellierung WS 2014/15. Wahrscheinlichkeits-Modelle. und stochastische Prozesse. (mit Folien von Prof. H.
Wahrscheinlichkeits-Modelle Modellierung WS 2014/15 Wahrscheinlichkeits-Modelle und stochastische Prozesse (mit Folien von Prof. H. Schütze) Prof. Norbert Fuhr Zufalls-Experiment Ein Zufalls-Experiment
MehrKapitel 6 Martingale
Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse
MehrLösungen Serie 2. D-MAVT Lineare Algebra II FS 2018 Prof. Dr. N. Hungerbühler 1 0 1? 0 1 1
D-MAVT Lineare Algebra II FS 8 Prof. Dr. N. Hungerbühler Lösungen Serie. Welche der folgenden Vektoren sind Eigenvektoren der Matrix? (a) (,, ). Ein Vektor v ist Eigenvektor von A :=, falls Av ein skalares
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am..03 Randomisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum
MehrKombinatorik kompakt. Stochastik WS 2016/17 1
Kombinatorik kompakt Stochastik WS 2016/17 1 Übersicht Auswahl/Kombinationen von N aus m Elementen Statistische unterscheidbare ununterscheidbare Physik Objekte (gleiche) Objekte ( ohne m N m+n 1 ) N mit
Mehr55 Lokale Extrema unter Nebenbedingungen
55 Lokale Extrema unter Nebenbedingungen Sei f : O R mit O R n differenzierbar. Notwendige Bescheinigung für ein lokales Extremum in p 0 ist dann die Bedingung f = 0 (siehe 52.4 und 49.14). Ist nun F :
Mehr7. Übungsblatt - Lösungsskizzen
Einführung in die Wahrscheinlicheitstheorie und Statisti Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 08/9 7. Übungsblatt - Lösungssien Aufgabe 5 Faltung und Ausdünnung einer Poisson-Verteilung,
MehrEinführung in Markoff-Ketten
Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung
Mehr6 Lineare Kongruenzen
6 Lineare Kongruenzen Sei m > 0 un a, b beliebig. Wir wollen ie Frage untersuchen, unter welchen Beingungen an a, b un m eine Zahl x 0 existiert, so aß ax 0 b mo m. Wenn ein solches x 0 existiert, sagen
MehrBeispiel: Primelemente in den Gaußschen Zahlen
Beispiel: Primelemente in den Gaußschen Zahlen Satz Primelemente in Z[i] Für die Primelemente π Z[i] gilt bis auf Assoziiertheit 1 N(π) = p für ein p P oder 2 π = p für ein p P mit p x 2 + y 2 für (x,
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr2 Stationarität. Strikte Stationarität
2 Stationarität. Strikte Stationarität Die in 1 benutzten Begriffe sind noch zu präzisieren : Definition 2.1. a) Ein stochastischer Prozess {X t } t T heißt strikt stationär, falls für je endlich viele
MehrVorlesung 4b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson
Vorlesung 4b Versuche, Erfolge, Wartezeiten: Die Welt des p-münzwurfs - von Bernoulli zu Poisson 1 0. Fortgesetzter p-münzwurf 2 Definition: Sei p (0,1), q := 1 p. Eine Bernoulli-Folge zum Parameter p
MehrFragenkatalog Kapitel 1 Fehleranalyse
Teil 1: Numerik katalog Kapitel 1 Fehleranalyse 1. Zwischen was besteht ein funktionaler Zusammenhang z i? Welche Form hat er? 2. Welche 4 Typen von Fehlerquellen gibt es? Nenne Beispiele! 3. Wie berechnet
MehrTeil I. Lineare Algebra I Vorlesung Sommersemester Olga Holtz. MA 378 Sprechstunde Fr und n.v.
Teil I Lineare Algebra I Vorlesung Sommersemester 2 Olga Holtz MA 378 Sprechstunde Fr 4-6 und nv holtz@mathtu-berlinde Sadegh Jokar MA 373 Sprechstunde, Do 2-4 und nv jokar@mathtu-berlinde Kapitel 4 Der
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
Mehr1. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme. f(x) min, x G (1.1) (Legende)
. Lineare Optimierungsaufgaben (LOA) als Teilklasse konvexer Optimierungsprobleme X Banachraum, wobei X = R n G zulässige Menge des Optimierungsproblems f: G R Zielfunktion f(x) min, x G (.) (Legende)
MehrVorlesung 7b. Der Zentrale Grenzwertsatz
Vorlesung 7b Der Zentrale Grenzwertsatz 1 Zentraler Grenzwertsatz (Tschebyscheff) Die standardisierte Summe von unabhängigen, identisch verteilten R-wertigen Zufallsvariablen konvergiert in Verteilung
MehrKapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen
Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,
MehrKAPITEL 1. Martingale
KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst
MehrSchriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation. Propp-Wilson-Algorithmus
Technische Universität Berlin Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation Propp-Wilson-Algorithmus Lisa Brust Matrikelnummer: 330793 Master Mathematik 30. Juni 2016
MehrNP-Vollständigkeit einiger Zahlprobleme
NP-Vollständigkeit einiger Zahlprobleme Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 22. Januar 2010 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
MehrStochastische Prozesse Stoffzusammenfassung
Stochastische Prozesse Stoffzusammenfassung Joachim Breitner 7. August 2018 Diese Zusammefassung ist natürlich alles andere als vollständig und zu knapp, um immer alle Aussagen mit Voraussetzungen korrekt
MehrVorlesung 6b. Von der Binomial-zur Normalverteilung
Vorlesung 6b 1 Vorlesung 6b Von der Binomial-zur Normalverteilung Binomialverteilungen mit großem n und großer Varianz npq sehen glockenförmig aus, wenn man sie geeignet ins Bild holt. 2 Binomialverteilungen
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrInstitut für Analysis und Scientific Computing E. Weinmüller WS 2015
Institut für Analysis und Scientific Computing TU Wien E. Weinmüller WS 5 L I N E A R E A L G E B R A F Ü R T P H, U E (3.64). Haupttest (FR,..5) (mit Lösung ) Ein einfacher Taschenrechner ist erlaubt.
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
Mehr6.1 Zerlegungen Ober- und Unterintegrale Existenz des Integrals
Kapitel 6 Das Riemann-Integral In diesem Abschnitt wollen wir einen Integralbegriff einführen. Dieser Integralbegriff geht auf Riemann 1 zurück und beruht auf einer naheliegenden Anschauung. Es wird sich
MehrVorlesung. Inhalt. Lineare Algebra und Wahrscheinlichkeitsrechnung für Informatik Gunter Ochs, Nico Rompos Sommersemester 2016
Vorlesung Lineare Algebra und Wahrscheinlichkeitsrechnung für Informatik Gunter Ochs, Nico Rompos Sommersemester 2016 Inhalt Polynome, Algebraische Strukturen Vektorrechnung Lineare Algebra Elementare
MehrKapitel 7. Martingale 1
Kapitel 7 Martingale 1 7.1 Definition: a) (Ω, F) sei ein messbarer Raum. Eine Filtration (oder Filtrierung) ist eine aufsteigende Folge F = (F n ) n N von Teil-σ-Algebren von F, d.h. F n F n+1 F für n
MehrDie Abbildung zeigt die Kette aus dem "
½ Ô ½ 0 1 2 Õ Eine Markov-Kette mit absorbierenden Zustanden Die Abbildung zeigt die Kette aus dem " gamblers ruin problem\ fur m = 2. Man sieht sofort, dass hier sowohl 1 = (1; 0; 0) als auch 2 = (0;
MehrKörper- und Galoistheorie
Prof. Dr. H. Brenner Osnabrück SS 2011 Körper- und Galoistheorie Vorlesung 11 Zerfällungskörper Wir wollen zu einem Polynom F K[X] einen Körper konstruieren, über dem F in Linearfaktoren zerfällt. Dies
Mehr9 Schnell mischende Markov-Ketten
9 Schnell mischende Markov-Ketten Allgemeines zu schnell mischenden Markov-Ketten findet man zum Beispiel in dem Buch Introduction to Markov Chains von Behrends (2000). Außerdem haben wir von einem Teil
MehrMischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.
Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen
MehrKapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten
Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem
MehrBeweis: Färbe jede Kante zufällig und unabhängig mit Ws 1 2. Ereignis A i : i-te Clique K (i), i = 1,..., ( n K (i)
Die Probabilistische Methode Beobachtung: Besitzt ein Ereignis Ws > 0, so muss es existieren! Notation: Sei K n der komplette Graph mit n Knoten und ( n 2) Kanten. Satz Falls 2 (k 2) 1 > ( n k), existiert
MehrZentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)
SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Unabhängigkeit Prof. Dr. Achim Klenke http://www.aklenke.de 6. Vorlesung: 02.12.2011 1/30 Inhalt 1 Wahrscheinlichkeit 2 2/30 Wahrscheinlichkeit
MehrZufällige Polytope. Benedikt Liedtke. 18. Januar 2010
Zufällige Polytope Benedikt Liedtke 18. Januar 2010 Inhaltsverzeichnis 1 Einleitung Motivation Definition zufälliges konvexes Polytop 3 verschiedene Modelle E(K, n) Ef k (K n ) Inhaltsverzeichnis 1 Einleitung
Mehr