BACHELORARBEIT. Markov-Ketten und ihre Greensche Funktion. Jasmin Riegler. Wien, Jänner 2013

Größe: px
Ab Seite anzeigen:

Download "BACHELORARBEIT. Markov-Ketten und ihre Greensche Funktion. Jasmin Riegler. Wien, Jänner 2013"

Transkript

1 BACHELORARBEIT Markov-Ketten und ihre Greensche Funktion Jasmin Riegler Wien, Jänner 203 Studienkennzahl: A Studienrichtung: Mathematik Betreuer: Privatdoz. Dr. Mag. Bernhard Krön

2 Inhaltsverzeichnis Einleitung 2 Hauptteil 3 Markov-Ketten 4. Einführende Beispiele Definition von Markov-Ketten Übergangsmatrix und Anfangsverteilung Zufallsvariablen und Zufallszeiten Erzeugende Funktionen der Übergangswahrscheinlichkeiten 4 2. Greensche Funktion Eigenschaften der Greenschen Funktion Beispiele zur Greenschen Funktion Literaturverzeichnis 20

3 Einleitung Den Beginn der Arbeit bilden einige anschauliche Beispiele, die den Begriff der Markov-Ketten motivieren sollen und im Laufe der Arbeit gelöst werden. Daraufhin folgen im ersten Kapitel die Definitionen der Markov-Kette und der zugehörigen Übergangsmatrix mit wichtigen Eigenschaften, die für die Berechnung einfacher Übergangswahrscheinlichkeiten gebraucht werden. Im zweiten Kapitel diskutieren wir Theoreme und Anwendungen der Greenschen Funktion. Den Schluss bilden einige Sätze, mit denen die Beispiele vom Anfang der Arbeit gelöst werden. Bei der Disposition dieser Arbeit beziehe ich mich hauptsächlich auf das Buch Catene di Markov e teoria del potenziale nel discreto[] von Wolfgang Woess. Dazu habe ich ergänzend einige Abschnitte aus anderer Lektüre zum Verständnis hinzugefügt, welche entsprechend gekennzeichnet wurden. Alle Bezeichnungen sind geschlechterneutral zu verstehen. 3

4 Markov-Ketten. Einführende Beispiele Beispiel. Das Wetter in Salzburg Im Folgenden wird ein vereinfachtes Modell des Wetters in Salzburg behandelt, in dem keine zwei sonnigen Tage aufeinander folgen. Ist es an einem Tag sonnig, so sind die Wahrscheinlichkeiten für Regen oder Schnee am nächsten Tag dieselben. Regnet es, so wird es mit 50% am nächsten Tag wieder regnen, mit je 25% schneit es oder es scheint die Sonne. Wir bezeichnen sonniges Wetter mit s, Regen mit r und Schnee mit n. Diese Wahrscheinlichkeiten in einer Matrix geschrieben ergeben: s r n s r n 0 /2 /2 /4 /2 /4 /4 /4 /2 Aus der Matrix können wir ablesen, dass es nach einem sonnigen Tag mit Wahrscheinlichkeit /2 regnet, bzw. dass es nach einem verschneiten Tag mit Wahrscheinlichkeit /4 regnet. Wir werden uns einige Fragen stellen: (a) Heute regnet es. Mit welcher Wahrscheinlichkeit wird es nach zwei Wochen schönes Wetter geben? (b) Wie viele regnerische Tage in einem Monat können im Mittel erwartet werden? (c) Was ist die durchschnittliche Dauer einer Schlechtwetter-Periode? Diese Fragen aus dem Buch von Wolfgang Woess [] und andere Problematiken aus dem Skriptum [2] werden im Laufe der Arbeit beantwortet werden. Beispiel 2. Irrfahrt eines Betrunken Ein Betrunkener will aus dem Gasthaus heimkehren. Das Gasthaus liegt an einer geraden Straße, an welcher am einen Ende sein Zuhause und am anderen Ende ein See gelegen sind. In Richtung des Sees sind es 00 Schritte, während sein Haus vom Gasthaus 200 Schritte entfernt ist. Mit einer Wahrscheinlichkeit von 2 3 macht der Betrunkene einen Schritt in Richtung seines Zuhauses, während er mit einer Wahrscheinlichkeit von 3 in Richtung des Sees geht. Nach jedem Schritt zögert er und vergisst welche Richtung er davor gewählt hat. So macht er sich auf den Weg, ohne Erinnerung und in jede Richtung mit Wahrscheinlichkeiten von 2 3 und 3. Wenn der Betrunkene am See ankommt ertrinkt er, wenn er jedoch Zuhause ankommt, wird er seinen Rausch ausschlafen. (a) Mit welcher Wahrscheinlichkeit kommt der Betrunkene sicher nach Hause? Mit welcher Wahrscheinlichkeit ertrinkt er? (b) Wie viele Schritte braucht er durchschnittlich, wenn er zu Hause ankommt. 4

5 Beispiel 3. Ein einführendes Beispiel für die Definition der Markov-Ketten von [3] Schomaker Jens. Eine Person steht in einer von vier Ecken eines Raumes (hier s ), wirft eine Münze um zu entscheiden in welche Richtung sie gehen soll und wiederholt dies beliebig oft. s s 2 s 4 s 3 Wir definieren nun eine Zufallsvariable Z n für jeden Schritt des Experiments, welche uns die Ecke angibt in der die Person im n-ten Schritt ist. Es ergibt sich ein stochastischer Prozess (Z 0, Z,...), welcher die Werte in {s, s 2, s 3, s 4 } annimmt. Die Person startet in s. Also ist P(Z 0 s ). Durch das Werfen einer Münze bekommen wir für Z : P(Z s 2 ) 2. P(Z s 4 ) 2. Um die Verteilung von Z n für n 2 zu berechnen, werden bedingte Wahrscheinlichkeiten verwendet. Wir bekommen für den Fall Z n s 2 : P(Z n+ s Z n s 2 ) 2. P(Z n+ s 3 Z n s 2 ) 2. Aufgrund der Entscheidungsregel hängt Z n+ nur von Z n ab und ist völlig unabhängig von den vorhergehenden Werten. So gilt für Z n s 2 und beliebige i 0,..., i n {,..., 4} P(Z n+ s Z n s 2, Z n s in,..., Z 0 s i0 ) 2. P(Z n+ s 3 Z n s 2, Z n s in,..., Z 0 s i0 ) 2. 5

6 .2 Definition von Markov-Ketten Für die wahrscheinlichkeitstheoretische Definition der Markov-Kette verwenden wir den Wahrscheinlichkeitsraum (Λ, A, P) und die abzählbare Menge X als Zustandsraum. Wobei Λ eine Menge ist, mit einer σ-algebra A von Teilmengen von Λ und P ein Wahrscheinlichkeitsmaß in A ist. Eine σ-algebra A ist definiert durch:. Die Grundmenge Λ ist in A enthalten. 2. Wenn A eine Teilmenge A von Λ enthält, dann auch deren Komplement A c Λ \ A. 3. Wenn für jede natürliche Zahl n die Menge A n in A ist, so ist auch die abzählbare Vereinigung aller A n in A. Definition. Eine Markov-Kette ist eine Folge von Zufallsvariablen Z n, n 0,, 2..., Z n : Λ X mit folgenden Eigenschaften:. (Markov-Eigenschaft) Für x 0, x,..., x n, x n+ X mit P[Z n x n, Z n x n,... Z 0 x 0 ] > 0, gilt: P[Z n+ x n+ Z n x n, Z n x n,..., Z 0 x 0 ] P[Z n+ x n+ Z n x n ]. (.) 2. (Homogenität der Zeit) Für x, y X und m, n N 0 mit P[Z m x] > 0 und P[Z n x] > 0 gilt: P[Z m+ y Z m x] P[Z n+ y Z n x]. (.2) Die Markov-Eigenschaft bedeutet, dass kein Erinnerungsvermögen vorhanden ist: Die Zukunft (Zustand n + ) hängt nur von der Gegenwart (n) und nicht von der Vergangenheit ab..2. Übergangsmatrix und Anfangsverteilung Definition 2. Setzt man p(x, y) P[Z k+ y Z k x] erhalten wir die Übergangsmatrix P (p(x, y)) x,y X von Z n mit den Einträgen p(x, y). Für die Übergangsmatrix ergeben sich durch die Definition folgende Eigenschaften:. Für die Einträge der Matrix gilt p(x, y) > 0 für alle x, y {,..., k}, da Wahrscheinlichkeiten nicht negativ sind. 2. Die Zeilen der Übergangsmatrix summieren sich auf : k p(x, y) für alle x {,..., k}. y Definition 3. (vgl. Definition.5 [3]) Die Anfangsverteilung einer Markov-Kette (Z n ) mit Zustandsraum {x 0, x,..., x k } wird durch einen Zeilenvektor µ (0) definiert: µ (0) (µ (0),..., µ(0) k ) (P[Z 0 x 0 ],..., P[Z 0 x k ]). 6

7 Da µ (0) eine Wahrscheinlichkeitsverteilung auf dem Zustandsraum X bildet, gilt: k µ (0) i. i Ebenso ist µ (n) für n als Wahrscheinlichkeitsverteilung der Markov-Kette zum Zeitpunkt n definiert als: µ (n) (µ (n),..., µ(n) k ) (P[Z n x 0 ],..., P[Z n x k ]). Die Anfangsverteilung von Z n repräsentiert ein Anfangsexperiment, wie zum Beispiel bei einem Spiel die Ausgangsposition durch Würfeln zu entscheiden. Wir schreiben auch oft µ statt µ (0) für die Anfangsverteilung. Satz.. Sei P die Übergangsmatrix einer Markov-Kette mit der Anfangsverteilung µ. Die Wahrscheinlichkeit den Zustand x j nach n Schritten zu erreichen, ist genau der j-te Eintrag im Vektor µ (n) µ (0) P n. Beweis. Die Beweisführung ist aus [3] auf Seite 3f. Induktion über n: n : Sei µ (0) (µ (0),..., µ(0) n ), dann gilt für j,..., n : µ () j Def. P[Z x j ] ( ) Def. k P[Z 0 x i ]P[Z x j Z 0 x i ] i k i (µ (0) i P ) j. µ (0) i p(i, j) Unter der Verwendung des Satzes für totale Wahrscheinlichkeit in ( ): P(B) N P[A j ]P[B A j ]. Dabei ist (µ (0) i P ) j der j-te Eintrag des Zeilenvektors µ (0) P. n n+: Sei also die Behauptung für n gezeigt. Für j,..., k gilt: µ (n+) j P[Z n+ x j ] k P[Z n x i ]P[Z n+ x j Z n x i ] i k i µ (n) i p(i, j) (µ (n) i P ) j. Es gilt µ (n+) µ (n) P und laut Induktionsvoraussetzung folgt: µ (n+) µ (n) P I.V. µ (0) P n P µ (0) P n+. j 7

8 Übergangswahrscheinlichkeit in n Schritten Was ist die Wahrscheinlichkeit in einer Markov-Kette (X, P) von y nach x in n Schritten zu kommen? Die Übergangswahrscheinlichkeit dafür entspricht: p (n) (x, y) P[Z n y Z 0 x] P x [Z n y], für n 0, x, y X. (.3) Es hängt p (n) (x, y) weder vom Startzustand noch von der Anfangsverteilung ab. Für die Anfangsverteilung µ und k N 0, mit P µ [Z k x] > 0, folgt Es gilt: P µ [Z k+n y Z k x] p (n) (x, y). (.4) p (0) (x, x), p (0) (x, y) 0 für x y, und p () (x, y) p(x, y). Wie in dem Skriptum [2] auf Seite 406f beschrieben, ist die quadratische Matrix im Beispiel eine Übergangsmatrix. Die Einträge in der ersten Spalte sind die Wahrscheinlichkeiten für Sonne nach den verschiedenen Wetterzuständen, in der zweiten und dritten Spalte jeweils für Regen und Schnee. Die Wahrscheinlichkeit bezüglich der Markov-Kette vom Zustand x in zwei Tagen beim Zustand y zu sein, ist genau gegeben durch p (2) (x, y). Aus dem Beispiel ergibt sich, dass das Ereignis, dass es nach einem regnerischen heutigen Tag in zwei Tagen schneit, genau die disjunkte Vereinigung dreier Ereignisse ist:. es regnet morgen und schneit in zwei Tagen, 2. es ist ein sonniger Tag morgen und schneit am Tag darauf, 3. oder es folgen zwei verschneite Tage. Die Wahrscheinlichkeit des ersten Ereignisses ist das Produkt der bedingten Wahrscheinlichkeiten, dass es morgen regnet unter der Bedingung heute zu regnen und eines verschneiten Wetters in zwei Tagen bedingt, dass es morgen regnet. Unter Verwendung der Übergangsmatrix P bekommen wir das Produkt p(2, 2)p(2, 3), so können auch die anderen Wahrscheinlichkeiten als Produkt von Einträgen der Matrix geschrieben werden und es ergibt sich p (2) (2, 3) p(2, 2)p(2, 3) + p(2, )p(, 3) + p(2, 3)p(3, 3). Diese Gleichung erinnert an das innere Produkt zweier Vektoren, der zweiten Zeile von P mit der dritten Spalte von P. Im Allgemeinen gilt für eine Matrix mit r Zustände: Lemma p (2) (x, y) r p(x, k)p(k, y). k (i) Für die Übergangswahrscheinlichkeit gilt p (n+) (x, y) w X p(x, w)p (n) (w, y). Dies ist das Element an der Stelle (x, y) der n-ten Potenz P n der Übergangsmatrix P. (ii) In mehreren Schritten gilt: p (m+n) (x, y) p (m) (x, w)p (n) (w, y) (Chapman-Kolmogorov-Gleichung). w X 8

9 (iii) Die n-te Potenz P n der Übergangsmatrix P ist eine stochastische Matrix. Beweis. (i) Die Werte p (n+) (x, y) lassen sich wie folgt berechnen: Der erste Weg führt von x zu einem bestimmten w X mit der Wahrscheinlichkeit p(x, w). Die verbleibenden n Schritte müssen mit der Wahrscheinlichkeit p (n) (w, y) von w nach y führen, unabhängig von den vergangenen Schritten. Aufsummiert über alle möglichen Punkte w ergibt sich: p (n+) (x, y) w X p(x, w)p (n) (w, y). (.5) Für den Beweis dieser Formel verwenden wir vollständige Induktion. Es sind (.4) und (.5) für n 0 und n gezeigt. Wir nehmen an, dass sie für n erfüllt sind und P µ [Z k 0] > 0. Seien A, B, C A, { P µ [A C]/P µ [C] für P µ [C] > 0, P µ [A C] 0 für P µ [C] 0; P µ [A B C] P µ [B C] P µ [A B C]; für A B, Aus der Definition der Markov-Ketten erhalten wir: p (n+) (x, y) P µ [Z k+n+ y Z k x] P µ [A B C] P µ [A C] + P µ [B C]. P µ [ w X : (Z k+n+ y und Z k+ w) Z k x] w X P µ [Z k+n+ y und Z k+ w Z k x] w X P µ [Z k+ w Z k x] P µ [Z k+n+ y Z k+ w und Z k x] (Es ist P µ [Z k+ w und Z k x] > 0 wenn P µ [Z k+ w Z k x] > 0) w X P µ [Z k+ w Z k x] P µ [Z k+n+ y Z k+ w] w X p(x, w)p (n) (w, y). Für die Einträge der Übergangsmatrix P gilt laut Definition p () (x, y) P[Z k+ y Z k x], folgend bilden die Werte p (n) (x, y) P µ [Z k+n y Z k x] die Einträge der n-ten Potenz P n der Übergangsmatrix. (ii) Für die Übergangswahrscheinlichkeiten in mehreren Schritten folgt für die entsprechenden Matrizen P m+n P m P n aus dem Potenzieren von Matrizen. (iii) Ausgehend von x X wird nach n Schritten sicher ein Element in X erreicht, d.h.: P x [Z n X] y X P x [Z n y] y X p (n) (x, y). 9

10 Beispiel 4. Fortsetzung von Beispiel mittels [2]. Wir werden uns nun mit den ersten sechs Potenzen der Übergangsmatrix des Wetters in Salzburg beschäftigen. Die Wettervorhersage von sechs Tagen ist, auf drei Dezimalstellen gerundet, unabhängig vom heutigen Wetter P P P P P P In sechs Tagen sind die Wahrscheinlichkeiten für die Wetterzustände Sonne, Regen und Schnee ungefähr 0.2, 0.4 und 0.4, unabhängig von der Anfangsverteilung. Definition 4. (Definition.5, [2], S.433) Eine Markov-Kette heißt regulär, wenn eine Potenz der Übergangsmatrix nur positive Elemente besitzt. In anderen Worten, für n N ist es möglich von einem Zustand zu einem anderen Zustand in genau n Schritten zu kommen. Beispiel 5. Es sei in Beispiel die Anfangsverteilung µ (0) (/3, /3, /3). Wir berechnen die Verteilung der Zustände nach drei Tagen mittels der vorigen Berechnung von P 3 und dem Satz.: µ (3) µ (0) P 3 (/3, /3, /3) (0.98, 0.40, 0.40) In drei Tagen, bei gleicher Anfangswahrscheinlichkeit für alle Wetterzustände, wird es mit einer Wahrscheinlichkeit von knapp 20% sonnig, beziehungsweise mit je ungefähr 40% regnen oder schneien. 0

11 .2.2 Zufallsvariablen und Zufallszeiten In diesem Abschnitt werden einige Zufallsvariablen definiert, die die Berechnung diverser Probleme vereinfachen. Ein Beispiel für Zufallsvariablen von Markov-Ketten in R sind die Besuche in einer Menge W X: { v W Z n (λ) W ; n (λ) 0 sonst. v W n Wobei λ einen Weg der Zufallsvaraiable Z n beschreibt und für W {x} schreiben wir v W n v x n. Die Zufallsvariable v W k + vw k vw n (k n) ist die Anzahl der Besuche in W in der Zeitspanne zwischen den Zuständen k und n. Es ist v W die Gesamtanzahl der Besuche in W. Der Erwartungswert der Besuche in W in diesem Zeitraum unter Berücksichtigung der Anfangsverteilung µ ist E µ (v W k + vw k vw n ) x X n µ(x)p (i) (x, y). ik y W Eine Zufallszeit ist eine Zufallsvariable t: Λ N 0 { }, für die gilt [t n] : {λ Λ t(λ) n} A n N 0. Eine Zufallszeit t heißt Stoppzeit, wenn P µ [t ] 0, diese Eigenschaft hängt im Allgemeinen von der Anfangsverteilung µ ab. Für W X, definieren wir die Zufallsvariablen s W min{n 0 Z n W } und t W min{n Z n W }. Die Zufallsvariable s W ist der Zeitpunkt des ersten Besuchs von Z n in W, während t W der Moment des ersten Besuchs in W nach dem Start ist. Wieder schreiben wir s x und t x falls W {x}. Dazu definieren wir einige hilfreiche Größen: G(x, y) E x (v y ), U(x, y) P x [s y < ] und F (x, y) P x [t y < ], für x, y X. Die Größe G(x, y) ist die erwartete Anzahl der Besuche von (Z n ) in y, ausgehend von x, während U(x, y) die Wahrscheinlichkeit von x ausgehend y zu erreichen ist, und F (x, y) die Wahrscheinlichkeit y zu erreichen, nachdem man von x gestartet ist. Insbesondere ist F (x, x) die Wahrscheinlichkeit von x auskehrend nach x zurückzukehren. Es folgt Wir schreiben U(x, x) und U(x, y) F (x, y) für x y. f (n) (x, y) P x [t y n] P x [Z n y, Z i y für i,..., n ]

12 mit f (0) (x, y) 0 und bekommen F (x, y) f (n) (x, y) und G(x, y) p (n) (x, y). Beispiel 6. Jetzt können wir die Fragen von Beispiel beantworten. (a) Wenn es heute regnet entspricht die Wahrscheinlichkeit für schönes Wetter nach 2 Wochen genau der Übergangswahrscheinlichkeit in 4 Schritten von Regen zu Sonne zu kommen. Nach der Definition der Übergangswahrscheinlichkeit ist dies p (4) (r, s). Diese Zahl lässt sich berechnen, indem man die 4. Potenz der Übergangsmatrix berechnet und das Element (r, s) daraus nimmt. Eine Matrix zu potenzieren kann sehr umfangreich sein, daher sind wir an einer einfacheren Lösung interessiert, wofür die Greensche Funktion definiert wird. (b) Wenn es heute regnet, so ist der Erwartungswert der Anzahl der regnerischen Tage im Laufe des nächsten Monats (30 Tage) genau der Erwartungswert über alle möglichen Übergangswahrscheinlichkeiten ( 30 ) 30 E r p (n) (r, r). v r n Wir werden auch diese Lösung mittels der Greenschen Funktion berechnen. (c) Eine Schlechtwetterperiode beginnt nach und endet vor einem schönen Tag. Die Dauer von genau n Tagen hat folgende Wahrscheinlichkeit P[Z, Z 2,... Z n {r, n}, Z n+ s Z 0 s] P s [Z, Z 2,... Z n {r, n}, Z n+ s] P s [t s n + ] f (n+) (s, s). Eine Schlechtwetterperiode hält nicht für immer an, es gilt P s [t s ] 0. Der Erwartungswert der Dauer einer Schlechtwetterperiode ist E rn nf (n+) (s, s). n Zur Berechnung dieser Zahl können wir die Markov-Kette vereinfachen. Es gilt p(r, s) p(n, s) /4, auf einen Tag mit schlechtem Wetter (r oder n) folgt ein schöner Tag (s) mit Wahrscheinlichkeit /4 und ein anderer Schlechtwettertag (r oder n) mit 3/4, unabhängig von der Art des schlechten Wetters (r oder n) am Vortag. Auf einen Tag mit schönem Wetter (s) folgt mit Wahrscheinlichkeit schlechtes Wetter (r oder n). Die Zustände r und n können in einen einzigen Schlechtwetter-Zustand rn zusammengefasst werden und es ergibt sich ein neuer Zustandsraum X {s, rn} mit der neuen Übergangsmatrix P : p(s, s) 0, p(s, rn), p(rn, s) /4, p(rn, rn) 3/4. P s rn ( s rn ) 0 /4 3/4 2

13 Wahrscheinlichkeiten, die r von n nicht unterscheiden, können nun mittels der neuen Markov-Kette ( X, P ) und der Wahrscheinlichkeitsverteilung P x, x X berechnet werden. P s [t s n + ] P s [t s n + ] p(s, rn)( p(rn, rn)) n p(rn, s) ( ) 3 n 4 4. Und P s [t s ] P s [t s n + ] 0. Die zu erwartende Dauer einer Schlechtwetterperiode ist daher E rn ( ) 3 n n 4 4. Um diese Summe zu berechnen, verwenden wir einen Trick: [ Für die Ableitung der analytischen Potenzreihe gilt: nz n n Die geometrische Reihe z n besitzt den Wert Daraus folgt [ ] nz n n z ( z) 2. Eingesetzt in unser Beispiel ergibt sich: z n für z <. ] z n. ( ) 3 n n ( )2 n Die durchschnittliche Dauer einer Schlechtwetterperiode ist 4 Tage. 3

14 2 Erzeugende Funktionen der Übergangswahrscheinlichkeiten Für eine Folge von reellen oder komplexen Zahlen (a n ) n N heißt die Potenzreihe erzeugende Funktion von (a n ) n N. Die erzeugende Funktion kann oft nützliche Informationen über die Zahlenfolge liefern und hilft uns einige Problemstellungen leichter zu lösen. 2. Greensche Funktion a n z n Definition 5. Die Greensche Funktion einer Markov-Kette (X, P ) ist definiert als Ihr Konvergenzradius ist G(x, y z) p (n) (x, y)z n, x, y X, z C. (2.) r(x, y) / lim sup(p (n) (x, y)) /n. n Für z r(x, y) kann die Folge konvergieren oder nach divergieren. In beiden Fällen schreiben wir G(x, y r(x, y)) für den entsprechenden Wert. Nun ist r inf{r(x, y) x, y X} und z < r. Wir bilden die sogenannte Greensche Matrix G(z) (G(x, y z)) x,y X. 2.. Eigenschaften der Greenschen Funktion Das Element p (n) (x, y) ist an der Stelle (x, y) der Matrix P n. Daraus folgt für die Greensche Matrix G(z) z n P n, wobei jede Koordinate dieser Matrix eine Potenzreihe ist, die jedenfalls für alle z mit z < r konvergiert. Da P 0 I gilt, können wir die Matrix G(z) umformen: G(z) I + z n P n I + zp n z n P n I + zp G(z). 4

15 Für die Berechnung der Elemente der Greenschen Matrix gilt mittels.5 auch G(x, y z) p (0) (x, y) + p(x, w)p (n ) (w, y)z n n w X ( ) p (0) (x, y) + w X zp(x, w) p (n ) (w, y)z n n Def p (0) (x, y) + w X zp(x, w)g(w, y z). Die Vertauschung der Summanden in ( ) ist durch die absolute Konvergenz erlaubt. Wir erhalten (I zp )G(z) I, woraus für die Berechnung der Greenschen Matrix folgt G(z) (I zp ). Für die weiteren Beispiele legen wir für X fest, dass es endlich ist, wodurch die Matrizen endliche Dimension haben und es sich um die üblichen inversen Matrizen handelt. Beispiel 7. Aus dem Beispiel auf Seite 4 bekommen wir die Greensche Matrix: z/2 z/2 G(z) z/4 z/2 z/4 z/4 z/4 z/2 (4 3z)(4 z) 2z(4 z) 2z(4 z) z(4 z) 2(8 4z z 2 ) 2z(2 + z) ( z)(4 z)(4 + z) z(4 z) 2z(2 + z) 2(8 4z z 2 ) Wir können nun die Antworten auf die Fragen a) und b) vervollständigen: a) Die Wahrscheinlichkeit für schönes Wetter nach zwei Wochen entspricht der Übergangswahrscheinlichkeit in 4 Schritten von Regen nach Sonne zu kommen: p (4) (r, s). Der Eintrag (r, s) der Matrix G(z) ist G(r, s z) z ( z)(4 + z) z 5 ( z + ). 4 + z Ergibt in eine Reihe entwickelt 5 ( ( )n 4 n ) z n. Die Koeffizienten ergeben genau die Übergangswahrscheinlichkeiten p (n) (r, s) In unserem Fall folgt für n4 Tage also p (4) (r, s) 5 5 ( ( )n 4 n ). ( )

16 Die Wahrscheinlichkeit für Sonne nach zwei Wochen ist ungefähr 20%. Betrachtet man die 4. Potenz der Übergangsmatrix (gerundet) P 4 s r n s r n , kann man dasselbe Ergebnis ablesen. b) Der Erwartungswert für regnerische Tage im Laufe eines Monats (30 Tage) ist E r 30 p (n) (r, r), Dafür nehmen wir den Eintrag (r, r) der Matrix G(z) dies ergibt die Potenzreihe G(r, r z) 2(8 4z z 2 ) ( z)(4 z)(4 + z), z n 5 (2 2n (5 ( ) n + 4 +n )). Für unseren Erwartungswert gilt: 30 E r p (n) (r, r) 30 5 (2 2n (5 ( ) n + 4 +n )). Satz 2.. Wenn X endlich ist, so ist G(x, y z) eine rationale Funktion in z. Beweis. Erinnern wir uns daran, dass für endliche invertierbare Matrizen A (a i,j ) gilt A det(a) (a i,j) mit a i,j ( ) i j det(a j, i), wobei det(a j, i) die Determinante der Matrix bezeichnet, die von A durch Löschen der j-ten Zeile und der i-ten Spalte erzielt wird. Dann ist der Quotient zweier Polynome. G(x, y z) (I zp xy ) ± det(i zp xy) det(i zp ) und Für die erzeugenden Funktionen gilt U(x, y z) F (x, y z) f (n) (x, y)z n P x [s y n]z n { F (x, y z) y x; y x. (2.2) 6

17 Satz 2. a) G(x, x z) F (x, x z) b) G(x, y z) F (x, y z)g(y, y z), wenn x y c) F (x, y z) p(x, y)z + p(x, w)zf (w, y z); w y Beweis. a) Zuerst zeigen wir den Zusammenhang von f (n) (x, x) und p (n) (x, x). Wenn Z 0 x und Z n x, mit n, gibt es einen Zustand dazwischen mit Z k x, aber Z i x für i,..., k. Unter Verwendung der in Abschnitt.2.2 definierten Zufallsvariablen gilt: [Z k x, Z i x für i 2,..., k ] [t x k], k,..., n. Diese Ereignisse sind paarweise disjunkt. Mittels der Markov-Eigenschaft und der Formel (.4) bekommen wir p (n) (x, x) n P x [Z n x; t x k] k n P x [Z n x Z k x, Z i x für i,..., k ]P x [t x k] k n P x [Z n x Z k x]p x [t x k] k n p (n k) (x, x)f (k) (x, x) k n p (n k) (x, x)f (k) (x, x). k0 In der letzten Gleichung haben wir verwendet, dass f (0) (x, x) 0. Für n 0 gilt p (0) (x, x) 0, wobei p (n k) (x, x)f (k) (x, x) 0. Es folgt: k0 G(x, x z) p (n) (x, x)z n p (n) (x, x)z n n n k0 k0 n f (k) (x, x)p (n k) (x, x)z n n f (k) (x, x)p (n k) (x, x)z n + F (x, x z)g(x, x z). 7

18 Die letzte Identität folgt aus der Cauchyschen Produktformel für Reihen, welche besagt, dass für zwei Potenzreihen f(z) a i z i und g(z) b k z k, welche im Punkt z absolut konvergieren, gilt k i0 k0 ( n ) f(z) g(z) a k b n k z n. k0 b) Für x y, ist p (0) (x, y) 0. Analog zu (a) folgt: n n p (n) (x, y) f (k) (x, y)p (n k) (y, y) f (k) (x, y)p (n k) (y, y) n 0, G(x, y z) p (n) (x, y) n n k0 k0 n f (k) (x, y)p (n k) (y, y) F (x, y z)g(y, y z). c) Es gilt f () (x, y) p(x, y). Wenn n > und t y n, so muss gelten Z y. Die Ereignisse [t y n; Z w], w X \ {y}, sind paarweise unabhängig. Es folgt f (n) (x, y) P x [t y n; Z w] w y w y P x [Z w]p x [t y n Z w] w y P x [Z w]p w [t y n ] w y p(x, w)f (n ) (w, y). Nun gilt F (x, y z) f (n) (x, y)z n n p(x, w)f (n ) (w, y)z n n w y p(x, y)z + p(x, w)f (n ) (w, y)z n n2 w y p(x, y)z + w y p(x, w)z f (n) (w, y)z n n p(x, y)z + w y p(x, w)zf (w, y z). 8

19 2..2 Beispiele zur Greenschen Funktion Für die Lösung von Beispiel 2 auf Seite 4 über den Betrunkenen betrachten wir erst den verallgemeinerten Fall einer Irrfahrt auf X mit zwei absorbierenden Zustände. Es ergibt sich die Markov-Kette mit Zustandsraum X {0,,..., N}, N > 0, und den Übergangswahrscheinlichkeiten p(0, 0) p(n, N) für die absorbierenden Schranken, p(i, i + ) p, p(i, i ) q für i,..., N und p(i, j) 0 in allen anderen Fällen, wobei 0 < p < und q p. Dieses Beispiel ist auch bekannt als der Ruin des Spielers. Die gesuchten Wahrscheinlichkeiten vom Punkt j entweder den Zustand 0 oder N zu erreichen entsprechen genau P j [s 0 < n] U(j, 0), beziehungsweise U(j, N) aus Abschnitt.2.2. Der Erwartungswert der nötigen Schritte von j nach N zu kommen, unter der Annahme dass N erreicht wird, ist E j (s N s N < ) n P j [s N n s N < ] n n n P j[s N n] (2.2) P j [s N U (j, N ) < ] U(j, N ). Es bezeichnet U (j, N z) n P j [s N n] die Ableitung von U(j, N z) mit z. Sei nun n U(j, N) die Wahrscheinlichkeit beim Zustand N anzukommen, so gilt für die absorbierenden Zustände U(0, N z) 0 und U(N, N z). Für j zwischen und N führt der erste Schritt mit Wahrscheinlichkeit q zum Zustand j- und mit p zu j+, wobei gilt, dass p + q. Daraus folgt die Gleichung U(j, N) qu(j, N) + pu(j +, N), j,... N. Diese Rekursion ist mit den Anfangswerten U(0, N z) 0 und U(N, N z) schnell zu lösen. Um U(j, N z) zu finden, kommen wir zu einer linearen Differentialgleichung in j von zweiter Ordnung. Das charakteristische Polynom ist pzλ 2 λ + qz 0 mit Nullstellen λ (z) ( ) 4pqz 2pz 2, λ 2 (z) 2pz ( + 4pqz 2 ). Untersucht man den Fall z < /2 pq, bekommt man verschiedene Nullstellen und U(j, N z) a λ (z) j + b λ 2 (z) j. 9

20 Die Konstanten a und b lassen sich aus den Werten für j 0 und j N finden: Es folgt a + b 0 und a λ (z) N + b λ 2 (z) N. U(j, N z) λ 2(z) j λ (z) j λ 2 (z) N λ (z) N, z < 2 pq. Für p 2, ρ q p gilt < /2 pq, λ () λ (2) p q 2p + p q 2p {, p < /2, ρ, p > /2, { ρ, p < /2,, p > /2. Daraus folgt für die Berechnung der Wahrscheinlichkeit Weiters berechnet man U (j, N ) So folgt für p /2 Im Fall p /2 ist einfach zu zeigen, dass P j [s N < ] U(j, N ) ρj ρ N. (q p)(ρ N ) 2 ( N(ρ j )(ρ N + ) j(ρ j + )(ρ N ) ). E j (s N s N < ) ( ) N ρn + q p ρ N j ρj + ρ j. U(j, N ) N. Beispiel 8. Im Beispiel 2 auf Seite 4 über den Betrunkenen haben wir N 300 Schritte als Gesamtlänge der Strecke, die Wahrscheinlichkeiten p 2/3, q /3, mit ρ /2 und j 200 (Schritte vom Gasthaus nach Hause). Wir wollen nun die Wahrscheinlichkeit für den Betrunkenen nach Hause zu kommen, bzw. im See zu ertrinken, berechnen. Er startet bei 00 Schritten und die Wahrscheinlichkeit heim zu kommen entspricht P 00 [s 300 < ] Die durchschnittliche Anzahl von Schritten entspricht dem Erwartungswert ( ) E 00 (s 300 s 300 < ) q p Die Wahrscheinlichkeit, dass der Betrunkene nicht nach Hause zurückkehrt, ist quasi Null. Um nach Hause zu kommen, braucht er im Durchschnitt 600 Schritte, also das Dreifache des erforderlichen Minimums

21 Literaturverzeichnis [] Woess, Wolfgang. Catene di Markov e teoria del potenziale nel discreto. Quaderni dell Unione Matematica Italiana, 996. [2] Dartmouth. Chapter. Markov Chains. Online verfügbar unter book/chapter.pdf [3] Schomaker, Jens. Einführung in die Theorie der Markov-Ketten. Online verfügbar unter Vortraege/Schomaker.pdf Weitere Literatur: [4] Held, Leonhard. Stochastik fur Bioinformatiker.Markov-Ketten. Online verfügbar unter stobio2006/script/script-kap7.pdf [5] Weingessel, Andreas. Statistik in der Finanzwirtschaft. Markoff-Ketten in diskreter Zeit. Online verfügbar unter [6] Penz, Markus. Markov-Ketten. Online verfügbar unter L

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

Kapitel 12: Markov-Ketten

Kapitel 12: Markov-Ketten Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 21.01.2016 Kapitel 12: Markov-Ketten Ab jetzt betrachten wir stochastische Prozesse (X n ) n N0 mit 1. diskreter Zeit N 0 = {0,1,2,...},

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Zu Markov-Prozessen: Bemerkungen: 17.01.2013 Wir betrachten im Folgenden eine Markovkette (X n ) n N0, wobei jedes X n Werte in Z = {0,1,2,...,s}

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die

Mehr

ist (oder besser Abspalten von Linearfaktoren beschäftigen. Zu einem beliebigen Körper K betrachten wir die Menge (j,k) N N j+k=n

ist (oder besser Abspalten von Linearfaktoren beschäftigen. Zu einem beliebigen Körper K betrachten wir die Menge (j,k) N N j+k=n 8. Polynomringe Das Umgehen mit Polynomen, d.h. mit Ausdrücken der Form a 0 + a 1 x + a 2 x 2 +... + a n x n ist aus der Schule vertraut, falls die Koeffizienten a 0,..., a n ganze oder rationale oder

Mehr

Markov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes

Markov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes Markov-Prozesse Franziskus Diwo Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes 8.0.20 Gliederung Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-,

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1

Kapitel 4: Irreduzible und aperiodische Markov Ketten 1 Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme

Mehr

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 2 Melanie Kaspar, Prof. Dr. B. Grabowski 3 Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij.

für die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij. 8 Markov-Ketten 8.1 Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.

Mehr

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse 2 Halbgruppen von Übergangswahrscheinlichkeiten Markov-Prozesse Im Folgenden sei (X, B) ein (polnischer) Messraum und T = [0, ) oder T = N 0 Definition 21 Eine Familie (P t ) t T von (X, B) mit Übergangswahrscheinlichkeiten

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Univ.-Prof. Dr. Goulnara ARZHANTSEVA

Univ.-Prof. Dr. Goulnara ARZHANTSEVA Diskrete Mathematik Univ.-Prof. Dr. Goulnara ARZHANTSEVA SS 2018 c Univ.-Prof. Dr. Goulnara Arzhantseva Kapitel 06: Rekursionen 1 / 30 Rekursionen Definition: Rekursion Sei c n eine Zahlenfolge. Eine Rekursion

Mehr

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 51 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

4 Funktionenfolgen und normierte Räume

4 Funktionenfolgen und normierte Räume $Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei

Mehr

Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,

Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig, Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig, wenn für alle (s 1,..., s n ) {0, 1} n gilt, dass wobei A 0 i = Āi und A 1 i = A i. Pr[A s 1 1... Asn n ] = Pr[A

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

16.3 Rekurrente und transiente Zustände

16.3 Rekurrente und transiente Zustände 16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht

Mehr

6.7 Isolierte Singularitäten

6.7 Isolierte Singularitäten 6.7 Isolierte Singularitäten Definition: Eine analytische Funktion f hat in einem Punkt a C eine isolierte Singularität, falls f in einem Kreisring B r (a) \ {a} = {z C : 0 < z a < r} für r > 0, definiert

Mehr

Mathematik macht Freu(n)de im Wintersemester 2018/19

Mathematik macht Freu(n)de im Wintersemester 2018/19 Mathematik macht Freu(n)de im Wintersemester 08/9 Markus Fulmek 08 06 9 Im folgenden wird zunächst ein kombinatorischer Gedankengang entwickelt, der mit wenigen einfachen Definitionen (samt erläuternden

Mehr

DisMod-Repetitorium Tag 3

DisMod-Repetitorium Tag 3 DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität

Mehr

Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen

Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen Proseminar Lineare Algebra SS10 Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen Simon Strahlegger Heinrich-Heine-Universität Betreuung: Prof. Dr. Oleg Bogopolski Inhaltsverzeichnis:

Mehr

Funktionen oder Abbildungen sind wir schon mehrere Male begegnet. Es wird Zeit mal genau fest zu legen, was gemeint ist.

Funktionen oder Abbildungen sind wir schon mehrere Male begegnet. Es wird Zeit mal genau fest zu legen, was gemeint ist. Analysis, Woche 5 Funktionen I 5. Definition Funktionen oder Abbildungen sind wir schon mehrere Male begegnet. Es wird Zeit mal genau fest zu legen, was gemeint ist. Definition 5. Eine Funktion f : A B

Mehr

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr)

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr) WS 2011/12 Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Mayr) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2011ws/ds/uebung/ 18. Januar 2012 ZÜ DS ZÜ XII

Mehr

Kapitel 6. Irrfahrten und Bernoullischemata

Kapitel 6. Irrfahrten und Bernoullischemata Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten

Mehr

Prüfung Lineare Algebra , B := ( ), C := 1 1 0

Prüfung Lineare Algebra , B := ( ), C := 1 1 0 1. Es seien 1 0 2 0 0 1 3 0 A :=, B := ( 1 2 3 4 ), C := 1 1 0 0 1 0. 0 0 0 1 0 0 1 0 0 0 0 Welche der folgenden Aussagen ist richtig? A. A und C haben Stufenform, B nicht. B. A und B haben Stufenform,

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Kapitel 4. Determinante. Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24

Kapitel 4. Determinante. Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24 Kapitel 4 Determinante Josef Leydold Mathematik für VW WS 2017/18 4 Determinante 1 / 24 Was ist eine Determinante? Wir wollen messen, ob n Vektoren im R n linear abhängig sind bzw. wie weit sie davon entfernt

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden = = 83 79

In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden = = 83 79 Matrixpotenzen n Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden. a) terative Berechnung = 2 = 2 2 2 5 = 7 = 2 2 2 2 = 5 4 4 5 = 5 4 4 5 5 = 29 25 = 5 4 4 5 2 3 = 4 2 3

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Sommersemester 2010 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax = b

Mehr

Übungen p-adische Zahlen

Übungen p-adische Zahlen Blatt 1 Aufgabe 1. Berechnen Sie die ersten fünf Ziffern a 0,..., a 4 der ganzen p- adischen Zahl 1 + p + p 2 = a i p i Z p, p 1 i 0 für die Primzahlen p = 2, 3, 5. Aufgabe 2. Sei a = i 0 a ip i Z p eine

Mehr

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3 Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

Diskrete Strukturen II

Diskrete Strukturen II SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen

Mehr

Das Additionstheorem für die Weierstrass sche -Funktion und elliptische Integrale. Peychyn Lai

Das Additionstheorem für die Weierstrass sche -Funktion und elliptische Integrale. Peychyn Lai Das Additionstheorem für die Weierstrass sche -Funktion und elliptische Integrale Peychyn Lai 10. Oktober 2007 1 Einleitung Wir haben im letzten Vortrag die Weierstrass sche -Funktion kennengelernt, die

Mehr

Übungen zu Einführung in die Lineare Algebra und Geometrie

Übungen zu Einführung in die Lineare Algebra und Geometrie Übungen zu Einführung in die Lineare Algebra und Geometrie Andreas Cap Wintersemester 2014/15 Kapitel 1: Einleitung (1) Für a, b Z diskutiere analog zur Vorlesung das Lösungsverhalten der Gleichung ax

Mehr

8.2 Invertierbare Matrizen

8.2 Invertierbare Matrizen 38 8.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Klausur,,Algorithmische Mathematik II

Klausur,,Algorithmische Mathematik II Institut für angewandte Mathematik Sommersemester 017 Andreas Eberle, Matthias Erbar / Behrend Heeren Klausur,,Algorithmische Mathematik II Musterlösung 1 (Unabhängige Zufallsvariablen) a) Wir bezeichnen

Mehr

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw.

Mischungsverhältnisse: Nehmen wir an, es stehen zwei Substanzen (zum Beispiel Flüssigkeiten) mit spezifischen Gewicht a = 2 kg/l bzw. Kapitel 5 Lineare Algebra 5 Lineare Gleichungssysteme und Matrizen Man begegnet Systemen von linearen Gleichungen in sehr vielen verschiedenen Zusammenhängen, etwa bei Mischungsverhältnissen von Substanzen

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

36 2 Lineare Algebra

36 2 Lineare Algebra 6 Lineare Algebra Quadratische Matrizen a a n sei jetzt n m, A, a ij R, i, j,, n a n a nn Definition Eine quadratische Matrix A heißt invertierbar genau dann, wenn es eine quadratische Matrix B gibt, so

Mehr

Die Probabilistische Methode

Die Probabilistische Methode Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Maßtheorie KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Basiswissen Matrizen

Basiswissen Matrizen Basiswissen Matrizen Mathematik GK 32 Definition (Die Matrix) Eine Matrix A mit m Zeilen und n Spalten heißt m x n Matrix: a a 2 a 4 A a 2 a 22 a 24 a 4 a 42 a 44 Definition 2 (Die Addition von Matrizen)

Mehr

KAPITEL 1. Martingale

KAPITEL 1. Martingale KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Kapitel 24. Entwicklungen holomorpher Funktionen Taylor-Reihen (Potenzreihen und holomorphe Funktionen;

Kapitel 24. Entwicklungen holomorpher Funktionen Taylor-Reihen (Potenzreihen und holomorphe Funktionen; Kapitel 24 Entwicklungen holomorpher Funktionen Reihenentwicklungen spielen in der Funktionentheorie eine ganz besodere Rolle. Im Reellen wurden Potenzreihen in Kapitel 5.2 besprochen, das komplexe Gegenstück

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

3. Prozesse mit kontinuierlicher Zeit

3. Prozesse mit kontinuierlicher Zeit 3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess

Mehr

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Klausur zur Vorlesung,,Algorithmische Mathematik II

Klausur zur Vorlesung,,Algorithmische Mathematik II Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

Kapitel 11 Eigenwerte und Eigenvektoren

Kapitel 11 Eigenwerte und Eigenvektoren Kapitel Eigenwerte und Eigenvektoren. Problem der Diagonalisierbarkeit Es sei wieder K gleich R oder. Eine n n)-matrix A mit Koeffizienten aus K wird als diagonalisierbar bezeichnet, wenn es eine invertierbare

Mehr

Heinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Vierzehnte & Fünfzehnte Woche,

Heinrich Heine-Universität Düsseldorf Sommersemester Lineare Algebra 1. Vierzehnte & Fünfzehnte Woche, Fakultät für Mathematik PD Dr Markus Perling Heinrich Heine-Universität Düsseldorf Sommersemester 2014 Lineare Algebra 1 Vierzehnte & Fünfzehnte Woche, 1672014 10 Determinanten (Schluß) Das folgende Resultat

Mehr

Lösungen zum 9. Übungsblatt zur Vorlesung Höhere Mathematik II für biw/ciw/mach/mage/vt

Lösungen zum 9. Übungsblatt zur Vorlesung Höhere Mathematik II für biw/ciw/mach/mage/vt Karlsruher Institut für Technologie Institut für Algebra und Geometrie PD Dr. F. Hettlich Dr. S. Schmitt Dipl.-Math. J. Kusch Karlsruhe, den 09.06.20 Lösungen zum 9. Übungsblatt zur Vorlesung Höhere Mathematik

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

Mathematik für Anwender. Testklausur mit Lösungen

Mathematik für Anwender. Testklausur mit Lösungen Fachbereich Mathematik/Informatik 4. Januar 0 Prof. Dr. H. Brenner Mathematik für Anwender Testklausur mit en Dauer: Zwei volle Stunden + 0 Minuten Orientierung, in denen noch nicht geschrieben werden

Mehr

Stochastik Aufgaben zum Üben: Teil 2

Stochastik Aufgaben zum Üben: Teil 2 Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 3 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 205): Lineare Algebra und analytische Geometrie 3 3. (Herbst 997, Thema 3, Aufgabe ) Berechnen Sie die Determinante der reellen Matrix 0 2 0 2 2 2

Mehr

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle). 77 Markowketten 77 Motivation Der Zustand eines Systems zur Zeit n N werde durch eine Zufallsvariable X n beschrieben und soll nur von X n abhängen (nicht jedoch von früheren Zuständen X n, X n 3, ) Wir

Mehr

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem binären Experiment mit Erfolgswahrscheinlichkeit p genau in der k-ten unabhängigen

Mehr

10 Markow-Ketten. Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen

10 Markow-Ketten. Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen 10 Markow-Ketten Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen 10.1 Lineare Differenzengleichungen Unter einer homogenen linearen Differenzengleichung der Ordnung r verstehen wir eine

Mehr

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009

Eigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009 Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 8. Vorlesung - 2017 Bemerkung: Sei X = (X 1,..., X n ) Zufallsvektor. Der n dimensionale Vektor ( ) E(X ) = E(X 1 ),..., E(X n ) ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N (0,

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

Kapitel II - Wahrscheinlichkeitsraum

Kapitel II - Wahrscheinlichkeitsraum Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel II - Wahrscheinlichkeitsraum Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

Markov-Ketten 1. Definition 2.1

Markov-Ketten 1. Definition 2.1 Marov-Ketten Definition 2. Sei P eine -Matrix mit Elementen {P i,j : i, j,...,}. Ein Zufallsprozess (X 0, X,...) mit endlichem Zustandsraum S{s,...,s } heißt homogene Marov-Kette mit Übergangsmatrix P,

Mehr