Kapitel 4 Diskrete Markov-Prozesse

Größe: px
Ab Seite anzeigen:

Download "Kapitel 4 Diskrete Markov-Prozesse"

Transkript

1 Kapitel 4 Diskrete Markov-Prozesse

2 4.1 Definition und grundlegende Eigenschaften 4.1 Definition und grundlegende Eigenschaften Stetige Zeit aber weiterhin diskreter Zustandsraum. Beispiele: Klinische Studien, Krankenverläufe Markenwahlprozesse Poisson-Prozess Stochastische Modelle für die molekulare Evolution, d.h. die durch Mutation verursachte Veränderung der Nukleotide A, T, C, G an bestimmten Positionen der DNA. Vereinfachende Annahme: Die Evolution an verschiedenen Positionen verläuft unabhängig. Dann genügt es, Modelle separat für die Positionen zu entwickeln. Weitere Annahme: Homogenität und Stationarität. Verschiedene Modelle unterscheiden sich durch Annahmen an die Raten λ ij für Übergänge i j. Sommersemester

3 Definition: Diskreter Markov-Prozess 4.1 Definition und grundlegende Eigenschaften Ein stochastischer Prozess X = {X(t), t 0} mit abzählbarem Zustandsraum heißt (diskreter) Markov-Prozess : n 0, t > s > s n >... > s 0 0 gilt P (X(t) = j X(s) = i, X(s n ) = i n,..., X(s 0 ) = i 0 ) = P (X(t) = j X(s) = i) für beliebige j, i, i n,..., i 0 S. p ij (s, t) := P (X(t) = j X(s) = i) heißt Übergangswahrscheinlichkeit(-sfunktion) und P (s, t) = (p ij (s, t)) Übergangsmatrix. Ein Markov-Prozess heißt homogen (oder besitzt stationäre Übergangswahrscheinlichkeiten) : P (X(t + s) = j X(s) = i) = P (X(t) = j X(0) = i) = p ij (0, t) =: p ij (t), d.h. nur die Zeitdifferenz ist maßgeblich. Sommersemester

4 Bemerkungen: 4.1 Definition und grundlegende Eigenschaften Wie bei den Markov-Ketten werden wir uns im Folgenden meist auf homogene Markov-Prozesse beschränken. p ij (t) entspricht p (t) ij (t-schrittige Übergangswahrscheinlichkeit) bei Markov-Ketten. Für die Übergangswahrscheinlichkeiten gilt p ij (t) 0, p ij (t) = 1 j S Chapman-Kolmogorov-Gleichung (für homogene Markov-Prozesse) p ij (s + t) = k S p ik (s)p kj (t) P (s + t) = P (s)p (t) Sommersemester

5 4.1 Definition und grundlegende Eigenschaften Gemeinsame Verteilung: n N, 0 t 0 < t 1 <... < t n R +, i 0, i 1,..., i n S gilt P (X(t n ) = i n,..., X(t 1 ) = i 1 X(t 0 ) = i 0 ) = p i0 i 1 (t 1 t 0 )... p in 1 i n (t n t n 1 ) P (X(t n ) = i n,..., X(t 1 ) = i 1, X(t 0 ) = i 0 ) = P (X(t 0 ) = i 0 ) p i0 i 1 (t 1 t 0 )... p in 1 i n (t n t n 1 ). Satz von Kolmogorov & Likelihood. Im Folgenden setzen wir stets voraus p ij (0) = lim h 0 p ij (h) = δ ij = { 1 i = j 0 i j d.h. ein Übergang von i nach j (i j) beansprucht eine positive Zeitspanne. Sommersemester

6 4.1 Definition und grundlegende Eigenschaften Definition: (Übergangs-)Intensität, Rate Für i, j S, i j, heißt λ ij = lim h 0 p ij (h) h = lim h 0 P (X(t + h) = j X(t) = i) h = lim h 0 P (X(t + h) = j X(t) = i, Vorgeschichte) h = p ij(0) Übergangsintensität bzw. Rate für den Übergang von i nach j. Für i = j definieren wir λ ii = lim h 0 p ii (h) p ii (0) h p ii (h) 1 = lim. h 0 h Allgemein gilt also für i, j S mit 0 λ ij < für i j, aber λ ii 0. λ ij = p ij(0) = lim h 0 p ij (h) p ij (0) h Sommersemester

7 4.1 Definition und grundlegende Eigenschaften Λ = (λ ij ) heißt Intensitätsmatrix. In o(h) Schreibweise gilt also für i j p ij (h) = P (X(t + h) = j X(t) = i) = λ ij h + o(h), p ii (h) = 1 + λ ii h + o(h). Beispiel: Poisson-Prozess p i,i+1 (h) = λh + o(h) { 0, 0 j i 1 p ij (h) = o(h), j i + 2 p ii (h) = 1 λh + o(h) λ i,i+1 = λ { 0, 0 j i 1 λ ij = 0, j i + 2 λ ii = λ Sommersemester

8 4.2 Geburts- und Todesprozesse 4.2 Geburts- und Todesprozesse Definition: Geburtsprozess Ein stochastischer Prozess X = {X(t), t 0} mit Zustandsraum S N 0 heißt Geburtsprozess : X ist ein homogener, diskreter MP mit p i,i+1 (h) = λ i h + o(h), p i,i (h) = 1 λ i h + o(h), λ i 0 i i 0 p i,j (h) = { 0, 0 j i 1 o(h), j i + 2 Datenstruktur wie beim Poisson-Prozess, aber zustandsabhängige Intensitäten λ i. Analog zum Poisson-Prozess gilt λ i,i+1 = λ i, λ ii = λ i, λ ij = 0 für j / {i, i + 1}. Sommersemester

9 4.2 Geburts- und Todesprozesse Herleitung der Übergangswahrscheinlichkeiten p 0n (t) = P (X(t) = n X(0) = 0) aus den Intensitäten. Eine Wahrscheinlichkeitsverteilung p 0n (t) = 1 t 0 n=0 ergibt sich genau dann, wenn Gegenbeispiel: Rate λ i = 2 i. i=0 1 λ i =. Sommersemester

10 Exponentialverteilte Verweildauern 4.2 Geburts- und Todesprozesse Die Verweildauern T i, i N, sind unabhängig und exponentialverteilt mit Parameter λ i, d.h. T i Ex(λ i ). Interpretation: i=0 1 λ i ist die erwartete Zeit bevor {X(t) = } eintritt. Falls die Summe divergiert scheint plausibel, dass P {X(t) = } = 0 gilt. Yule-Prozess: Population mit Anfangsbestand von X(0) = i 0 Individuen. Unabhängige Vermehrung, wobei jedes Individuum im Zeitintervall h mit Wahrscheinlichkeit λh + o(h) ein weiteres Mitglied der Population erzeugt und die Wahrscheinlichkeit für die Erzeugung mehrerer Individuen o(h) sei. Der binomische Lehrsatz liefert ( ) i p i,i+1 (h) = (λh + o(h))(1 λh + o(h)) i 1 = iλh + o(h) 1 ( ) i p i,j (h) = (λh + o(h)) j i (1 λh + o(h)) i (j i) = o(h) für j i 2. j i Sommersemester

11 4.2 Geburts- und Todesprozesse Geburtsprozess mit Rate λ i = iλ. X(t) i 0 besitzt eine negative Binomialverteilung mit Parametern i 0 und exp( λt). E(X(t) i 0 ) = i 0(1 exp( λt)), exp( λt) V ar(x(t) i 0 ) = i 0(1 exp( λt)) exp( 2λt) exponentielles Wachstum: E(X(t)) = i 0 exp(λt), V ar(x(t)) = i 0 exp(λt)(exp(λt) 1). Sommersemester

12 Definition: Geburts- und Todesprozess 4.2 Geburts- und Todesprozesse Ein stochastischer Prozess X = {X(t), t 0} mit Zustandsraum S N 0 heißt Geburts- und Todesprozess : X ist ein homogener, diskreter MP mit mit p i,i+1 (h) = λ i h + o(h) i 0 p i,i 1 (h) = µ i h + o(h) i 1 p ii (h) = 1 (λ i + µ i )h + o(h) i 0 p ij (h) = o(h) i j 2, i, j 0 µ 0 = 0, λ 0 0 (> 0 reflektierend, = 0 absorbierend), µ i, λ i 0 für i 1. Sommersemester

13 Für die Intensitäten gilt also 4.2 Geburts- und Todesprozesse λ i,i+1 = λ i, λ i,i 1 = µ i, λ ij = 0 für i j 2, λ ii = (λ i + µ i ) Die explizite Berechnung der Übergangsmatrix P (t) aus Λ ist i.a. nicht möglich. Das Wartesystem M/M/1/ Poisson-Prozess mit Rate λ Bedienungszeit Ex(µ) X(t) Die Anzahl der im System befindlichen Kunden X(t) ist ein spezieller Geburts-Todes- Prozess mit λ i = λ und µ i = µ. Sommersemester

14 Für λ < µ existiert die Grenzverteilung p j : 4.2 Geburts- und Todesprozesse p j = lim t p ij (t) = (1 r)r j, r = λ µ lim t X(t) = X( ) geometrisch verteilt mit E(X( )) = r 1 r, V ar(x( )) = r (1 r) 2 Varianten: begrenzte Kapazität N des Warteraums (M/M/1/N) { λ 0 i N λ i = 0 i > N von der Länge der angetroffenen Warteschlange verursachte Entmutigung, z.b. λ i = λ (i + 1), i = 0, 1,... Sommersemester

15 4.2 Geburts- und Todesprozesse Das Wartesystem M/M/s/ : s Schalter jeweils mit Rate µ X(t) Geburts-Todes-Prozess mit λ i = λ und µ = { µi, i = 1,..., s µs, i = s + 1,... Grenzverteilung existiert für λ < sµ. Modelle zur Bevölkerungsentwicklung Verallgemeinerung des Yule-Prozess mit Geburtsrate λ i = iλ und Sterberate µ i = iµ Für X(0) = 1 kann man zeigen: E(X(t)) = exp((λ µ)t) (für λ µ) Wahrscheinlichkeit des Aussterbens = { 1, λ µ µ λ, λ > µ Sommersemester

16 Struktur der Pfade von Geburts- und Todesprozessen 4.2 Geburts- und Todesprozesse Wahrscheinlichkeit für Verlassen des Zustands i im Intervall (t, t + h]: (λ i + µ i )h + o(h). Exp(λ i + µ i )-verteilte Verweildauern (analog zum Poisson-Prozess). Wahrscheinlichkeit für Zustandsänderung i i + 1: λ i h + o(h) Wahrscheinlichkeit für Zustandsänderung i i 1: µ i h + o(h) Unter der Bedingung, dass eine Zustandsänderung stattfindet, erhält man also die bedingten Wahrscheinlichkeiten λ i (λ i + µ i ) µ i (λ i + µ i ) Übergang i i + 1 Übergang i i 1 Sommersemester

17 Vorgehen zur Simulation: 4.2 Geburts- und Todesprozesse Der aktuelle Zustand sei i. Realisiere eine Exp(λ i + µ i )-verteilte Zufallsvariable, um die Verweildauer in i zu erhalten. Entscheide dann anhand eines Bernoulli- Experiments mit den obigen Wahrscheinlichkeiten, welcher der zwei möglichen Zustandswechsel eintritt. Sommersemester

18 4.3 Skizze der allgemeinen Theorie 4.3 Skizze der allgemeinen Theorie Voraussetzungen: p ij (0) = δ ij, Pfade (mit W keit 1) rechtsseitig stetig. Bezeichnungen: S n Zeitpunkt der n-ten Zustandsänderung, S 0 = 0, Y n = X(S n ) zum Zeitpunkt S n angenommener Zustand, T n+1 = S n+1 S n Verweildauer in Y n, S n+1 = S n + T n+1. Falls absorbierende Zustände Y n möglich sind, d.h. S n+1 =, { Y n, S n+1 = Y n+1 = X(S n+1 ), S n+1 <. λ ij Rate für Übergang i j. λ i = j λ ij. V (t) Vorwärtsrekurrenzzeit: Dauer von t an bis zur nächsten Zustandsänderung Sommersemester

19 Exponentialverteilte Verweildauern: 4.3 Skizze der allgemeinen Theorie Die Verweildauern T i, i N sind exponentialverteilt mit Parameter λ i. Für jeden Zeitpunkt t gilt P (V (t) s X(t) = i) = 1 e λ is, s 0, die Vorwärtsrekurrenzzeit ist also ebenfalls exponentialverteilt mit Parameter λ i. Definition: Zustand i ist absorbierend : λ i = 0 stabil : 0 < λ i < instabil : λ i = Sommersemester

20 4.3 Skizze der allgemeinen Theorie Falls i absorbierend ist, gilt für alle s 0 P (V (t) > s X(t) = i) = P (X(t + s) = i X(t) = i) = 1. Der Zustand i wird mit W keit 1 nicht mehr verlassen. Falls i stabil ist, gilt P (0 < V (t) < X(t) = i) = 1. X verweilt in i eine positive, aber endliche Zeit (mit W keit 1). Falls i instabil ist, gilt P (V (t) = 0 X(t) = i) = 1. Der MP verlässt einen instabilen Zustand sofort wieder. Dies führt zu nicht rechtsseitig stetigen Pfaden. Daher sind instabile Zustände im weiteren ausgeschlossen. Sommersemester

21 4.3 Skizze der allgemeinen Theorie Struktursatz: Sei X ein Markov-Prozess mit rechtsseitig stetigen Pfaden. Dann gilt n N 0 j, i,..., i 0 S t, t 1,..., t n R 0 < s 1... < s n 1. P (Y n+1 = j, T n+1 > t Y n = i,..., Y 0 = i 0, S n = s n,..., S 0 = 0) = q ij e λ it mit q ij 0, { 0, i stabil q ij = 1, q ii = 1, i absorbierend j S 2. {Y n, n N} ist eine Markov-Kette mit Übergangsmatrix Q = (q ij) 3. P (T n+1 > t Y n = i, Y n+1 = j) = P (T n+1 > t Y n = i) = e λ it 4. P (T 1 > t 1,..., T n > t n Y n = i,..., Y 0 = i 0 ) = e λ i 0 t 1... e λ i n 1 t n Sommersemester

22 Bemerkungen: 4.3 Skizze der allgemeinen Theorie (a) {Y n, n N} heißt eingebettete Markov-Kette. Erreichbarkeits- / Rekurrenzeigenschaften der eingebetteten Markov-Kette übertragen sich auf diskreten Markov- Prozess. (b) Aussage 3 besagt, dass λ i nächsten abhängt. nur vom eben besuchten Zustand, nicht aber vom (c) Aussage 4 besagt, dass die Verweildauern exponentialverteilt und bedingt unabhängig sind, wenn die Folge der besuchten Zusände gegeben ist. (d) Der Struktursatz liefert auch die gemeinsame Verteilung von {T n, Y n } und damit die Likelihood zur ML-Schätzung der Strukturparameter λ i und q ij (bzw. der Intensitäten λ ij ): P (T 1 > t 1,..., T n > t n, Y 0 = i 0, Y 1 = i 1,..., Y n = i n ) = P (T 1 > t 1,..., T n > t n Y 0 = i 0, Y 1 = i 1,..., Y n = i n ) P (Y 0 = i 0, Y 1 = i 1,..., Y n = i n ) = e λ 0t1... e λ i n 1 tn P (Y 0 = i 0 ) q i0 i 1... q in 1 i n Sommersemester

23 Konstruktion bzw. Simulation der Pfade eines Markov-Prozesses: 4.3 Skizze der allgemeinen Theorie Startwert X(ω, 0) = Y 0 (ω) = i 0 Im Zustand Y n (ω) = i n, n N 0, bestimmt man gemäß der Verteilung q in j, j S, den nächsten Zustand Y n+1 (ω) = i n+1. Die Verweildauer T n+1 (ω) = t n+1 in i n bis zum Sprung nach i n+1 wird gemäß einer λ in -Exponentialverteilung realisiert. Definition: Regulärer Markov-Prozess Ein Markov-Prozess heißt regulär, wenn er die folgenden Eigenschaften besitzt: { 1, i = j 1. p ij (0) = lim p ij (h) = δ ij = h 0 0, i j 2. Pfade (mit Wahrscheinlichkeit 1) rechtsseitig stetig. 3. sup n S n = +. Sommersemester

24 4.3 Skizze der allgemeinen Theorie Regularitätskriterien Ein Markov-Prozess, der die Eigenschaften 1. und 2. erfüllt ist regulär, falls eine der folgenden Eigenschaften gilt: 1. S ist endlich. 2. λ i c für alle i S. 3. Alle Zustände der eingebetteten Markov-Kette Y sind rekurrent. 4. Die Markov-Kette Y verbleibt mit Wahrscheinlichkeit 0 in einer transienten Klasse. Intensitäten und Strukturparameter X sei ein regulärer MP. Dann sind die Übergangswahrscheinlichkeiten p ij(t) stetig differenzierbar und es gilt p ij(0) = lim h 0 p ij (h) p ij (0) h = λ ij = { λ i, i = j λ i q ij, i j, Sommersemester

25 4.3 Skizze der allgemeinen Theorie bzw. in o(h)-schreibweise P (X(t + h) = j X(t) = i) = hλ i q ij + o(h), i j P (X(t + h) = i X(t) = i) = 1 λ i h + o(h). In Matrixschreibweise (S endlich): bzw. lim h P (h) = I + Λh + o(h). P (h) I h = P (0) = Λ. Die Zeilensummen der Intensitätsmatrix Λ sind gleich 0, d.h. für alle i S gilt λ ii = λ i = j S,j i λ ij. Sommersemester

26 4.3 Skizze der allgemeinen Theorie Bestimmung der Übergangswahrscheinlichkeiten P (t) aus Λ Sei X ein regulärer Markov-Prozess. Dann ist die Übergangsmatrix P (t) = (p ij(t)) durch die Übergangsmatrix Q der eingebetteten Markov-Kette Y und die Parameter λ i der Verweildauern bzw. die Intensitätsmatrix Λ eindeutig bestimmt. Die Übergangswahrscheinlichkeiten p ij (t) sind Lösung von 1. p ij(t) = k S λ ik p kj (t) bzw. P (t) = ΛP (t), P (0) = I (Rückwärtsgleichungen von Kolmogorov) 2. p ij(t) = k S p ik (t)λ kj bzw. P (t) = P (t)λ, P (0) = I (Vorwärtsgleichungen von Kolmogorov) 3. Für endliches S ist die Lösung gegeben durch P (t) = e tλ = I + tλ + (tλ)2 2! + (tλ)3 3! +... Sommersemester

27 4.3 Skizze der allgemeinen Theorie Die (numerische) Berechnung erfolgt mit Hilfe der Spektralzerlegung von Λ Λ = U diag(d 1,..., d m )U 1, mit den Eigenwerten d 1,..., d m und der Matrix U der Eigenvektoren. Dann gilt P (t) = U diag(e d1t,..., e dmt )U 1. Beispiel: Markov-Prozess mit 2 Zuständen Λ = ( ) Eigenwertzerlegung von Λ: D = ( ), U = ( ), U 1 = ( ). Sommersemester

28 4.3 Skizze der allgemeinen Theorie P (t) = U diag(e d 1t, e d 2t )U 1 =... = ( ) + e 3t ( ) Bemerkung: Es existiert der Grenzwert lim P (t) = t ( ). Beispiel: Allgemeiner Markov-Prozess mit 2 Zuständen Λ = ( λ λ µ µ ). Sommersemester

29 4.3 Skizze der allgemeinen Theorie Die Kolmogorov-Gleichung P (t) = P (t)λ ergibt ( p 00 (t) p 01(t) p 10(t) p 11(t) ) = ( p00 (t) p 01 (t) p 10 (t) p 11 (t) ) ( λ λ µ µ ). p 00(t) = λp 00 (t) + µp 01 (t), p 01 (t) = 1 p 00 (t), p 00(t) = +µ (λ + µ)p 00 (t). Lösung: p 00 (t) = µ λ + µ + p 01 (t) = 1 p 00 (t) = λ λ + µ λ λ + µ e (λ+µ)t λ λ + µ e (λ+µ)t Sommersemester

30 Aus Symmetriegründen erhält man 4.3 Skizze der allgemeinen Theorie p 11 (t) = p 10 (t) = λ λ + µ + µ λ + µ e (λ+µ)t µ λ + µ µ λ + µ e (λ+µ)t Grenzwert: lim P (t) = t ( µ λ+µ µ λ+µ λ λ+µ λ λ+µ ). Die Zustände eines Markov-Prozesses werden anhand der eingebetteten Markov-Kette klassifiziert (Rekurrenz, Erreichbarkeit, Periodizität, etc.). Für transientes j folgt aus lim t q (t) ij = 0 für die t-schritt ÜW q (t) ij auch lim t p ij (t) = 0. Für Grenzwertsätze daher Beschränkung auf irreduzible, rekurrente MP. Sommersemester

31 Grenzwertsatz: 4.3 Skizze der allgemeinen Theorie Sei X ein regulärer, positiv-rekurrenter und irreduzibler Markov-Prozess. Dann gilt: 1. lim P (X(t) = j) = π j t unabhängig. existiert j S, und ist von der Anfangsverteilung 2. Die Grenzverteilung π läßt sich berechnen über (a) π j = µ j i µ i mit µλ = 0 bzw. (b) π j = 3. lim t P (t) = ν j/λ j i ν i/λ i mit ν = νq. π. π. π 4. π = (..., π j,...) ist strikt positiv. Sommersemester

32 5. π ist die einzige stationäre Verteilung von X, d.h. es gilt 4.3 Skizze der allgemeinen Theorie π = π P (t) t 0. Beispiel: Markov-Prozess mit zwei Zuständen Λ = ( ) λ1 λ 1 λ 2 λ 2 Möglichkeit 1: Über die Intensitätsmatrix µλ = 0 µ 1 λ 1 + µ 2 λ 2 = 0 µ 1 λ 1 + (1 µ 1 )λ 2 = 0 µ 1 λ 1 µ 2 λ 2 = 0 λ 2 µ 1 (λ 1 + λ 2 ) = 0 µ 1 = λ 2 λ 1 + λ 2, µ 2 = λ 1 λ 1 + λ 2. Sommersemester

33 4.3 Skizze der allgemeinen Theorie Möglichkeit 2: Über die eingebettete Markov-Kette ν = νq Q = ( ) stationäre Verteilung: Grenzverteilung ist proportional zu (π 1, π 2 ) = ( 1 ν = 2, 1 ). 2 ( 1, 1 ) : λ 1 λ 2 ( λ2 λ 1 + λ 2, ) λ 1. λ 1 + λ 2 Sommersemester

34 4.3 Skizze der allgemeinen Theorie Peter Prinzip: Drei berufliche Kategorien in einem Betrieb: T Trainee, J Junior, S Senior T J S T Λ = J λ T λ T 0 λ JT λ J λ JS. S λ S 0 λ S Grenzverteilung: π = (π T, π J, π S ) Lösung ist mit N = λ S λ J + λ S λ T + λ T λ JS. λ T π T = λ JT π J + λ S π S λ J π J = λ T π T λ S π S = λ JS π J 1 = π T + π J + π S. π T = λ Sλ J N, π J = λ Sλ T N, π S = λ T λ JS N. Sommersemester

35 4.4 Inferenz 4.4 Inferenz Zwei mögliche Situationen in Anwendungen: 1. Vollständige Kenntnis über einen oder mehrere Pfade. 2. Beobachtungen nur zu Zeitpunkten t 1 < t 2 <... < t n, d.h. Pfade nicht vollständig beobachtet. In beiden Situationen: Likelihood basierte Inferenz für die Strukturparameter Λ = {λ ij } bzw. Q = {q ij }, λ = {λ i }. Situation 1: Die Likelihood wird gemäß Struktursatz bestimmt: P (Y n = i n, T n > t n Y n 1 = i n 1, S n 1 = s n 1,..., Y 0 = i 0, S 0 = 0) = q in 1 i n e λ i n 1 t n. Gemeinsame (bedingte) Dichte für Y n diskret, T n stetig (bezüglich Produktmaß aus Zählmaß und Lebesgue-Maß): q in 1 i n λ in 1 e λ i n 1 t n. Sommersemester

36 4.4 Inferenz Likelihood L(λ ij i 0, i 1,..., i n 1, i n, t 1,..., t n ): L(λ ij ) = p i0 (0) q i0 i 1 λ i0 e λ i t q ij λ i e λ itj... q in 1 i n λ in 1 e λ i n 1 t n = p i0 (0) i S{exp( λ i γ i ) (q ij λ i ) n ij } j S,j i mit γ i gesamte Verweildauer in i und n ij Gesamtzahl der Übergänge i j. Log-Likelihood (ohne p i0 (0)): l(λ ij ) = i S = i,j;i j λ i γ i + l(λ ij ) λ ij = γ i + n ij λ ij! = 0 i,j S,i j n ij log(λ ij ) ( λ ij γ i + n ij log(λ ij )) Sommersemester

37 Damit ergeben sich die ML-Schätzer 4.4 Inferenz ˆλ ij = n ij γ i ˆλ i = n i γ i, mit n i = j n ij ˆq ij = ˆλ ij ˆλ i = n ij/γ i n i /γ i = n ij n i ˆλ ij ist konsistent für λ ij mit asymptotischer Varianz n ij. γ i 2 Situation 2: Daten X(t 1 ) = i 1,..., X(t n ) = i n Likelihood L(λ ij X(t 1 ) = i 1,..., X(t n ) = i n ) = p i0 (0)p i1 i 2 (t 2 t 1 )... p in 1 i n (t n t n 1 ) Die Übergangswahrscheinlichkeiten müssen dabei aus den Kolmogorov-Gleichungen bzw. über die Spektralzerlegung von Λ bestimmt werden. Numerisch aufwendig. Sommersemester

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Rückwärtsgleichung P (t) = QP (t), P (0) = E eine minimale nicht negative Lösung (P (t) : t 0). Die Lösung bildet eine Matrix Halbgruppe, d.h. P (s)p

Mehr

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen

Mehr

Diskrete Wahrscheinlichkeitstheorie - Probeklausur

Diskrete Wahrscheinlichkeitstheorie - Probeklausur Diskrete Wahrscheinlichkeitstheorie - robeklausur Sommersemester 2007 - Lösung Name: Vorname: Matrikelnr.: Studiengang: Hinweise Sie sollten insgesamt Blätter erhalten haben. Tragen Sie bitte Ihre Antworten

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Stochastik und Statistik für Ingenieure Vorlesung 4

Stochastik und Statistik für Ingenieure Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl

Mehr

Simulationsmethoden in der Bayes-Statistik

Simulationsmethoden in der Bayes-Statistik Simulationsmethoden in der Bayes-Statistik Hansruedi Künsch Seminar für Statistik, ETH Zürich 6. Juni 2012 Inhalt Warum Simulation? Modellspezifikation Markovketten Monte Carlo Simulation im Raum der Sprungfunktionen

Mehr

Flüsse, Fixpunkte, Stabilität

Flüsse, Fixpunkte, Stabilität 1 Flüsse, Fixpunkte, Stabilität Proseminar: Theoretische Physik Yannic Borchard 7. Mai 2014 2 Motivation Die hier entwickelten Formalismen erlauben es, Aussagen über das Verhalten von Lösungen gewöhnlicher

Mehr

Simulation von Zufallsvariablen und Punktprozessen

Simulation von Zufallsvariablen und Punktprozessen Simulation von Zufallsvariablen und Punktprozessen 09.11.2009 Inhaltsverzeichnis 1 Einleitung 2 Pseudozufallszahlen 3 Punktprozesse Zufallszahlen Definition (Duden): Eine Zufallszahl ist eine Zahl, die

Mehr

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1 Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne

Mehr

Klausur zur Vorlesung,,Algorithmische Mathematik II

Klausur zur Vorlesung,,Algorithmische Mathematik II Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese

Mehr

Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)

Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen) Proseminarvortrag Markov-Ketten in der Biologie (Anwendungen) von Peter Drössler 20.01.2010 2 Markov-Ketten in der Biologie (Peter Drössler, KIT 2010) Inhalt 1. Das Wright-Fisher Modell... 3 1.1. Notwendige

Mehr

Spezielle stetige Verteilungen

Spezielle stetige Verteilungen Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für

Mehr

Werner Sandmann: Modellierung und Analyse 4 1. Kapitel 4. Markovketten

Werner Sandmann: Modellierung und Analyse 4 1. Kapitel 4. Markovketten Werner Sandmann: Modellierung und Analyse 4 1 Kapitel 4 Markovketten Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.1 Grundlagen 4 2 Abschnitt 4.1 Grundlagen Werner Sandmann: Modellierung

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Diskrete Verteilungen

Diskrete Verteilungen KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder

Mehr

LANGZEITVERHALTEN VON MARKOW-KETTEN

LANGZEITVERHALTEN VON MARKOW-KETTEN LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte

Mehr

Dynamische Systeme eine Einführung

Dynamische Systeme eine Einführung Dynamische Systeme eine Einführung Seminar für Lehramtstudierende: Mathematische Modelle Wintersemester 2010/11 Dynamische Systeme eine Einführung 1. Existenz und Eindeutigkeit von Lösungen 2. Flüsse,

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen. Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.

Mehr

Kapitel VI - Lage- und Streuungsparameter

Kapitel VI - Lage- und Streuungsparameter Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

ε δ Definition der Stetigkeit.

ε δ Definition der Stetigkeit. ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte

Mehr

Lineare Abhängigkeit

Lineare Abhängigkeit Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x

Mehr

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS Aufgabe 1. a) Gegeben sei die Gleichung 2x 2 4xy +y 2 3x+4y = 0. Verifizieren Sie, dass diese Gleichung

Mehr

9 Die Normalverteilung

9 Die Normalverteilung 9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,

Mehr

Beispiel: Evolution infizierter Individuen

Beispiel: Evolution infizierter Individuen Differentialgleichungen sind sehr nützlich in der Modellierung biologischer Prozesse, denn: damit kann man auch sehr komplizierte Systeme beschreiben die Mathematik liefert mit der gut entwickelten Theorie

Mehr

Übungen zur Vorlesung MATHEMATIK II

Übungen zur Vorlesung MATHEMATIK II Fachbereich Mathematik und Informatik der Philipps-Universität Marburg Übungen zur Vorlesung MATHEMATIK II Prof. Dr. C. Portenier unter Mitarbeit von Michael Koch Marburg, Sommersemester 2005 Fassung vom

Mehr

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente... Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............

Mehr

Ü b u n g s b l a t t 15

Ü b u n g s b l a t t 15 Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 2. 7. 2007 Ü b u n g s b l a t t 15 Hier ist zusätzliches Übungsmaterial zur Klausurvorbereitung quer durch die Inhalte der Vorlesung. Eine

Mehr

8. Stetige Zufallsvariablen

8. Stetige Zufallsvariablen 8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse

Mehr

Punktprozesse. Andreas Frommknecht Seminar Zufällige Felder Universität Ulm

Punktprozesse. Andreas Frommknecht Seminar Zufällige Felder Universität Ulm Einführung in Beispiele für Andreas Seminar Zufällige Felder Universität Ulm 20.01.2009 Inhalt Einführung in Beispiele für Definition Markierte 1 Einführung in Definition Markierte 2 Beispiele für Homogener

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

Bedingte Wahrscheinlichkeiten und Unabhängigkeit

Bedingte Wahrscheinlichkeiten und Unabhängigkeit Kapitel 5 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Mitunter erhält man über das Ergebnis eines zufälligen Versuches Vorinformationen. Dann entsteht die Frage, wie sich für den Betrachter, den man

Mehr

1 Grundprinzipien statistischer Schlußweisen

1 Grundprinzipien statistischer Schlußweisen Grundprinzipien statistischer Schlußweisen - - Grundprinzipien statistischer Schlußweisen Für die Analyse zufallsbehafteter Eingabegrößen und Leistungsparameter in diskreten Systemen durch Computersimulation

Mehr

Dierentialgleichungen 2. Ordnung

Dierentialgleichungen 2. Ordnung Dierentialgleichungen 2. Ordnung haben die allgemeine Form x = F (x, x, t. Wir beschränken uns hier auf zwei Spezialfälle, in denen sich eine Lösung analytisch bestimmen lässt: 1. reduzible Dierentialgleichungen:

Mehr

Kapitel 2 Wahrscheinlichkeitsrechnung

Kapitel 2 Wahrscheinlichkeitsrechnung Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt

Mehr

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik Universität Karlsruhe (TH) Institut für Stochastik Dr. Bernhard Klar Dipl.-Math. oec. Volker Baumstark Name Vorname Matr.-Nr.: Scheinklausur Stochastik für Studierende des Lehramts und der Diplom-Pädagogik

Mehr

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch 6 Stetige Verteilungen 1 Kapitel 6: Stetige Verteilungen A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch dargestellt. 0.2 6

Mehr

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.)

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.) 3. Untergruppen 19 3. Untergruppen Nachdem wir nun einige grundlegende Gruppen kennengelernt haben, wollen wir in diesem Kapitel eine einfache Möglichkeit untersuchen, mit der man aus bereits bekannten

Mehr

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung

Mehr

I. Deskriptive Statistik 1

I. Deskriptive Statistik 1 I. Deskriptive Statistik 1 1. Einführung 3 1.1. Grundgesamtheit und Stichprobe.................. 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................

Mehr

Differentialgleichungen

Differentialgleichungen Kapitel Differentialgleichungen Josef Leydold Mathematik für VW WS 05/6 Differentialgleichungen / Ein einfaches Modell (Domar) Im Domar Wachstumsmodell treffen wir die folgenden Annahmen: () Erhöhung der

Mehr

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Lösungsvorschläge Blatt 4

Lösungsvorschläge Blatt 4 Theoretische Informatik Departement Informatik Prof. Dr. Juraj Hromkovič http://www.ita.inf.ethz.ch/theoinf16 Lösungsvorschläge Blatt 4 Zürich, 21. Oktober 2016 Lösung zu Aufgabe 10 (a) Wir zeigen mit

Mehr

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben)

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben) Musterlösung zum. Aufgabenblatt zur Vorlesung MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur Gruben. Wahrscheinlichkeiten I ( Punkte Die Seiten von zwei Würfeln sind mit den folgenden Zahlen

Mehr

Kapitel VI. Euklidische Geometrie

Kapitel VI. Euklidische Geometrie Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und

Mehr

Signifikanz von Alignment Scores und BLAST

Signifikanz von Alignment Scores und BLAST Westfälische Wilhelms Universität Münster Fachbereich 10 - Mathematik und Informatik Signifikanz von Alignment Scores und BLAST Seminarvortrag von Leonie Zeune 10. Mai 2012 Veranstaltung: Seminar zur mathematischen

Mehr

Allgemeine Wahrscheinlichkeitsräume

Allgemeine Wahrscheinlichkeitsräume Kapitel 3 Allgemeine Wahrscheinlichkeitsräume 3. Einleitung Wir hatten schon bemerkt, dass der Begriff des diskreten Wahrscheinlichkeitsraums nicht ausreicht, um das unendliche Wiederholen eines Zufallsexperiments

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Analysis I - Stetige Funktionen

Analysis I - Stetige Funktionen Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt

Mehr

Mathematische Ökologie

Mathematische Ökologie Mathematische Ökologie Eine Zusammenfassung von Bernhard Kabelka zur Vorlesung von Prof. Länger im WS 2002/03 Version 1.04, 15. März 2004 Es sei ausdrücklich betont, dass (1) dieses Essay ohne das Wissen

Mehr

Adaptive Systeme. Sommersemester Prof. Dr. -Ing. Heinz-Georg Fehn. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Sommersemester Prof. Dr. -Ing. Heinz-Georg Fehn. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Sommersemester 2015 Prof. Dr. -Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Prof. Dr. H.-G. Fehn und Prof. Dr. N. Wulff 1 Adaptive Systeme Adaptives System: ein System, das

Mehr

Skript zur Analysis 1. Kapitel 3 Stetigkeit / Grenzwerte von Funktionen

Skript zur Analysis 1. Kapitel 3 Stetigkeit / Grenzwerte von Funktionen Skript zur Analysis 1 Kapitel 3 Stetigkeit / Grenzwerte von Funktionen von Prof. Dr. J. Cleven Fachhochschule Dortmund Fachbereich Informatik Oktober 2003 2 Inhaltsverzeichnis 3 Stetigkeit und Grenzwerte

Mehr

Warteschlangentheorie und Callcenter

Warteschlangentheorie und Callcenter Warteschlangentheorie und Callcenter Vortrag im Rahmen der Lehrerfortbildung,,Stochastik und Matrizen: von Markov-Ketten bis zu Callcentern 23. September 2009 Dr. Alexander Herzog, Institut für Mathematik,

Mehr

Surjektive, injektive und bijektive Funktionen.

Surjektive, injektive und bijektive Funktionen. Kapitel 1: Aussagen, Mengen, Funktionen Surjektive, injektive und bijektive Funktionen. Definition. Sei f : M N eine Funktion. Dann heißt f surjektiv, falls die Gleichung f(x) = y für jedes y N mindestens

Mehr

Lösungsvorschlag zu den Hausaufgaben der 8. Übung

Lösungsvorschlag zu den Hausaufgaben der 8. Übung FAKULTÄT FÜR MATHEMATIK Prof Dr Patrizio Ne Frank Osterbrink Johannes Lankeit 9503 Lösungsvorschlag zu den Hausaufgaben der 8 Übung Hausaufgabe : Beweise den Satz über die Parallelogrammgleichung Sei H

Mehr

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen 6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher: Diskrete Zufallsvariablen,

Mehr

9. Eine einfache Warteschlangen-Simulation.

9. Eine einfache Warteschlangen-Simulation. SS 2006 Arbeitsblatt 4 / S. 1 von 9 9. Eine einfache Warteschlangen-Simulation. A) Allgemeine Bemerkungen. Die Warteschlange aus 8., wie auch solche mit nur endlich grossem Warteraum, können auf einfache

Mehr

Einführung in die Theorie stochastischer Prozesse

Einführung in die Theorie stochastischer Prozesse Einführung in die Theorie stochastischer Prozesse Dr. Ingo Röder, IMISE, Universität Leipzig Folie 247 Stochastische Prozesse, Grundlagen Motivation Warum Modellierung mittels stochastischer Prozesse?

Mehr

Die komplexen Zahlen und Skalarprodukte Kurze Wiederholung des Körpers der komplexen Zahlen C.

Die komplexen Zahlen und Skalarprodukte Kurze Wiederholung des Körpers der komplexen Zahlen C. Die omplexen Zahlen und Salarprodute Kurze Wiederholung des Körpers der omplexen Zahlen C. Erinnerung an die Definition von exp, sin, cos als Potenzreihen C C Herleitung der Euler Formel Definition eines

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

Stochastische Analysis. Zufallsmatrizen. Roland Speicher Queen s University Kingston, Kanada

Stochastische Analysis. Zufallsmatrizen. Roland Speicher Queen s University Kingston, Kanada Stochastische Analysis für Zufallsmatrizen Roland Speicher Queen s University Kingston, Kanada Was ist eine Zufallsmatrix? Zufallsmatrix = Matrix mit zufälligen Einträgen A : Ω M N (C) Was ist eine Zufallsmatrix?

Mehr

Gewöhnliche Dierentialgleichungen

Gewöhnliche Dierentialgleichungen Gewöhnliche Dierentialgleichungen sind Gleichungen, die eine Funktion mit ihren Ableitungen verknüpfen. Denition Eine explizite Dierentialgleichung (DGL) nter Ordnung für die reelle Funktion t x(t) hat

Mehr

00. Einiges zum Vektorraum R n

00. Einiges zum Vektorraum R n 00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen

Mehr

Berechnung des LOG-RANK-Tests bei Überlebenskurven

Berechnung des LOG-RANK-Tests bei Überlebenskurven Statistik 1 Berechnung des LOG-RANK-Tests bei Überlebenskurven Hans-Dieter Spies inventiv Health Germany GmbH Brandenburger Weg 3 60437 Frankfurt [email protected] Zusammenfassung Mit Hilfe von Überlebenskurven

Mehr

Stetigkeit. Kapitel 4. Stetigkeit. Peter Becker (H-BRS) Analysis Sommersemester / 543

Stetigkeit. Kapitel 4. Stetigkeit. Peter Becker (H-BRS) Analysis Sommersemester / 543 Kapitel 4 Stetigkeit Peter Becker (H-BRS) Analysis Sommersemester 2016 254 / 543 Inhalt Inhalt 4 Stetigkeit Eigenschaften stetiger Funktionen Funktionenfolgen und gleichmäßige Konvergenz Umkehrfunktionen

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer 07621 203 7612 E-Mail:

Mehr

lim Der Zwischenwertsatz besagt folgendes:

lim Der Zwischenwertsatz besagt folgendes: 2.3. Grenzwerte von Funktionen und Stetigkeit 35 Wir stellen nun die wichtigsten Sätze über stetige Funktionen auf abgeschlossenen Intervallen zusammen. Wenn man sagt, eine Funktion f:[a,b] R, definiert

Mehr

27 Taylor-Formel und Taylor-Entwicklungen

27 Taylor-Formel und Taylor-Entwicklungen 136 IV. Unendliche Reihen und Taylor-Formel 27 Taylor-Formel und Taylor-Entwicklungen Lernziele: Konzepte: klein o - und groß O -Bedingungen Resultate: Taylor-Formel Kompetenzen: Bestimmung von Taylor-Reihen

Mehr

Kapitel 3. Natürliche Zahlen und vollständige Induktion

Kapitel 3. Natürliche Zahlen und vollständige Induktion Kapitel 3 Natürliche Zahlen und vollständige Induktion In Kapitel 1 haben wir den direkten Beweis, den modus ponens, kennen gelernt, der durch die Tautologie ( A (A = B) ) = B gegeben ist Dabei war B eine

Mehr

BONUS MALUS SYSTEME UND MARKOV KETTEN

BONUS MALUS SYSTEME UND MARKOV KETTEN Fakultät Mathematik und Naturwissenschaften, Fachrichtung Mathematik, Institut für Mathematische Stochastik BONUS MALUS SYSTEME UND MARKOV KETTEN Klaus D. Schmidt Ringvorlesung TU Dresden Fakultät MN,

Mehr

Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla

Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla Sätze über Konvexität von Kapitel 4.7 bis 4.10 Theorem 4.7-1. Sei U ein konvexer Unterraum eines normierten Vektorraums. Dann

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

Caputo fraktionale Differentialgleichungen. 1 Riemann Liouville fraktionale Differentialgleichungen

Caputo fraktionale Differentialgleichungen. 1 Riemann Liouville fraktionale Differentialgleichungen Seminar Fraktionale Differentialgleichungen Prof. Dr. P.E. Kloeden, WS1000/2001 Caputo fraktionale Differentialgleichungen Lars Grüne, 25.1.2001 Basierend auf Fractional Differential Equations, Theory

Mehr

STOCHASTISCHE MODELLE. Vorlesungsskript

STOCHASTISCHE MODELLE. Vorlesungsskript STOCHASTISCHE MODELLE Michael Scheutzow Vorlesungsskript Technische Universität Berlin Wintersemester 2010/11 vorläufige Version Februar 2011 Inhaltsverzeichnis 1 Grundlagen 1 1.1 Einleitung........................................

Mehr

STOCHASTISCHE PROZESSE. Vorlesungsskript

STOCHASTISCHE PROZESSE. Vorlesungsskript STOCHASTISCHE PROZESSE I: Markovketten in diskreter und stetiger Zeit Wolfgang König Vorlesungsskript Universität Leipzig Sommersemester 2005 Inhaltsverzeichnis 1 Grundlagen 3 1.1 Einleitung........................................

Mehr

Zufallsvariablen: Die allgemeine Definition

Zufallsvariablen: Die allgemeine Definition KAPITEL 8 Zufallsvariablen: Die allgemeine Definition 8.1. Zufallsvariablen Bis zu diesem Zeitpunkt haben wir ausschließlich Zufallsvariablen mit endlich oder abzählbar vielen Werten (also diskrete Zufallsvariablen)

Mehr

10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg

10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg . Vorlesung Grundlagen in Statistik Seite 29 Beispiel Gegeben: Termhäufigkeiten von Dokumenten Problemstellung der Sprachmodellierung Was sagen die Termhäufigkeiten über die Wahrscheinlichkeit eines Dokuments

Mehr

11 Stochastisches Integral und Itô-Formel

11 Stochastisches Integral und Itô-Formel 11 Stochastisches Integral und Itô-Formel Im diskreten Finanzmodell bei selbstfinanzierender Strategie ϑ = {ϑ n n=,...,n mit Anfangswert V gilt : Ṽ n ϑ = V + n ϑ T j S j. j=1 Dieser diskontierte Wertprozess

Mehr

Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation

Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation www.math.ethz.ch/education/bachelor/lectures/fs2015/other/mathematik2 biol Prof. Dr. Erich Walter

Mehr

Monte Carlo Methoden in Kreditrisiko-Management

Monte Carlo Methoden in Kreditrisiko-Management Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Übungsaufgaben zu Statistik II

Übungsaufgaben zu Statistik II Übungsaufgaben zu Statistik II Prof. Dr. Irene Prof. Dr. Albrecht Ungerer Die Kapitel beziehen sich auf das Buch: /Ungerer (2016): Statistik für Wirtschaftswissenschaftler Springer Gabler 4 Übungsaufgaben

Mehr

2 Euklidische Vektorräume

2 Euklidische Vektorräume Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,

Mehr

Statistische Thermodynamik I Lösungen zur Serie 1

Statistische Thermodynamik I Lösungen zur Serie 1 Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen

Mehr

Lösungen zu Aufgabenblatt 7P

Lösungen zu Aufgabenblatt 7P Analysis Prof. Dr. Peter Becker Fachbereich Informatik Sommersemester 205 9. Mai 205 Lösungen zu Aufgabenblatt 7P Aufgabe (Stetigkeit) (a) Für welche a, b R sind die folgenden Funktionen stetig in x 0

Mehr

1 Stochastische Prozesse in stetiger Zeit

1 Stochastische Prozesse in stetiger Zeit 1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Übungsblatt 9. f(x) = e x, für 0 x

Übungsblatt 9. f(x) = e x, für 0 x Aufgabe 1: Übungsblatt 9 Basketball. Ein Profi wirft beim Training aus einer Entfernung von sieben Metern auf den Korb. Er trifft bei jedem Wurf mit einer Wahrscheinlichkeit von p = 1/2. Die Zufallsvariable

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr