Kapitel 4 Diskrete Markov-Prozesse
|
|
|
- Käte Frauke Dittmar
- vor 8 Jahren
- Abrufe
Transkript
1 Kapitel 4 Diskrete Markov-Prozesse
2 4.1 Definition und grundlegende Eigenschaften 4.1 Definition und grundlegende Eigenschaften Stetige Zeit aber weiterhin diskreter Zustandsraum. Beispiele: Klinische Studien, Krankenverläufe Markenwahlprozesse Poisson-Prozess Stochastische Modelle für die molekulare Evolution, d.h. die durch Mutation verursachte Veränderung der Nukleotide A, T, C, G an bestimmten Positionen der DNA. Vereinfachende Annahme: Die Evolution an verschiedenen Positionen verläuft unabhängig. Dann genügt es, Modelle separat für die Positionen zu entwickeln. Weitere Annahme: Homogenität und Stationarität. Verschiedene Modelle unterscheiden sich durch Annahmen an die Raten λ ij für Übergänge i j. Sommersemester
3 Definition: Diskreter Markov-Prozess 4.1 Definition und grundlegende Eigenschaften Ein stochastischer Prozess X = {X(t), t 0} mit abzählbarem Zustandsraum heißt (diskreter) Markov-Prozess : n 0, t > s > s n >... > s 0 0 gilt P (X(t) = j X(s) = i, X(s n ) = i n,..., X(s 0 ) = i 0 ) = P (X(t) = j X(s) = i) für beliebige j, i, i n,..., i 0 S. p ij (s, t) := P (X(t) = j X(s) = i) heißt Übergangswahrscheinlichkeit(-sfunktion) und P (s, t) = (p ij (s, t)) Übergangsmatrix. Ein Markov-Prozess heißt homogen (oder besitzt stationäre Übergangswahrscheinlichkeiten) : P (X(t + s) = j X(s) = i) = P (X(t) = j X(0) = i) = p ij (0, t) =: p ij (t), d.h. nur die Zeitdifferenz ist maßgeblich. Sommersemester
4 Bemerkungen: 4.1 Definition und grundlegende Eigenschaften Wie bei den Markov-Ketten werden wir uns im Folgenden meist auf homogene Markov-Prozesse beschränken. p ij (t) entspricht p (t) ij (t-schrittige Übergangswahrscheinlichkeit) bei Markov-Ketten. Für die Übergangswahrscheinlichkeiten gilt p ij (t) 0, p ij (t) = 1 j S Chapman-Kolmogorov-Gleichung (für homogene Markov-Prozesse) p ij (s + t) = k S p ik (s)p kj (t) P (s + t) = P (s)p (t) Sommersemester
5 4.1 Definition und grundlegende Eigenschaften Gemeinsame Verteilung: n N, 0 t 0 < t 1 <... < t n R +, i 0, i 1,..., i n S gilt P (X(t n ) = i n,..., X(t 1 ) = i 1 X(t 0 ) = i 0 ) = p i0 i 1 (t 1 t 0 )... p in 1 i n (t n t n 1 ) P (X(t n ) = i n,..., X(t 1 ) = i 1, X(t 0 ) = i 0 ) = P (X(t 0 ) = i 0 ) p i0 i 1 (t 1 t 0 )... p in 1 i n (t n t n 1 ). Satz von Kolmogorov & Likelihood. Im Folgenden setzen wir stets voraus p ij (0) = lim h 0 p ij (h) = δ ij = { 1 i = j 0 i j d.h. ein Übergang von i nach j (i j) beansprucht eine positive Zeitspanne. Sommersemester
6 4.1 Definition und grundlegende Eigenschaften Definition: (Übergangs-)Intensität, Rate Für i, j S, i j, heißt λ ij = lim h 0 p ij (h) h = lim h 0 P (X(t + h) = j X(t) = i) h = lim h 0 P (X(t + h) = j X(t) = i, Vorgeschichte) h = p ij(0) Übergangsintensität bzw. Rate für den Übergang von i nach j. Für i = j definieren wir λ ii = lim h 0 p ii (h) p ii (0) h p ii (h) 1 = lim. h 0 h Allgemein gilt also für i, j S mit 0 λ ij < für i j, aber λ ii 0. λ ij = p ij(0) = lim h 0 p ij (h) p ij (0) h Sommersemester
7 4.1 Definition und grundlegende Eigenschaften Λ = (λ ij ) heißt Intensitätsmatrix. In o(h) Schreibweise gilt also für i j p ij (h) = P (X(t + h) = j X(t) = i) = λ ij h + o(h), p ii (h) = 1 + λ ii h + o(h). Beispiel: Poisson-Prozess p i,i+1 (h) = λh + o(h) { 0, 0 j i 1 p ij (h) = o(h), j i + 2 p ii (h) = 1 λh + o(h) λ i,i+1 = λ { 0, 0 j i 1 λ ij = 0, j i + 2 λ ii = λ Sommersemester
8 4.2 Geburts- und Todesprozesse 4.2 Geburts- und Todesprozesse Definition: Geburtsprozess Ein stochastischer Prozess X = {X(t), t 0} mit Zustandsraum S N 0 heißt Geburtsprozess : X ist ein homogener, diskreter MP mit p i,i+1 (h) = λ i h + o(h), p i,i (h) = 1 λ i h + o(h), λ i 0 i i 0 p i,j (h) = { 0, 0 j i 1 o(h), j i + 2 Datenstruktur wie beim Poisson-Prozess, aber zustandsabhängige Intensitäten λ i. Analog zum Poisson-Prozess gilt λ i,i+1 = λ i, λ ii = λ i, λ ij = 0 für j / {i, i + 1}. Sommersemester
9 4.2 Geburts- und Todesprozesse Herleitung der Übergangswahrscheinlichkeiten p 0n (t) = P (X(t) = n X(0) = 0) aus den Intensitäten. Eine Wahrscheinlichkeitsverteilung p 0n (t) = 1 t 0 n=0 ergibt sich genau dann, wenn Gegenbeispiel: Rate λ i = 2 i. i=0 1 λ i =. Sommersemester
10 Exponentialverteilte Verweildauern 4.2 Geburts- und Todesprozesse Die Verweildauern T i, i N, sind unabhängig und exponentialverteilt mit Parameter λ i, d.h. T i Ex(λ i ). Interpretation: i=0 1 λ i ist die erwartete Zeit bevor {X(t) = } eintritt. Falls die Summe divergiert scheint plausibel, dass P {X(t) = } = 0 gilt. Yule-Prozess: Population mit Anfangsbestand von X(0) = i 0 Individuen. Unabhängige Vermehrung, wobei jedes Individuum im Zeitintervall h mit Wahrscheinlichkeit λh + o(h) ein weiteres Mitglied der Population erzeugt und die Wahrscheinlichkeit für die Erzeugung mehrerer Individuen o(h) sei. Der binomische Lehrsatz liefert ( ) i p i,i+1 (h) = (λh + o(h))(1 λh + o(h)) i 1 = iλh + o(h) 1 ( ) i p i,j (h) = (λh + o(h)) j i (1 λh + o(h)) i (j i) = o(h) für j i 2. j i Sommersemester
11 4.2 Geburts- und Todesprozesse Geburtsprozess mit Rate λ i = iλ. X(t) i 0 besitzt eine negative Binomialverteilung mit Parametern i 0 und exp( λt). E(X(t) i 0 ) = i 0(1 exp( λt)), exp( λt) V ar(x(t) i 0 ) = i 0(1 exp( λt)) exp( 2λt) exponentielles Wachstum: E(X(t)) = i 0 exp(λt), V ar(x(t)) = i 0 exp(λt)(exp(λt) 1). Sommersemester
12 Definition: Geburts- und Todesprozess 4.2 Geburts- und Todesprozesse Ein stochastischer Prozess X = {X(t), t 0} mit Zustandsraum S N 0 heißt Geburts- und Todesprozess : X ist ein homogener, diskreter MP mit mit p i,i+1 (h) = λ i h + o(h) i 0 p i,i 1 (h) = µ i h + o(h) i 1 p ii (h) = 1 (λ i + µ i )h + o(h) i 0 p ij (h) = o(h) i j 2, i, j 0 µ 0 = 0, λ 0 0 (> 0 reflektierend, = 0 absorbierend), µ i, λ i 0 für i 1. Sommersemester
13 Für die Intensitäten gilt also 4.2 Geburts- und Todesprozesse λ i,i+1 = λ i, λ i,i 1 = µ i, λ ij = 0 für i j 2, λ ii = (λ i + µ i ) Die explizite Berechnung der Übergangsmatrix P (t) aus Λ ist i.a. nicht möglich. Das Wartesystem M/M/1/ Poisson-Prozess mit Rate λ Bedienungszeit Ex(µ) X(t) Die Anzahl der im System befindlichen Kunden X(t) ist ein spezieller Geburts-Todes- Prozess mit λ i = λ und µ i = µ. Sommersemester
14 Für λ < µ existiert die Grenzverteilung p j : 4.2 Geburts- und Todesprozesse p j = lim t p ij (t) = (1 r)r j, r = λ µ lim t X(t) = X( ) geometrisch verteilt mit E(X( )) = r 1 r, V ar(x( )) = r (1 r) 2 Varianten: begrenzte Kapazität N des Warteraums (M/M/1/N) { λ 0 i N λ i = 0 i > N von der Länge der angetroffenen Warteschlange verursachte Entmutigung, z.b. λ i = λ (i + 1), i = 0, 1,... Sommersemester
15 4.2 Geburts- und Todesprozesse Das Wartesystem M/M/s/ : s Schalter jeweils mit Rate µ X(t) Geburts-Todes-Prozess mit λ i = λ und µ = { µi, i = 1,..., s µs, i = s + 1,... Grenzverteilung existiert für λ < sµ. Modelle zur Bevölkerungsentwicklung Verallgemeinerung des Yule-Prozess mit Geburtsrate λ i = iλ und Sterberate µ i = iµ Für X(0) = 1 kann man zeigen: E(X(t)) = exp((λ µ)t) (für λ µ) Wahrscheinlichkeit des Aussterbens = { 1, λ µ µ λ, λ > µ Sommersemester
16 Struktur der Pfade von Geburts- und Todesprozessen 4.2 Geburts- und Todesprozesse Wahrscheinlichkeit für Verlassen des Zustands i im Intervall (t, t + h]: (λ i + µ i )h + o(h). Exp(λ i + µ i )-verteilte Verweildauern (analog zum Poisson-Prozess). Wahrscheinlichkeit für Zustandsänderung i i + 1: λ i h + o(h) Wahrscheinlichkeit für Zustandsänderung i i 1: µ i h + o(h) Unter der Bedingung, dass eine Zustandsänderung stattfindet, erhält man also die bedingten Wahrscheinlichkeiten λ i (λ i + µ i ) µ i (λ i + µ i ) Übergang i i + 1 Übergang i i 1 Sommersemester
17 Vorgehen zur Simulation: 4.2 Geburts- und Todesprozesse Der aktuelle Zustand sei i. Realisiere eine Exp(λ i + µ i )-verteilte Zufallsvariable, um die Verweildauer in i zu erhalten. Entscheide dann anhand eines Bernoulli- Experiments mit den obigen Wahrscheinlichkeiten, welcher der zwei möglichen Zustandswechsel eintritt. Sommersemester
18 4.3 Skizze der allgemeinen Theorie 4.3 Skizze der allgemeinen Theorie Voraussetzungen: p ij (0) = δ ij, Pfade (mit W keit 1) rechtsseitig stetig. Bezeichnungen: S n Zeitpunkt der n-ten Zustandsänderung, S 0 = 0, Y n = X(S n ) zum Zeitpunkt S n angenommener Zustand, T n+1 = S n+1 S n Verweildauer in Y n, S n+1 = S n + T n+1. Falls absorbierende Zustände Y n möglich sind, d.h. S n+1 =, { Y n, S n+1 = Y n+1 = X(S n+1 ), S n+1 <. λ ij Rate für Übergang i j. λ i = j λ ij. V (t) Vorwärtsrekurrenzzeit: Dauer von t an bis zur nächsten Zustandsänderung Sommersemester
19 Exponentialverteilte Verweildauern: 4.3 Skizze der allgemeinen Theorie Die Verweildauern T i, i N sind exponentialverteilt mit Parameter λ i. Für jeden Zeitpunkt t gilt P (V (t) s X(t) = i) = 1 e λ is, s 0, die Vorwärtsrekurrenzzeit ist also ebenfalls exponentialverteilt mit Parameter λ i. Definition: Zustand i ist absorbierend : λ i = 0 stabil : 0 < λ i < instabil : λ i = Sommersemester
20 4.3 Skizze der allgemeinen Theorie Falls i absorbierend ist, gilt für alle s 0 P (V (t) > s X(t) = i) = P (X(t + s) = i X(t) = i) = 1. Der Zustand i wird mit W keit 1 nicht mehr verlassen. Falls i stabil ist, gilt P (0 < V (t) < X(t) = i) = 1. X verweilt in i eine positive, aber endliche Zeit (mit W keit 1). Falls i instabil ist, gilt P (V (t) = 0 X(t) = i) = 1. Der MP verlässt einen instabilen Zustand sofort wieder. Dies führt zu nicht rechtsseitig stetigen Pfaden. Daher sind instabile Zustände im weiteren ausgeschlossen. Sommersemester
21 4.3 Skizze der allgemeinen Theorie Struktursatz: Sei X ein Markov-Prozess mit rechtsseitig stetigen Pfaden. Dann gilt n N 0 j, i,..., i 0 S t, t 1,..., t n R 0 < s 1... < s n 1. P (Y n+1 = j, T n+1 > t Y n = i,..., Y 0 = i 0, S n = s n,..., S 0 = 0) = q ij e λ it mit q ij 0, { 0, i stabil q ij = 1, q ii = 1, i absorbierend j S 2. {Y n, n N} ist eine Markov-Kette mit Übergangsmatrix Q = (q ij) 3. P (T n+1 > t Y n = i, Y n+1 = j) = P (T n+1 > t Y n = i) = e λ it 4. P (T 1 > t 1,..., T n > t n Y n = i,..., Y 0 = i 0 ) = e λ i 0 t 1... e λ i n 1 t n Sommersemester
22 Bemerkungen: 4.3 Skizze der allgemeinen Theorie (a) {Y n, n N} heißt eingebettete Markov-Kette. Erreichbarkeits- / Rekurrenzeigenschaften der eingebetteten Markov-Kette übertragen sich auf diskreten Markov- Prozess. (b) Aussage 3 besagt, dass λ i nächsten abhängt. nur vom eben besuchten Zustand, nicht aber vom (c) Aussage 4 besagt, dass die Verweildauern exponentialverteilt und bedingt unabhängig sind, wenn die Folge der besuchten Zusände gegeben ist. (d) Der Struktursatz liefert auch die gemeinsame Verteilung von {T n, Y n } und damit die Likelihood zur ML-Schätzung der Strukturparameter λ i und q ij (bzw. der Intensitäten λ ij ): P (T 1 > t 1,..., T n > t n, Y 0 = i 0, Y 1 = i 1,..., Y n = i n ) = P (T 1 > t 1,..., T n > t n Y 0 = i 0, Y 1 = i 1,..., Y n = i n ) P (Y 0 = i 0, Y 1 = i 1,..., Y n = i n ) = e λ 0t1... e λ i n 1 tn P (Y 0 = i 0 ) q i0 i 1... q in 1 i n Sommersemester
23 Konstruktion bzw. Simulation der Pfade eines Markov-Prozesses: 4.3 Skizze der allgemeinen Theorie Startwert X(ω, 0) = Y 0 (ω) = i 0 Im Zustand Y n (ω) = i n, n N 0, bestimmt man gemäß der Verteilung q in j, j S, den nächsten Zustand Y n+1 (ω) = i n+1. Die Verweildauer T n+1 (ω) = t n+1 in i n bis zum Sprung nach i n+1 wird gemäß einer λ in -Exponentialverteilung realisiert. Definition: Regulärer Markov-Prozess Ein Markov-Prozess heißt regulär, wenn er die folgenden Eigenschaften besitzt: { 1, i = j 1. p ij (0) = lim p ij (h) = δ ij = h 0 0, i j 2. Pfade (mit Wahrscheinlichkeit 1) rechtsseitig stetig. 3. sup n S n = +. Sommersemester
24 4.3 Skizze der allgemeinen Theorie Regularitätskriterien Ein Markov-Prozess, der die Eigenschaften 1. und 2. erfüllt ist regulär, falls eine der folgenden Eigenschaften gilt: 1. S ist endlich. 2. λ i c für alle i S. 3. Alle Zustände der eingebetteten Markov-Kette Y sind rekurrent. 4. Die Markov-Kette Y verbleibt mit Wahrscheinlichkeit 0 in einer transienten Klasse. Intensitäten und Strukturparameter X sei ein regulärer MP. Dann sind die Übergangswahrscheinlichkeiten p ij(t) stetig differenzierbar und es gilt p ij(0) = lim h 0 p ij (h) p ij (0) h = λ ij = { λ i, i = j λ i q ij, i j, Sommersemester
25 4.3 Skizze der allgemeinen Theorie bzw. in o(h)-schreibweise P (X(t + h) = j X(t) = i) = hλ i q ij + o(h), i j P (X(t + h) = i X(t) = i) = 1 λ i h + o(h). In Matrixschreibweise (S endlich): bzw. lim h P (h) = I + Λh + o(h). P (h) I h = P (0) = Λ. Die Zeilensummen der Intensitätsmatrix Λ sind gleich 0, d.h. für alle i S gilt λ ii = λ i = j S,j i λ ij. Sommersemester
26 4.3 Skizze der allgemeinen Theorie Bestimmung der Übergangswahrscheinlichkeiten P (t) aus Λ Sei X ein regulärer Markov-Prozess. Dann ist die Übergangsmatrix P (t) = (p ij(t)) durch die Übergangsmatrix Q der eingebetteten Markov-Kette Y und die Parameter λ i der Verweildauern bzw. die Intensitätsmatrix Λ eindeutig bestimmt. Die Übergangswahrscheinlichkeiten p ij (t) sind Lösung von 1. p ij(t) = k S λ ik p kj (t) bzw. P (t) = ΛP (t), P (0) = I (Rückwärtsgleichungen von Kolmogorov) 2. p ij(t) = k S p ik (t)λ kj bzw. P (t) = P (t)λ, P (0) = I (Vorwärtsgleichungen von Kolmogorov) 3. Für endliches S ist die Lösung gegeben durch P (t) = e tλ = I + tλ + (tλ)2 2! + (tλ)3 3! +... Sommersemester
27 4.3 Skizze der allgemeinen Theorie Die (numerische) Berechnung erfolgt mit Hilfe der Spektralzerlegung von Λ Λ = U diag(d 1,..., d m )U 1, mit den Eigenwerten d 1,..., d m und der Matrix U der Eigenvektoren. Dann gilt P (t) = U diag(e d1t,..., e dmt )U 1. Beispiel: Markov-Prozess mit 2 Zuständen Λ = ( ) Eigenwertzerlegung von Λ: D = ( ), U = ( ), U 1 = ( ). Sommersemester
28 4.3 Skizze der allgemeinen Theorie P (t) = U diag(e d 1t, e d 2t )U 1 =... = ( ) + e 3t ( ) Bemerkung: Es existiert der Grenzwert lim P (t) = t ( ). Beispiel: Allgemeiner Markov-Prozess mit 2 Zuständen Λ = ( λ λ µ µ ). Sommersemester
29 4.3 Skizze der allgemeinen Theorie Die Kolmogorov-Gleichung P (t) = P (t)λ ergibt ( p 00 (t) p 01(t) p 10(t) p 11(t) ) = ( p00 (t) p 01 (t) p 10 (t) p 11 (t) ) ( λ λ µ µ ). p 00(t) = λp 00 (t) + µp 01 (t), p 01 (t) = 1 p 00 (t), p 00(t) = +µ (λ + µ)p 00 (t). Lösung: p 00 (t) = µ λ + µ + p 01 (t) = 1 p 00 (t) = λ λ + µ λ λ + µ e (λ+µ)t λ λ + µ e (λ+µ)t Sommersemester
30 Aus Symmetriegründen erhält man 4.3 Skizze der allgemeinen Theorie p 11 (t) = p 10 (t) = λ λ + µ + µ λ + µ e (λ+µ)t µ λ + µ µ λ + µ e (λ+µ)t Grenzwert: lim P (t) = t ( µ λ+µ µ λ+µ λ λ+µ λ λ+µ ). Die Zustände eines Markov-Prozesses werden anhand der eingebetteten Markov-Kette klassifiziert (Rekurrenz, Erreichbarkeit, Periodizität, etc.). Für transientes j folgt aus lim t q (t) ij = 0 für die t-schritt ÜW q (t) ij auch lim t p ij (t) = 0. Für Grenzwertsätze daher Beschränkung auf irreduzible, rekurrente MP. Sommersemester
31 Grenzwertsatz: 4.3 Skizze der allgemeinen Theorie Sei X ein regulärer, positiv-rekurrenter und irreduzibler Markov-Prozess. Dann gilt: 1. lim P (X(t) = j) = π j t unabhängig. existiert j S, und ist von der Anfangsverteilung 2. Die Grenzverteilung π läßt sich berechnen über (a) π j = µ j i µ i mit µλ = 0 bzw. (b) π j = 3. lim t P (t) = ν j/λ j i ν i/λ i mit ν = νq. π. π. π 4. π = (..., π j,...) ist strikt positiv. Sommersemester
32 5. π ist die einzige stationäre Verteilung von X, d.h. es gilt 4.3 Skizze der allgemeinen Theorie π = π P (t) t 0. Beispiel: Markov-Prozess mit zwei Zuständen Λ = ( ) λ1 λ 1 λ 2 λ 2 Möglichkeit 1: Über die Intensitätsmatrix µλ = 0 µ 1 λ 1 + µ 2 λ 2 = 0 µ 1 λ 1 + (1 µ 1 )λ 2 = 0 µ 1 λ 1 µ 2 λ 2 = 0 λ 2 µ 1 (λ 1 + λ 2 ) = 0 µ 1 = λ 2 λ 1 + λ 2, µ 2 = λ 1 λ 1 + λ 2. Sommersemester
33 4.3 Skizze der allgemeinen Theorie Möglichkeit 2: Über die eingebettete Markov-Kette ν = νq Q = ( ) stationäre Verteilung: Grenzverteilung ist proportional zu (π 1, π 2 ) = ( 1 ν = 2, 1 ). 2 ( 1, 1 ) : λ 1 λ 2 ( λ2 λ 1 + λ 2, ) λ 1. λ 1 + λ 2 Sommersemester
34 4.3 Skizze der allgemeinen Theorie Peter Prinzip: Drei berufliche Kategorien in einem Betrieb: T Trainee, J Junior, S Senior T J S T Λ = J λ T λ T 0 λ JT λ J λ JS. S λ S 0 λ S Grenzverteilung: π = (π T, π J, π S ) Lösung ist mit N = λ S λ J + λ S λ T + λ T λ JS. λ T π T = λ JT π J + λ S π S λ J π J = λ T π T λ S π S = λ JS π J 1 = π T + π J + π S. π T = λ Sλ J N, π J = λ Sλ T N, π S = λ T λ JS N. Sommersemester
35 4.4 Inferenz 4.4 Inferenz Zwei mögliche Situationen in Anwendungen: 1. Vollständige Kenntnis über einen oder mehrere Pfade. 2. Beobachtungen nur zu Zeitpunkten t 1 < t 2 <... < t n, d.h. Pfade nicht vollständig beobachtet. In beiden Situationen: Likelihood basierte Inferenz für die Strukturparameter Λ = {λ ij } bzw. Q = {q ij }, λ = {λ i }. Situation 1: Die Likelihood wird gemäß Struktursatz bestimmt: P (Y n = i n, T n > t n Y n 1 = i n 1, S n 1 = s n 1,..., Y 0 = i 0, S 0 = 0) = q in 1 i n e λ i n 1 t n. Gemeinsame (bedingte) Dichte für Y n diskret, T n stetig (bezüglich Produktmaß aus Zählmaß und Lebesgue-Maß): q in 1 i n λ in 1 e λ i n 1 t n. Sommersemester
36 4.4 Inferenz Likelihood L(λ ij i 0, i 1,..., i n 1, i n, t 1,..., t n ): L(λ ij ) = p i0 (0) q i0 i 1 λ i0 e λ i t q ij λ i e λ itj... q in 1 i n λ in 1 e λ i n 1 t n = p i0 (0) i S{exp( λ i γ i ) (q ij λ i ) n ij } j S,j i mit γ i gesamte Verweildauer in i und n ij Gesamtzahl der Übergänge i j. Log-Likelihood (ohne p i0 (0)): l(λ ij ) = i S = i,j;i j λ i γ i + l(λ ij ) λ ij = γ i + n ij λ ij! = 0 i,j S,i j n ij log(λ ij ) ( λ ij γ i + n ij log(λ ij )) Sommersemester
37 Damit ergeben sich die ML-Schätzer 4.4 Inferenz ˆλ ij = n ij γ i ˆλ i = n i γ i, mit n i = j n ij ˆq ij = ˆλ ij ˆλ i = n ij/γ i n i /γ i = n ij n i ˆλ ij ist konsistent für λ ij mit asymptotischer Varianz n ij. γ i 2 Situation 2: Daten X(t 1 ) = i 1,..., X(t n ) = i n Likelihood L(λ ij X(t 1 ) = i 1,..., X(t n ) = i n ) = p i0 (0)p i1 i 2 (t 2 t 1 )... p in 1 i n (t n t n 1 ) Die Übergangswahrscheinlichkeiten müssen dabei aus den Kolmogorov-Gleichungen bzw. über die Spektralzerlegung von Λ bestimmt werden. Numerisch aufwendig. Sommersemester
Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die
Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Rückwärtsgleichung P (t) = QP (t), P (0) = E eine minimale nicht negative Lösung (P (t) : t 0). Die Lösung bildet eine Matrix Halbgruppe, d.h. P (s)p
Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen
Diskrete Wahrscheinlichkeitstheorie - Probeklausur
Diskrete Wahrscheinlichkeitstheorie - robeklausur Sommersemester 2007 - Lösung Name: Vorname: Matrikelnr.: Studiengang: Hinweise Sie sollten insgesamt Blätter erhalten haben. Tragen Sie bitte Ihre Antworten
Kapitel 6 Martingale
Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse
3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
Stochastik und Statistik für Ingenieure Vorlesung 4
Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl
Simulationsmethoden in der Bayes-Statistik
Simulationsmethoden in der Bayes-Statistik Hansruedi Künsch Seminar für Statistik, ETH Zürich 6. Juni 2012 Inhalt Warum Simulation? Modellspezifikation Markovketten Monte Carlo Simulation im Raum der Sprungfunktionen
Flüsse, Fixpunkte, Stabilität
1 Flüsse, Fixpunkte, Stabilität Proseminar: Theoretische Physik Yannic Borchard 7. Mai 2014 2 Motivation Die hier entwickelten Formalismen erlauben es, Aussagen über das Verhalten von Lösungen gewöhnlicher
Simulation von Zufallsvariablen und Punktprozessen
Simulation von Zufallsvariablen und Punktprozessen 09.11.2009 Inhaltsverzeichnis 1 Einleitung 2 Pseudozufallszahlen 3 Punktprozesse Zufallszahlen Definition (Duden): Eine Zufallszahl ist eine Zahl, die
Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne
Klausur zur Vorlesung,,Algorithmische Mathematik II
Institut für angewandte Mathematik, Institut für numerische Simulation Sommersemester 2015 Prof. Dr. Anton Bovier, Prof. Dr. Martin Rumpf Klausur zur Vorlesung,,Algorithmische Mathematik II Bitte diese
Proseminarvortrag. Markov-Ketten in der Biologie (Anwendungen)
Proseminarvortrag Markov-Ketten in der Biologie (Anwendungen) von Peter Drössler 20.01.2010 2 Markov-Ketten in der Biologie (Peter Drössler, KIT 2010) Inhalt 1. Das Wright-Fisher Modell... 3 1.1. Notwendige
Spezielle stetige Verteilungen
Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für
Werner Sandmann: Modellierung und Analyse 4 1. Kapitel 4. Markovketten
Werner Sandmann: Modellierung und Analyse 4 1 Kapitel 4 Markovketten Werner Sandmann: Modellierung und Analyse Kapitel 4 Markovketten 4.1 Grundlagen 4 2 Abschnitt 4.1 Grundlagen Werner Sandmann: Modellierung
Die Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
Diskrete Verteilungen
KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder
LANGZEITVERHALTEN VON MARKOW-KETTEN
LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte
Dynamische Systeme eine Einführung
Dynamische Systeme eine Einführung Seminar für Lehramtstudierende: Mathematische Modelle Wintersemester 2010/11 Dynamische Systeme eine Einführung 1. Existenz und Eindeutigkeit von Lösungen 2. Flüsse,
Satz 16 (Multiplikationssatz)
Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.
ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.
Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.
Kapitel VI - Lage- und Streuungsparameter
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie
ε δ Definition der Stetigkeit.
ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x
Signalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 5 Hilfsmittel aus der Kombinatorik 7 Bedingte
Lineare Abhängigkeit
Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x
ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS
ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS Aufgabe 1. a) Gegeben sei die Gleichung 2x 2 4xy +y 2 3x+4y = 0. Verifizieren Sie, dass diese Gleichung
9 Die Normalverteilung
9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,
Beispiel: Evolution infizierter Individuen
Differentialgleichungen sind sehr nützlich in der Modellierung biologischer Prozesse, denn: damit kann man auch sehr komplizierte Systeme beschreiben die Mathematik liefert mit der gut entwickelten Theorie
Übungen zur Vorlesung MATHEMATIK II
Fachbereich Mathematik und Informatik der Philipps-Universität Marburg Übungen zur Vorlesung MATHEMATIK II Prof. Dr. C. Portenier unter Mitarbeit von Michael Koch Marburg, Sommersemester 2005 Fassung vom
1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...
Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............
Ü b u n g s b l a t t 15
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 2. 7. 2007 Ü b u n g s b l a t t 15 Hier ist zusätzliches Übungsmaterial zur Klausurvorbereitung quer durch die Inhalte der Vorlesung. Eine
8. Stetige Zufallsvariablen
8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse
Punktprozesse. Andreas Frommknecht Seminar Zufällige Felder Universität Ulm
Einführung in Beispiele für Andreas Seminar Zufällige Felder Universität Ulm 20.01.2009 Inhalt Einführung in Beispiele für Definition Markierte 1 Einführung in Definition Markierte 2 Beispiele für Homogener
1 Gemischte Lineare Modelle
1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst
Bedingte Wahrscheinlichkeiten und Unabhängigkeit
Kapitel 5 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Mitunter erhält man über das Ergebnis eines zufälligen Versuches Vorinformationen. Dann entsteht die Frage, wie sich für den Betrachter, den man
1 Grundprinzipien statistischer Schlußweisen
Grundprinzipien statistischer Schlußweisen - - Grundprinzipien statistischer Schlußweisen Für die Analyse zufallsbehafteter Eingabegrößen und Leistungsparameter in diskreten Systemen durch Computersimulation
Dierentialgleichungen 2. Ordnung
Dierentialgleichungen 2. Ordnung haben die allgemeine Form x = F (x, x, t. Wir beschränken uns hier auf zwei Spezialfälle, in denen sich eine Lösung analytisch bestimmen lässt: 1. reduzible Dierentialgleichungen:
Kapitel 2 Wahrscheinlichkeitsrechnung
Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt
Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik
Universität Karlsruhe (TH) Institut für Stochastik Dr. Bernhard Klar Dipl.-Math. oec. Volker Baumstark Name Vorname Matr.-Nr.: Scheinklausur Stochastik für Studierende des Lehramts und der Diplom-Pädagogik
Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch
6 Stetige Verteilungen 1 Kapitel 6: Stetige Verteilungen A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch dargestellt. 0.2 6
(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.)
3. Untergruppen 19 3. Untergruppen Nachdem wir nun einige grundlegende Gruppen kennengelernt haben, wollen wir in diesem Kapitel eine einfache Möglichkeit untersuchen, mit der man aus bereits bekannten
die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen
Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung
I. Deskriptive Statistik 1
I. Deskriptive Statistik 1 1. Einführung 3 1.1. Grundgesamtheit und Stichprobe.................. 5 1.2. Merkmale und Verteilungen..................... 6 1.3. Tabellen und Grafiken........................
Differentialgleichungen
Kapitel Differentialgleichungen Josef Leydold Mathematik für VW WS 05/6 Differentialgleichungen / Ein einfaches Modell (Domar) Im Domar Wachstumsmodell treffen wir die folgenden Annahmen: () Erhöhung der
4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
Iterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
Lösungsvorschläge Blatt 4
Theoretische Informatik Departement Informatik Prof. Dr. Juraj Hromkovič http://www.ita.inf.ethz.ch/theoinf16 Lösungsvorschläge Blatt 4 Zürich, 21. Oktober 2016 Lösung zu Aufgabe 10 (a) Wir zeigen mit
MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben)
Musterlösung zum. Aufgabenblatt zur Vorlesung MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur Gruben. Wahrscheinlichkeiten I ( Punkte Die Seiten von zwei Würfeln sind mit den folgenden Zahlen
Kapitel VI. Euklidische Geometrie
Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und
Signifikanz von Alignment Scores und BLAST
Westfälische Wilhelms Universität Münster Fachbereich 10 - Mathematik und Informatik Signifikanz von Alignment Scores und BLAST Seminarvortrag von Leonie Zeune 10. Mai 2012 Veranstaltung: Seminar zur mathematischen
Allgemeine Wahrscheinlichkeitsräume
Kapitel 3 Allgemeine Wahrscheinlichkeitsräume 3. Einleitung Wir hatten schon bemerkt, dass der Begriff des diskreten Wahrscheinlichkeitsraums nicht ausreicht, um das unendliche Wiederholen eines Zufallsexperiments
4 Lineare Algebra (Teil 2): Quadratische Matrizen
4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,
Analysis I - Stetige Funktionen
Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt
Mathematische Ökologie
Mathematische Ökologie Eine Zusammenfassung von Bernhard Kabelka zur Vorlesung von Prof. Länger im WS 2002/03 Version 1.04, 15. März 2004 Es sei ausdrücklich betont, dass (1) dieses Essay ohne das Wissen
Adaptive Systeme. Sommersemester Prof. Dr. -Ing. Heinz-Georg Fehn. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Sommersemester 2015 Prof. Dr. -Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Prof. Dr. H.-G. Fehn und Prof. Dr. N. Wulff 1 Adaptive Systeme Adaptives System: ein System, das
Skript zur Analysis 1. Kapitel 3 Stetigkeit / Grenzwerte von Funktionen
Skript zur Analysis 1 Kapitel 3 Stetigkeit / Grenzwerte von Funktionen von Prof. Dr. J. Cleven Fachhochschule Dortmund Fachbereich Informatik Oktober 2003 2 Inhaltsverzeichnis 3 Stetigkeit und Grenzwerte
Warteschlangentheorie und Callcenter
Warteschlangentheorie und Callcenter Vortrag im Rahmen der Lehrerfortbildung,,Stochastik und Matrizen: von Markov-Ketten bis zu Callcentern 23. September 2009 Dr. Alexander Herzog, Institut für Mathematik,
Surjektive, injektive und bijektive Funktionen.
Kapitel 1: Aussagen, Mengen, Funktionen Surjektive, injektive und bijektive Funktionen. Definition. Sei f : M N eine Funktion. Dann heißt f surjektiv, falls die Gleichung f(x) = y für jedes y N mindestens
Lösungsvorschlag zu den Hausaufgaben der 8. Übung
FAKULTÄT FÜR MATHEMATIK Prof Dr Patrizio Ne Frank Osterbrink Johannes Lankeit 9503 Lösungsvorschlag zu den Hausaufgaben der 8 Übung Hausaufgabe : Beweise den Satz über die Parallelogrammgleichung Sei H
6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen
6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher: Diskrete Zufallsvariablen,
9. Eine einfache Warteschlangen-Simulation.
SS 2006 Arbeitsblatt 4 / S. 1 von 9 9. Eine einfache Warteschlangen-Simulation. A) Allgemeine Bemerkungen. Die Warteschlange aus 8., wie auch solche mit nur endlich grossem Warteraum, können auf einfache
Einführung in die Theorie stochastischer Prozesse
Einführung in die Theorie stochastischer Prozesse Dr. Ingo Röder, IMISE, Universität Leipzig Folie 247 Stochastische Prozesse, Grundlagen Motivation Warum Modellierung mittels stochastischer Prozesse?
Die komplexen Zahlen und Skalarprodukte Kurze Wiederholung des Körpers der komplexen Zahlen C.
Die omplexen Zahlen und Salarprodute Kurze Wiederholung des Körpers der omplexen Zahlen C. Erinnerung an die Definition von exp, sin, cos als Potenzreihen C C Herleitung der Euler Formel Definition eines
18 Höhere Ableitungen und Taylorformel
8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a
Stochastische Analysis. Zufallsmatrizen. Roland Speicher Queen s University Kingston, Kanada
Stochastische Analysis für Zufallsmatrizen Roland Speicher Queen s University Kingston, Kanada Was ist eine Zufallsmatrix? Zufallsmatrix = Matrix mit zufälligen Einträgen A : Ω M N (C) Was ist eine Zufallsmatrix?
Gewöhnliche Dierentialgleichungen
Gewöhnliche Dierentialgleichungen sind Gleichungen, die eine Funktion mit ihren Ableitungen verknüpfen. Denition Eine explizite Dierentialgleichung (DGL) nter Ordnung für die reelle Funktion t x(t) hat
00. Einiges zum Vektorraum R n
00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen
Berechnung des LOG-RANK-Tests bei Überlebenskurven
Statistik 1 Berechnung des LOG-RANK-Tests bei Überlebenskurven Hans-Dieter Spies inventiv Health Germany GmbH Brandenburger Weg 3 60437 Frankfurt [email protected] Zusammenfassung Mit Hilfe von Überlebenskurven
Stetigkeit. Kapitel 4. Stetigkeit. Peter Becker (H-BRS) Analysis Sommersemester / 543
Kapitel 4 Stetigkeit Peter Becker (H-BRS) Analysis Sommersemester 2016 254 / 543 Inhalt Inhalt 4 Stetigkeit Eigenschaften stetiger Funktionen Funktionenfolgen und gleichmäßige Konvergenz Umkehrfunktionen
Bestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21
5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11
Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg
Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer 07621 203 7612 E-Mail:
lim Der Zwischenwertsatz besagt folgendes:
2.3. Grenzwerte von Funktionen und Stetigkeit 35 Wir stellen nun die wichtigsten Sätze über stetige Funktionen auf abgeschlossenen Intervallen zusammen. Wenn man sagt, eine Funktion f:[a,b] R, definiert
27 Taylor-Formel und Taylor-Entwicklungen
136 IV. Unendliche Reihen und Taylor-Formel 27 Taylor-Formel und Taylor-Entwicklungen Lernziele: Konzepte: klein o - und groß O -Bedingungen Resultate: Taylor-Formel Kompetenzen: Bestimmung von Taylor-Reihen
Kapitel 3. Natürliche Zahlen und vollständige Induktion
Kapitel 3 Natürliche Zahlen und vollständige Induktion In Kapitel 1 haben wir den direkten Beweis, den modus ponens, kennen gelernt, der durch die Tautologie ( A (A = B) ) = B gegeben ist Dabei war B eine
BONUS MALUS SYSTEME UND MARKOV KETTEN
Fakultät Mathematik und Naturwissenschaften, Fachrichtung Mathematik, Institut für Mathematische Stochastik BONUS MALUS SYSTEME UND MARKOV KETTEN Klaus D. Schmidt Ringvorlesung TU Dresden Fakultät MN,
Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla
Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla Sätze über Konvexität von Kapitel 4.7 bis 4.10 Theorem 4.7-1. Sei U ein konvexer Unterraum eines normierten Vektorraums. Dann
3.3 Eigenwerte und Eigenräume, Diagonalisierung
3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.
Caputo fraktionale Differentialgleichungen. 1 Riemann Liouville fraktionale Differentialgleichungen
Seminar Fraktionale Differentialgleichungen Prof. Dr. P.E. Kloeden, WS1000/2001 Caputo fraktionale Differentialgleichungen Lars Grüne, 25.1.2001 Basierend auf Fractional Differential Equations, Theory
STOCHASTISCHE MODELLE. Vorlesungsskript
STOCHASTISCHE MODELLE Michael Scheutzow Vorlesungsskript Technische Universität Berlin Wintersemester 2010/11 vorläufige Version Februar 2011 Inhaltsverzeichnis 1 Grundlagen 1 1.1 Einleitung........................................
STOCHASTISCHE PROZESSE. Vorlesungsskript
STOCHASTISCHE PROZESSE I: Markovketten in diskreter und stetiger Zeit Wolfgang König Vorlesungsskript Universität Leipzig Sommersemester 2005 Inhaltsverzeichnis 1 Grundlagen 3 1.1 Einleitung........................................
Zufallsvariablen: Die allgemeine Definition
KAPITEL 8 Zufallsvariablen: Die allgemeine Definition 8.1. Zufallsvariablen Bis zu diesem Zeitpunkt haben wir ausschließlich Zufallsvariablen mit endlich oder abzählbar vielen Werten (also diskrete Zufallsvariablen)
10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg
. Vorlesung Grundlagen in Statistik Seite 29 Beispiel Gegeben: Termhäufigkeiten von Dokumenten Problemstellung der Sprachmodellierung Was sagen die Termhäufigkeiten über die Wahrscheinlichkeit eines Dokuments
11 Stochastisches Integral und Itô-Formel
11 Stochastisches Integral und Itô-Formel Im diskreten Finanzmodell bei selbstfinanzierender Strategie ϑ = {ϑ n n=,...,n mit Anfangswert V gilt : Ṽ n ϑ = V + n ϑ T j S j. j=1 Dieser diskontierte Wertprozess
Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation
Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation www.math.ethz.ch/education/bachelor/lectures/fs2015/other/mathematik2 biol Prof. Dr. Erich Walter
Monte Carlo Methoden in Kreditrisiko-Management
Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen
Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn
Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum
Übungsaufgaben zu Statistik II
Übungsaufgaben zu Statistik II Prof. Dr. Irene Prof. Dr. Albrecht Ungerer Die Kapitel beziehen sich auf das Buch: /Ungerer (2016): Statistik für Wirtschaftswissenschaftler Springer Gabler 4 Übungsaufgaben
2 Euklidische Vektorräume
Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,
Statistische Thermodynamik I Lösungen zur Serie 1
Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen
Lösungen zu Aufgabenblatt 7P
Analysis Prof. Dr. Peter Becker Fachbereich Informatik Sommersemester 205 9. Mai 205 Lösungen zu Aufgabenblatt 7P Aufgabe (Stetigkeit) (a) Für welche a, b R sind die folgenden Funktionen stetig in x 0
1 Stochastische Prozesse in stetiger Zeit
1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.
9.2 Invertierbare Matrizen
34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen
Übungsblatt 9. f(x) = e x, für 0 x
Aufgabe 1: Übungsblatt 9 Basketball. Ein Profi wirft beim Training aus einer Entfernung von sieben Metern auf den Korb. Er trifft bei jedem Wurf mit einer Wahrscheinlichkeit von p = 1/2. Die Zufallsvariable
Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen
Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:
