Werner Sandmann: Modellierung und Analyse 6 1. Kapitel 6. Analyse elementarer Markovscher Modelle

Größe: px
Ab Seite anzeigen:

Download "Werner Sandmann: Modellierung und Analyse 6 1. Kapitel 6. Analyse elementarer Markovscher Modelle"

Transkript

1 Werner Sandmann: Modellierung und Analyse 6 1 Kapitel 6 Analyse elementarer Markovscher Modelle

2 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.1 Geburts-/Todesprozesse 6 2 Abschnitt 6.1 Geburts-/Todesprozesse

3 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.1 Geburts-/Todesprozesse 6 3 Formale Definition Definition: Geburts-/Todesprozeß Ein stochastischer Prozeß (X t ) t 0 mit stetiger Parametermenge T und diskretem Zustandsraum IN heißt Geburts-/Todesprozeß mit Geburtsraten λ 0, λ 1,... 0 und Todesraten µ 1, µ 2,... 0, wenn gilt: Übergänge sind nur zwischen Zuständen n und n + 1, n 0 möglich, P(X t+h = n + 1 X t = n) = λ n h + o(h), P(X t+h = n X t = n + 1) = µ n+1 h + o(h), WK für mehr als einen Übergang in einem Zeitraum der Länge h ist o(h). Geburt: Übergang von n nach n + 1, n 0, Tod: Übergang von n + 1 nach n, n 0 bzw. von n nach n 1, n > 0. Zu jeder Zeit nur Geburt oder Tod möglich, Tod nur wenn n > 0. WK für mehr als eine Geburt oder einen Tod in kleinem Zeitraum vernachlässigbar.

4 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.1 Geburts-/Todesprozesse 6 4 Zusammenhang mit Markovketten Offensichtlich hängen die Zustandsübergänge bei Geburts-/Todesprozessen nur vom aktuellen Zustand ab, der Zustandsraum ist diskret, der Parameterraum ist stetig. Geburts-/Todesprozesse sind spezielle stetige Markovketten. Zustandsübergangsdiagramm λ 0 λ 1 λ 2 λ i µ 1 µ 2 µ 3 µ i+1 Generatormatrix Q = λ 0 λ µ 1 (λ 1 + µ 1 ) λ µ i (λ i + µ i ) λ i

5 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.1 Geburts-/Todesprozesse 6 5 Spezialfälle M/M/1 Warteschlangenmodell Konstante Geburts- und Todesraten λ λ λ λ µ µ µ µ M/M/1/K-Warteschlangenmodell Konstante Geburts- und Todesraten und endlicher Zustandsraum λ λ λ λ K µ µ µ µ vergleiche Folie 4 89 und folgende mit zugehörigen Generatormatrizen.

6 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.1 Geburts-/Todesprozesse 6 6 Bezug zu Poissonprozessen Im Vergleich zum Poissonprozeß zwei Arten von Übergängen Geburten ( = Ankünfte) Tode ( = Abgänge Bedienungen in Warteschlangenmodellen) Alle Raten können zudem abhängig vom aktuellen Zustand sein. Poissonprozeß: Ankunftsprozeß = reiner Geburtsprozeß mit konstanter Geburtsrate λ. Poissonprozeß P(N h = 1) = λh + o(h) P(N h > 1) = o(h) P(N h = 0) = 1 λh + o(h) Geburts-/Todesprozeß P(X t+h = n + 1 X t = n) = λ n h + o(h) P(X t+h = n X t = n + 1) = µ n+1 h + o(h) P(> 1 Übergänge in Zeitraum der Länge h) = o(h) P(0 Geburten in... h in Zustand n) = 1 λ n h + o(h) P(0 Tode in... h in Zustand n + 1) = 1 µ n+1 h+o(h) Wie sehen die Zustandswahrscheinlichkeiten aus?

7 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.1 Geburts-/Todesprozesse 6 7 Komponenten der Zustands WK Der Clou: Berechnung mit Hilfe von Ableitungen Differentialgleichungssystem Kurzschreibweise: P n (t) := P(X t = n), n IN. Für n 1 besteht P n (t + h) aus vier wechselseitig ausgeschlossenen Komponenten Zustand n zur Zeit t und keine Übergänge im Zeitraum der Länge h : P n (t)(1 λ n h + o(h))(1 µ n h + o(h)) = P n (t)(1 µ n h + o(h) λ n h + λ n µ n h 2 λ n ho(h) + o(h)) = P n (t)(1 µ n h λ n h + o(h)) = P n (t)(1 λ n h µ n h) + o(h). Zustand n 1 zur Zeit t und eine Geburt im Zeitraum der Länge h : P n 1 (t)(λ n 1 h + o(h)) = P n 1 (t)λ n 1 h + o(h). Zustand n + 1 zur Zeit t und ein Tod im Zeitraum der Länge h : P n+1 (t)(µ n+1 h + o(h)) = P n+1 (t)µ n+1 h + o(h). Mehr als ein Übergang im Zeitraum der Länge h : o(h)

8 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.1 Geburts-/Todesprozesse 6 8 Differentialgleichungssystem Zusammen also P n (t + h) = (1 λ n h µ n h)p n (t) + λ n 1 hp n 1 (t) + µ n+1 hp n+1 (t) + o(h). Umformung führt auf P n (t + h) P n (t) h = (λ n + µ n )P n (t) + λ n 1 P n 1 (t) + µ n+1 P n+1 (t) + o(h) h. Grenzwert für h 0 ist gerade die Ableitung und liefert P n(t) = dp n(t) dt Beachte: wir hatten n 1 vorausgesetzt. = (λ n + µ n )P n (t) + λ n 1 P n 1 (t) + µ n+1 P n+1 (t). Für n = 0 analog (Herleitung Übung) P 0(t) = dp 0(t) dt = λ 0 P 0 (t) + µ 1 P 1 (t).

9 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.1 Geburts-/Todesprozesse 6 9 Anmerkungen Transiente Zustands WK sind durch unendliches Differentialgleichungssystem gegeben. Zusätzlich werden Anfangsbedingungen benötigt, also eine Anfangsverteilung (P 1 (0), P 2 (0),...). Man kann unter sehr allgemeinen Bedingungen zeigen: Lösung existiert für alle n, t. Analytische Berechnung/Lösung ist extrem schwierig, bis auf Spezialfälle. Poissonprozeß = reiner Geburtsprozeß (µ n = 0) mit konstanten Raten λ n = λ, n IN. Mit P 0 (0) = 1 folgt (vgl. Abschnitt 4.1) P n(t) = λp n (t) + λp n 1 (t), n 1 P 0(t) = λp 0 (t) P n (t) = e λt (λt) n, n IN, t 0. n!

10 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.1 Geburts-/Todesprozesse 6 10 Gleichungen für stationäre Zustands WK Berechnung transienter (zeitabhängiger) Zustands WK im allgemeinen schwierig. Einfacher: stationäre (zeitunabhängige) Zustands WK im statistischen Gleichgewicht p n := lim t P n (t), n IN. Grenzwertbildung t für das Differentialgleichungssystem der transienten ZWK. Es gilt n IN : lim P t n(t) = 0, lim P n (t) = p n. t Also für n = 0 und für n 1 0 = µ 1 p 1 λ 0 p 0, p 1 = λ 0 µ 1 p 0. 0 = λ n 1 p n 1 + µ n+1 p n+1 (λ n + µ n )p n µ n+1 p n+1 λ n p n = µ } n p n {{ λ n 1 p n 1 }. =:g(n) g n+1 = g n und wegen 0 = µ 1 p 1 λ 0 p 0 = g 1 folgt g n = 0, n IN.

11 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.1 Geburts-/Todesprozesse 6 11 Stationäre Zustands WK Insgesamt also p n+1 = λ n µ n+1 p n, n IN. Damit sukzessive Berechnung der stationären Zustands WK p 1 = λ 0 µ 1 p 0, p 2 = λ 1 µ 2 p 1 = λ 0λ 1 µ 1 µ 2 p 0, p 3 = λ 2 µ 3 p 2 = λ 0λ 1 λ 2 µ 1 µ 2 µ 3 p 0,... Allgemein p n = λ 0λ 1 λ 2 λ n 1 µ 1 µ 2 µ 3 µ n p 0. Fehlt nur noch p 0 : mit Normierungsbedingung für Wahrscheinlichkeiten p n = p 0 + p 1 + p 2 + = 1. n=0

12 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.1 Geburts-/Todesprozesse 6 12 Existenz stationärer Zustands WK Einsetzen liefert p 0 ( 1 + λ 0 µ 1 + λ 0λ 1 µ 1 µ λ 0λ 1 λ 2 λ n 1 µ 1 µ 2 µ 3 µ n + ) = 1. Stationäre Zustands WK existieren also, wenn S := 1 + λ 0 µ 1 + λ 0λ 1 µ 1 µ λ 0λ 1 λ 2 λ n 1 µ 1 µ 2 µ 3 µ n + <. Dann gilt p 0 = 1 S > 0. Stabilitätsbedingungen für Warteschlangenmodelle.

13 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.1 Geburts-/Todesprozesse 6 13 Beispiel: Einfaches Warteschlangenmodell M/M/1/1: ein Bediener, kein Warteraum, Poisson Ankunftsprozeß mit Rate λ, exponentiell verteilte Bedienzeiten mit Parameter µ. WK für Ankunft in einem Zeitraum der Länge h ist λh + o(h). Wenn ein Kunde in Bedienung ist, dann ist (wegen Gedächtnislosigkeit) die WK, daß die Bedienung in einem Zeitraum der Länge h beendet wird: 1 e µh = µh + o(h). Also Geburts-/Todesprozeß mit Zustandsraum {0, 1}, 0 = Bediener frei (server idle), 1 = Kunde in Bedienung (server busy), Geburtsraten λ 0 = λ, λ n = 0, n > 0, Todesraten µ 1 = µ,µ n = 0, n > 1. Damit P 1(t) = λp 0 (t) µp 1 (t), P 0(t) = λp 0 (t) + µp 1 (t) P 0(t) + P 1(t) = 0.

14 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.1 Geburts-/Todesprozesse 6 14 Transiente Zustands WK Jetzt P 0(t) + P }{{ 1(t) } = 0 P 0 (t) + P 1 (t) = const P 0 (t) + P 1 (t) = 1, t 0. (P 0 (t)+p 1 (t)) P 0(t) = λp 0 (t) + µp 1 (t) = λp 0 (t) + µ(1 P 0 (t)) = λp 0 (t) + µ µp 0 (t) P 0(t) + (λ + µ)p 0 (t) = µ. Elementare Differentialgleichungstheorie liefert und analog gemäß Symmetrie P 0 (t) = µ λ + µ + P 1 (t) = λ λ + µ + ( P 0 (0) µ ) λ + µ ( P 1 (0) e (λ+µ)t λ ) e (λ+µ)t. λ + µ Damit für beliebige Anfangsverteilung (P 0 (0), P 1 (0)) transiente ZWK berechenbar.

15 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.1 Geburts-/Todesprozesse 6 15 Stationäre Zustands WK Durch Grenzwertbildung t sind stationäre Zustands WK, zeitunabhängige Zustands WK im statistischen Gleichgewicht berechenbar: p 0 := lim P 0 (t) = µ t λ + µ, p 1 := lim P 1 (t) = λ t λ + µ. Andere Variante Setze Ableitungen gleich 0, und ersetze P 0 (t) durch p 0 sowie P 1 (t) durch p 1 : 0 = λp 0 µp 1, 0 = λp 0 + µp 1. Beide Gleichungen sind äquivalent und liefern jeweils p 1 = λ µ p 0. Mit Normierungsbedingung p 0 + p 1 = 1 folgt p 0 = µ λ + µ, p 1 = λ λ + µ.

16 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.1 Geburts-/Todesprozesse 6 16 Gleichgewichtsgleichungen Intuitive Methode zur Herleitung der Gleichungen für stationäre Zustands WK Flußrate in einen Zustand ist gleich der Flußrate aus dem Zustand Flow Rate In = Flow Rate Out Betrachte Zustand n 1. (??? Übersetze als: Einfluß = Ausfluß???) mittlere Flußrate in den Zustand: λ n 1 p n 1 + µ n+1 p n+1. mittlere Flußrate aus dem Zustand: µ n p n + λ n p n = (µ n + λ n )p n. Globale Gleichgewichtsgleichungen λ n 1 p n 1 + µ n+1 p n+1 = (µ n + λ n )p n, n 1, λ 0 p 0 = µ 1 p 1. Lokale Gleichgewichtsgleichungen durch Aufteilen nach Richtungen λ n p n = µ n+1 p n+1.

17 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ 6 17 Abschnitt 6.2 Grundmodelle M/M/

18 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ 6 18 Allgemeines Warteschlangenmodelle mit Markovschen Annahmen (also exponentiell verteilten Zwischenankunfts und Bedienzeiten) können als Geburts-/todesprozesse modelliert werden. Für elementare Warteschlangenmodelle (also ein Knoten) Zustand n (zur Zeit t) = n Kunden im System (zur Zeit t) Zufallsvariablen N, N t Anzahl der Kunden im System (zur Zeit t) Geburt = Kundenankunft (Rate kann abhängig vom Systemzustand sein) Tod = Kundenabgang=Bedienung (Rate kann abhängig vom Systemzustand sein) Insbesondere (auch weil es einfacher ist) interessieren stationäre Leistungsmaße, die oft berechnet werden können per Spezialisierung der allgemeinen Lösungen S = 1 + c 1 + c 2 + <, c n = λ 0λ 1 λ 2 λ n 1 µ 1 µ 2 µ 3 µ n, n 0, p 0 = P(N = 0) = 1 S, p n = P(N = n) = c n p 0.

19 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ M/M/1 Modell M/M/1 Modell mit Ankunftsrate λ und Bedienrate µ. Wegen λ n = λ, n IN und µ n = µ, n 1 folgt aus allgemeinen Lösungen mit ρ = a = λ µ c n = ρ n, S = 1 + ρ + ρ 2 + ρ 3 + Die Reihe S konvergiert genau dann, wenn ρ < 1, und zwar dann gemäß geometrischer Reihe S = 1 p n = P(N = n) = (1 ρ)ρ n, n IN. 1 ρ Das ist gerade die ( andere, vgl. W-Rechnung) geometrische Verteilung mit Parameter 1 ρ. Satz: Stationäre Verteilung der Kundenzahl im M/M/1 Modell Die stationäre Verteilung der Anzahl von Kunden in einem stabilen M/M/1 Modell mit Ankunftsrate λ und Bedienrate µ mit ρ := λ µ < 1 ist die geometrische Verteilung mit Parameter p = 1 ρ.

20 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ 6 20 Stationäre Leistungsmaße Spezielle Wahrscheinlichkeiten P(server idle) = P(N = 0) = 1 ρ. P(server busy) = P(N > 0) = 1 P(N = 0) = ρ. (Auslastung) Aus den Eigenschaften der geometrischen Verteilung folgt sofort (beim EW ggf. nach Verschiebung der normalen geometrischen Verteilung um 1 vgl. W Rechnung) E[N] = 1 p 1 = 1 p p = ρ 1 ρ, VAR[N] = 1 p p 2 = ρ (1 ρ) 2. Mit dem Gesetz von Little Stationäre Verweilzeit E[R] = E[N] λ = ρ 1 ρ λ = 1 µ(1 ρ). Damit wiederum Stationäre Wartezeit E[W] = E[R] E[S] = 1 µ(1 ρ) 1 µ = ρ µ(1 ρ).

21 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ 6 21 Bedingte Wartezeitverteilung Offensichtlich: wenn ankommender Kunde System leer vorfindet, dann wartet er nicht. P(W = 0) = P(N = 0) = 1 ρ. Wenn ankommender Kunde n > 0 Kunden vorfindet, wartet er n exponentiell verteilte Bedienzeiten (auch die Restbedienzeit des in Bedienung befindlichen Kunden ist wegen Gedächtnislosigkeit expverteilt) mit Parameter µ. Bedingte Wartezeit (unter der Bedingung n Kunden im System ) ist Erlang verteilt mit n Phasen und Parameter µ, hat also die Dichte f W N=n (x) = µn (n 1)! e µx x n 1, x 0, n > 0. Also für n > 0 P(W x N = n) = x 0 µ n (n 1)! e µt t n 1 dt. Daraus jetzt Wartezeitverteilung für nicht-leeres System ( = Wartezeit > 0)...

22 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ 6 22 Wartezeitverteilung Nach Satz der totalen Wahrscheinlichkeit (vgl. W Rechnung) P(0 < W x) = P(W x N = n)p(n = n). n=1 Also P(0 < W x) = n=1 x 0 µ n (n 1)! e µt t n 1 (1 ρ)ρ n dt = = = x 0 x 0 x 0 e µt (1 ρ) e µt (1 ρ) e µt (1 ρ) n=1 n=1 n=1 µ n (n 1)! ρn t n 1 dt µ n (n 1)! λn µ n tn 1 dt λ n t n 1 (n 1)! dt.

23 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ 6 23 Weiter vereinfachen P(0 < W x) = x 0 e µt (1 ρ) n=1 λ n t n 1 (n 1)! dt = = = ρ x 0 x 0 x 0 λe µt (1 ρ) (λt) n 1 (n 1)! n=1 }{{} e λt λ(1 ρ)e (λ µ)t dt = x 0 dt ρ(µ λ)e (λ µ)t dt ] ) (µ λ)e t(µ λ) dt = ρ [ e ( e x0 t(µ λ) = ρ x(µ λ) + e 0 ) = ρ (1 e x(µ λ). Daraus jetzt (unbedingte) Wartezeitverteilung...

24 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ 6 24 Wartezeitverteilung Zusammensetzen ergibt für x 0 F W (x) = P(W x) = P(W = 0) + P(0 < W ) x) = 1 ρ + ρ (1 e x(µ λ) = 1 ρe x(µ λ). Exponent kann weiter umgeformt werden: x(µ λ) = µ(1 ρ)x = x E[R]. Beachte Verteilungsfunktion hat Sprungstelle, ist unstetig an der Stelle 0. Es gilt also E[W] = P(W = 0)E[W W = 0] + P(W > 0)E[W W > 0] = (1 ρ) 0 + ρe[w W > 0] E[W W > 0] = E[W] ρ = ρ µ(1 ρ)ρ = 1 µ(1 ρ) = E[R].

25 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ 6 25 Verweilzeitverteilung Herleitung der Verteilungsfunktion der Verweilzeit R analog zu W; sogar einfacher, da keine Unterscheidung zwischen System leer/nicht-leer nötig. Satz: Verweilzeitverteilung im M/M/1 Modell Die Verweilzeit in einem M/M/1 Modell mit Ankunftsrate λ und Bedienrate µ ist exponentialverteilt mit Parameter µ(1 ρ). Beweis: Analog zur Herleitung von F W als Übung! Eleganter mit Laplace Stieltjes Transformierten so: E [ e ϑr] ( ) ( µ = P(N = n)(1 ρ)ρ n µ = (1 ρ) µ + ϑ µ + ϑ n=0 µ = (1 ρ) µ + ϑ 1 1 ρ ( µ µ+ϑ ) = (1 ρ)µ µ + ϑ ρµ n=0 = (1 ρ)µ (1 ρ)µ + ϑ ( ) ) n µ µ + ϑ

26 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ M/M/c Modell Beachte: anders als bei M/M/1 ist Verkehrsintensität a nicht gleich Auslastung ρ, da sich der Verkehr auf c identische Server verteilt, also a := λ µ, ρ = λ cµ = a c. Geburts- und Todesraten λ n = λ, n 0. { nµ, falls 0 < n c, µ n = cµ, falls n c. Zustandsübergangsdiagramm Gemäß der allgemeinen Formeln a n, falls 0 < n c, n! c n = a c c! ρn c, falls n > c λ λ λ λ λ λ c 1 c c + 1 µ 2µ 3µ (c 1)µ cµ cµ

27 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ 6 27 Stationäre Zustands WK Für ρ < 1 existieren stationäre Lösungen und S = 1 p 0 = 1 + a + a2 2! + + ac 1 (c 1)! + ac c! (1 + ρ + ρ2 + ) Also = c 1 n=0 p 0 = p n = a n n! + ac c! ( c 1 n=0 ρ n = n=0 c 1 n=0 ) 1 a n n! + a c, c!(1 ρ) a n n! + a c c!(1 ρ). a n n! p 0, falls 0 < n < c, a n c!c n c p 0, falls n c.

28 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ 6 28 Erlangsche C Formel WK, daß Kunde warten muß Erlangsche Warteformel (Erlang s delay formula) Kunde muß genau dann warten, wenn alle Bediener belegt sind, also wenn mindestens c Kunden im System sind. Diese WK hängt offensichtlich von c&a ab ;-) Schreibweise: C(c, a) := P(N c) Erlangsche C-Formel (Erlang s C formula) C(c, a) = P(N c) = p n = 1 n=c c 1 n=0 c 1 p n = 1 p 0 n=0 a n n! = c 1 n=0 c 1 n=0 a n n! a n n! + ac c!(1 ρ) = a c c! (1 ρ) c 1 n=0. a n n! + ac c!

29 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ 6 29 Anmerkungen zur Erlangschen C Formel Zur Berechnung der Erlangschen C Formel diverse Algorithmen ( 5.3.2) riesige Tabellen für diverse Werte von c und a. Aus der Erlangschen C Formel sind diverse Leistungsmaße berechenbar. Offensichtlich p 0 = 1 P(N 1) = 0 n=0 0 n=0 a n n! a n n! + a1 1!(1 ρ) = a. 1 ρ Daraus zeigt man leicht ( Übung) den Zusammenhang p 0 = c!(1 ρ)c(c, a) a c.

30 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ 6 30 Warteschlangenlänge Herleitung der erwarteten Warteschlangenlänge ( = Anzahl Kunden im Warteraum) E[N q ] = (n c)p n = kp c+k = p 0 ac kρ k c! n=c = p 0 ac c! = p 0 ac c! ρ d dρ = p 0 ac c! ρ d dρ = p 0 k=0 ( 0 + ρ + 2ρ 2 + 3ρ 3 + ) ( 1 + ρ + ρ 2 + ) ( ) 1 1 ρ a c c!(1 ρ) 2 ρ k=0 (Ableitung nach ρ) = ρc(c, a) 1 ρ.

31 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ 6 31 Warte- und Verweilzeit Mit dem Gesetz von Little jetzt erwartete Wartezeit: Wegen ρ = λ cµ = λe[s] c E[W] = E[N q] λ = C(c, a)e[s] c(1 ρ) = C(c, a) cµ(1 ρ) = P(N c)e[s] c(1 ρ) = P(N c) cµ(1 ρ). Erwartete Verweilzeit mittels P(N c) E[R] = E[W] + E[S] = cµ(1 ρ) + 1 µ = C(c, a) cµ(1 ρ) + 1 µ C(c, a) + c(1 ρ) =. cµ(1 ρ) Daraus dann wieder mit Little die erwartete Kundenanzahl E[N] = λe[r] =. Auch Verteilungsfunktionen sind nicht allzu schwierig... (aber wir verzichten darauf)

32 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ M/M/ Modell M/M/, also unendlich viele Bediener (Infinite Server) Zustandsübergangsdiagramm λ λ λ λ µ 2µ 3µ iµ Unendlich viele Bediener in der Realität natürlich unmöglich. Bedeutung: jedem ankommenden Kunden wird sofort ein Bediener zugeteilt. Damit c n = an n!, n > 0, S = 1 a n = p 0 n! = ea. Also n=0 p n = e a an, n 0. N ist Poisson verteilt mit Parameter a. n!

33 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.2 Grundmodelle M/M/ 6 33 Anmerkungen zu unendlich vielen Bedienern Folgerungen: E[N] = a ist mittlere Anzahl belegter Bediener. E[N q ] = 0, E[W] = 0, E[R] = E[S] = 1, da nie gewartet wird. µ M/M/ kann also benutzt werden, um Benutzerverhalten zu modellieren Verzögerung bei Warten auf Terminaleingaben Kein Warten am Terminal (jeder Benutzer hat eigenes Terminal) Kommando eingeben/abschicken verbraucht Zeit Also nur Bedienungsverzögerung, Denkzeit (think time) Weitere Anwendung ist zum Beispiel die Schätzung der Anzahl von Leitungen in großen Kommunikationsnetzen.

34 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.3 Endliche Warteräume Verlustsysteme 6 34 Abschnitt 6.3 Endliche Warteräume Verlustsysteme

35 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.3 Endliche Warteräume Verlustsysteme M/M/1/K Modell Erster Ansatz: Symbolische Lösung M/M/1/1 als Beispiel schon gesehen. Allgemein ist für M/M/1/K die zugrundeliegende stetige Markovkette endlich. Also: Generatormatrix Q endlich und LGS prinzipiell z.b. mittels Gauß-Verfahren lösbar. Idee: Löse das LGS πq = 0 bzw. Q T π T symbolisch (d.h. allgemein für λ und µ) Beispiel: M/M/1/2 M/M/1/2-Warteschlangensystem mit Platz für maximal 2 Kunden, also Generatormatrix (vgl. Folie 4 90) Q = λ λ 0 µ (λ + µ) λ 0 µ µ, Q T = λ µ 0 λ (λ + µ) µ 0 λ µ.

36 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.3 Endliche Warteräume Verlustsysteme 6 36 Symbolische Lösung λ µ 0 0 λ (λ + µ) µ 0 0 λ µ 0 λ µ λ µ λ µ λ µ 0 0 λ + µ λ λ Zeilenvertauschung und Normierungsbedingung Z 3 := λz 3 + Z 1 Z 3 := λz 3 (λ + µ)z 2 λ µ λ µ λ 2 + µ(λ + µ) λ 2

37 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.3 Endliche Warteräume Verlustsysteme 6 37 Rückwärtseinsetzen λ µ λ µ λ 2 + µ(λ + µ) λ 2 π 2 = λ 2 λ 2 + λµ + µ 2, π 1 = λµ λ 2 + λµ + µ 2, π 0 = µ 2 λ 2 + λµ + µ 2. Dabei entsprechen die π i der Markovkette den p i des Warteschlangenmodells, also p 0 = π 0, p 1 = π 1, p 2 = π 2. Grundsätzlich so für beliebiges K möglich, aber schwierig für allgemeines K, Aufwand wächst mit K, Aufwand Gauß Verfahren: O(n 3 ) für n n Matrizen, also hier O ( (K + 1) 3), Andererseits: fast nur Nulleinträge, Bandmatrix. Ausnutzung des Geburts-/Todesprozesses trotz endlichem Zustandsraum besser.

38 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.3 Endliche Warteräume Verlustsysteme 6 38 M/M/1/K als Geburts-/Todesprozeß Beachte: anders als bei M/M/1 ist Verkehrsintensität a nicht gleich Auslastung ρ, da nicht alle Kunden, die das System erreichen, auch eintreten können, d.h. a = λ µ ρ. Geburts- und Todesraten λ n = { λ, falls 0 n < K, 0, falls n K, µ n = { µ, falls 0 n K, 0, falls n > K. Aus allgemeinen Lösungen folgt für 0 n K p n = p 0 λn µ n = p 0 a n. Insbesondere p n = 1 K + 1 = p 0 für a = 1, 0 n K. Wegen folgt 1 = p 0 + p p K = p 0 K p 0 = n=0 ( ) 1 a a n K+1 = p 0, a 1 1 a 1 a 1 ak+1, a 1.

39 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.3 Endliche Warteräume Verlustsysteme 6 39 Stationäre Zustands WK Insgesamt ergibt sich für die stationären Zustands WK 1, falls a = 1, K + 1 p n = (1 a)a n 1 ak+1, falls a 1. Beachte Da Zustandsraum endlich (d.h. niemals mehr als K Kunden im System), erreicht das System für alle Werte von a = λ µ stationären Zustand (also nicht nur für λ < µ). Mit λ < µ bzw. a < 1 konvergieren die p n für K offensichtlich gegen die stationären Zustands WK im M/M/1 Modell, also lim K (1 a)a n 1 a K+1 = (1 a)an = (1 ρ)ρ n.

40 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.3 Endliche Warteräume Verlustsysteme 6 40 Stationäre Leistungsmaße: erwartete Kundenanzahl Für λ µ, also für a 1 K E[N] = np n = n=0 = = = ( ) 1 a K (na n ) = 1 a K+1 n=1 ( ) 1 a a 1 a K+1 K n=1 ( ) 1 a a d 1 a K+1 da ( ) 1 a a d 1 a K+1 da da n da K n=1 a n ( ) 1 a K+1 1 a ( ) 1 a a 1 a K+1 K n=1 (Ableitung nach a) na n 1 = a 1 a (K + 1)aK+1 1 a K+1.

41 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.3 Endliche Warteräume Verlustsysteme 6 41 Vergleich mit M/M/1 Modell Für λ < µ E[N] = M/M/1 Modell a 1 a = ρ 1 ρ E[N] = M/M/1/K Modell a 1 a (K + 1)aK+1 1 a K+1 Also für a < 1 ist erwartete Anzahl von Kunden in M/M/1/K kleiner als in M/M/1. Für a = 1 (wobei M/M/1 instabil ist) in M/M/1/K K E[N] = np n = K K + 1 n=0 = K 2. Insgesamt also für M/M/1/K E[N] = K 2, falls a = 1, a 1 a (K + 1)aK+1 1 a K+1, falls a 1.

42 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.3 Endliche Warteräume Verlustsysteme 6 42 Verluste Kundenverluste bei vollem Warteraum Ankommende Kunden werden abgewiesen, wenn das System voll ist, also mit WK p K gehen diese Kunden verloren bzw. der Warteraum läuft über. In Kommunikationssystemen Paket-/Zellverlust (Packet Loss, Cell Loss), Pufferüberlauf (Buffer Overflow) Bei großem Warteraum und/oder geringer Verkehrsintensität seltenes Ereignis (Rare Event) Verlustwahrscheinlichkeit, Überlaufwahrscheinlichkeit p K Bei großem Warteraum und/oder geringer Verkehrsintensität sehr kleine Wahrscheinlichkeit (Rare Event Probability) Mittlere Zeit bis zum Überlauf (Mean Time To Overflow, MTTO) mit Interpretation eines Kundenverlustes als Fehler: Mean Time To Failure, MTTF Bei großem Warteraum und/oder geringer Verkehrsintensität sehr lange Zeit Für größere Netze (wenn überhaupt) nur mit speziellen Verfahren zur Simulation seltener Ereignisse (Rare Event Simulation) analysierbar.

43 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.3 Endliche Warteräume Verlustsysteme 6 43 Weitere Leistungsmaße Sei λ a die Ankunftsrate der Kunden, die tatsächlich eintreten, also λ a := λ(1 p K ). Mit dem Gesetz von Little E[R] = E[N] λ a = E[N] λ(1 p K ) =... Die Auslastung des Bedieners, also die WK, daß der Bediener arbeitet, ergibt sich zu ρ = P(server busy) = λ a E[S] = λ(1 p K ) 1 µ = (1 p K)a. Der Vollständigkeit halber, aber ohne Herleitungen ( F R (x) = P(R x) = 1 F W (x) = P(W x) = 1 K 1 n=0 K 2 n=0 ( p n 1 p K e µt p n+1 1 p K e µt n k=0 n k=0 ) (µt) k, x 0 k! ) (µt) k, x 0. k!

44 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.3 Endliche Warteräume Verlustsysteme M/M/c/c Erlang-Verlustmodell M/M/c/c, also c Bediener und kein Warteraum. Kunden, die ankommen, wenn alle Bediener besetzt sind, gehen verloren Erlang-Verlustmodell Zustandsübergangsdiagramm λ λ λ λ c µ 2µ 3µ cµ Damit c n = an n!, 0 < n c, S = 1 p 0 = 1 + a + a2 2! + a3 3! + + ac c!. Also p n = c n p 0 = a n n! 1 + a + a2 2! + a3 3! + + ac c!, 0 n c.

45 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.3 Endliche Warteräume Verlustsysteme 6 45 Erlangsche B Formel Insbesondere gilt für die WK, daß alle Bediener belegt sind und Kunden verloren gehen Erlangsche Verlustformel (Erlang Loss Formula), Erlangsche B Formel B(c, a) := p c = a c c! 1 + a + a2 2! + a3 3! + + ac c! Da nie gewartet wird, kein Warteraum vorhanden ist: E[W] = 0, E[N q ] = 0, E[R] = E[S] = 1 µ.. Erwartete Anzahl von Kunden c E[N] = np n = p 0 n=0 c n=1 n an n! = ap 0 c 1 n=0 a n n! = a(1 B(c, a)). Offensichtlich hat R die gleiche Verteilung wie S, also Exponentialverteilung: F R (x) = 1 e µx, x 0.

46 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.3 Endliche Warteräume Verlustsysteme 6 46 Erlangsche B und C Formel Es gilt (Herleitung leicht) 1 B(1,a) = a, 1 B(n,a) = 1 + n a Zusammenhang zwischen B und C Formel (Herleitung leicht) 1 B(n 1, a), 1 < n c. 1 C(c, a) = ρ + 1 ρ B(c, a), C(c, a) = B(c, a) ρb(c, a) + 1 ρ. Damit einfacher Algorithmus zur Berechnung der C Formel 1. Berechne 1 B(1,a) = a ; 1 2. Berechne B(n,a) = 1 + n a 1 ( 1 3. Setze B(c, a) = B(c,a)) 1 ; B(n 1,a) 4. Berechne C(c, a) = B(c,a) ρb(c,a)+1 ρ. für n = 2,..., c;

47 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.3 Endliche Warteräume Verlustsysteme 6 47 Besserer Algorithmus Problem: Obiger Algorithmus numerisch instabil für kleines B(c, a). Beispiel: B(40, 0.01) Überlauf nicht des Warteraums, sondern beim Berechnen einiger 1/B(c, a) B(40, 0.01) e ! = e ! = Besserer (stabilerer) Algorithmus 1. Setze B(1, a) = a 1 + a ; 2. Berechne B(n, a) = 3. Berechne C(c, a) = ab(n 1, a) n + an(n 1, a) B(c, a) ρb(c, a) + 1 ρ. für n = 2,..., c;

48 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.4 Endliche Populationen 6 48 Abschnitt 6.4 Endliche Populationen

49 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.4 Endliche Populationen M/M/c//m Engset-Wartemodell MM/c//m, c < m also c Bediener, unendlicher Warteraum und Population der Größe m. Engset-Wartemodell Geburts-/Todesprozeß mit Raten { (m n)λ, falls 0 n < m, λ n = 0, falls n m, µ n = nµ, falls 0 n c, cµ, falls c n m, 0, falls n > m. Zustandsübergangsdiagramm mλ (m 1)λ (m 2)λ (m c + 1)λ c µ 2µ 3µ cµ (m c)λ cµ (m 1)λ m cµ

50 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.4 Endliche Populationen 6 50 Modell Machine Repair Machine Repair Vorhanden sind m Maschinen und c Reparatureinheiten. Maschine = Kunde im Warteschlangenmodell. Reparatureinheit = Bediener im Warteschlangenmodell. Ankunft: Maschine betritt das System, wenn sie ausfällt. Hier exponentiell verteilte Zeiten zwischen zwei Ausfällen, Mean Time To [Machine/Component] Failure (MTT[M/C]F) also bekannt/gegeben. Bedienung: Reparatureinheit repariert Maschine. Hier exponentiell verteilte Reparaturdauern, Bestandteil in Zuverlässigkeitsmodellen (Reliability Models), dort interessiert dann z.b. die mittlere Zeit bis zum Systemfehler, üblicherweise als MTTF bezeichnet. Systemfehler = gleichzeitiger Ausfall bestimmter Maschinen.

51 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.4 Endliche Populationen 6 51 Modelle Terminal und Web Server Interpretation als einfaches Terminal Modell Nutzer an m Terminals schicken Aufträge an Computer Bearbeitungsdauer von Aufträgen ist exponentiell verteilt. Denkzeit eines Nutzers zwischen zwei Aufträgen ist exponentiell verteilt. Wenn ein Nutzer Auftrag geschickt hat, wartet er auf Antwort denkt nicht über neue Aufträge nach, schickt also auch keine Aufträge. Je mehr Nutzer denken, desto höher ist die effektive Auftragsrate. Interpretation Web-Server Modell Web Surfer stellen Anfragen an Web Server analog Spezialfall M/M/1//m nur ein Bediener bzw. eine Reparatureinheit, ein Computer, ein Web Server.

52 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.4 Endliche Populationen 6 52 Stationäre Zustandsverteilung Für n c p n = λ 0λ 1 λ n 1 µ 1 µ 2 µ n p 0 = mλ (m 1)λ (m 2)λ (m n + 1)λ µ 2µ 3µ nµ p 0 = m(m 1) (m n + 1) n! ( λ µ ) n p 0 = ( m n ) ( λ µ ) n p 0. Für n c p n = λ 0λ 1 λ n 1 µ 1 µ 2 µ n p 0 = mλ (m 1)λ (m 2)λ (m n + 1)λ µ 2µ 3µ cµ (cµ) n c p 0 = = m(m 1)(m 2) (m n + 1) c! c n c m! (m n)! 1 c! c n c ( ) n λ p 0. µ ( ) n λ p 0 µ

53 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.4 Endliche Populationen 6 53 Stationäre WK für leeres System Mit der Normierungsbedingung p 0 + p p n = 1 folgt p 0 = ( c 1 n=0 ( m n )( λ µ ) n + m n=c m! (m n)! 1 c! c n c ( ) ) 1 n λ. µ Die Verteilung der Anzahl B von belegten Bedienern ist gegeben durch die Engset Verteilung P(B = 0) = P(B = k) = ( c ( )( ) ) i 1 m λ, i µ i=0 ( m k ) ( λ µ ) k P(B = 0), 0 < k c.

54 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.4 Endliche Populationen 6 54 Interpretationen Für Interpretation Machine Repair Systemzustand ist Anzahl ausgefallener Maschinen p n = P(Anzahl ausgefallener Maschinen = n), p m n = P(Anzahl funktionierender Maschinen = n). Für Interpretation als einfaches Terminal Modell Systemzustand ist Anzahl unbearbeiteter Aufträge p n = P(Anzahl unbearbeiteter Aufträge = n), p m n = P(Anzahl denkender Nutzer ist = n). Für Interpretation als Web-Server Modell Systemzustand ist Anzahl unbeantworteter Anfragen p n = P(Anzahl unbeantworteter Anfragen = n), p m n = P(Anzahl denkender Nutzer ist = n).

55 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.4 Endliche Populationen 6 55 Zustands WK bei Ankunft Da nur endliche Population vorhanden ist, bilden Ankünfte keinen Poissonprozeß. Welche stationären Zustands WK sehen ankommende Kunden? a n := P(Ankommender Kunde findet n Kunden vor) = P(N = n Ankunft passiert). Damit gilt Bayes a n = P(Ankunft passiert N = n) p n m P(Ankunft passiert N = k) k=0 = lim h 0 ((m n)λh + o(h)) p n m ((m k)λh + o(h)) p k k=0 = (m n)λp n m = (m n)p n m = (m k)λp k (m k)p k k=0 k=0 (m n)p n m mp k m kp k k=0 k=0 = (m n)p n m m kp k k=0 = (m n)p n m E[N]. Verweilzeitverteilung...

56 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.4 Endliche Populationen 6 56 Stationäre Verweilzeitverteilung Darstellung mittels Laplace Stieltjes-Transformierten (LST) Seien R (ϑ) LST der Verweilzeit R und R (ϑ n) LST der bedingten Verweilzeit R N = n. Dann R (ϑ) = m 1 n=0 R (ϑ n)a n und R (ϑ n) = µ, falls n < c, ϑ + µ ( ) n c+1 ( ) cµ µ, falls c n < m. ϑ + cµ ϑ + µ Damit R (ϑ) = µ ϑ + µ ( c 1 n=0 a n + m 1 n=c ( ) ) n c+1 cµ a n. ϑ + cµ

57 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.4 Endliche Populationen 6 57 Stationäre Wartezeitverteilung Für die LST W (ϑ) der stationären Wartezeitverteilung W folgt sofort (wegen V = W + S) c 1 m 1 ( ) n c+1 cµ W (ϑ) = a n + a n. ϑ + cµ n=0 n=c Aus den LST lassen sich mittels Ableitungen Erwartungswert, Varianz und höhere Momente der Warte- und Verweilzeit berechnen. Dichten ergeben sich durch Inversion der LST. Warum Darstellung mittels LST? LST eindeutig, d.h. auch die LST beschreibt die Verteilung eindeutig. Formeln für Dichte und Verteilungsfunktion wesentlich komplizierter/unübersichtlicher. Etwa die Dichte der Verweilzeit c 1 f V (x) = µe µx n=0 a n + m 1 n=c ( ( ) n c+1 ( ) n c+1 c c n c a n µe µx µ e c 1 c 1 r=0 ) µx(µ(c 1)x)r. r!

58 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.4 Endliche Populationen 6 58 Variante Variante M/M/c//m, c m, also mindestens soviele Bediener wie potentielle Kunden Anzahl der Kunden im System = Anzahl arbeitender Bediener. Nach wie vor (Formel für n < c jetzt für alle n, da n > c unmöglich) ( ) ( ) n m λ p n = p 0. n µ Jetzt mit Normierungsbedingung p 0 + p p n = 1 ( m ( )( ) ) n 1 (( m λ p 0 = = 1 + λ m ) 1 = n µ µ) n=0 1 ( ) m. 1 + λ µ Also p n = ( m n ) ( λ µ ) n (( 1 + λ µ) m ) 1 = ( m n ) ( λ µ ) n ( ) m. 1 + λ µ

59 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.4 Endliche Populationen 6 59 Verteilung der Anzahl arbeitender Bediener Umformung führt zu p n = = ( ) ( ) m n (( ) ( )) n m µ λ µ n λ + µ µ λ + µ ( ) ( ) m n ( ) n m µ λ. n λ + µ λ + µ Anders ausgedrückt P(N = n) = p n = ( ) m p n (1 p) m n, n also Binomialverteilung mit Parameter p := λ λ + µ.

60 Werner Sandmann: Modellierung und Analyse Kapitel 6 Analyse elementarer Markovscher Modelle 6.4 Endliche Populationen M/M/c/c/m Engset-Verlustmodell Jetzt kein Warteraum, d.h. Ankünfte gehen verloren, wenn alle Bediener arbeiten. Gemäß der Formeln des Engset-Wartemodells gilt p n = ( m n c i=0 ) ( ) n λ µ ) ( ) i, 0 n c. λ µ ( m i Die Verlustwahrscheinlichkeit ist also gegeben durch p c = ( m c c i=0 ) ( ) c λ µ ) ( ) i. λ µ ( m i Mehr dazu in der Literatur...

3. Prozesse mit kontinuierlicher Zeit

3. Prozesse mit kontinuierlicher Zeit 3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

8 Die Exponentialverteilung

8 Die Exponentialverteilung 8 Die Exponentialverteilung 8.1 Einführung Modelle Zuverlässigkeitsmodelle Lebensdauermodelle Bedienungsmodelle. 277 W.Kössler, Humboldt-Universität zu Berlin Def. 26 (Exponentialverteilung) Sei X eine

Mehr

Warteschlangentheorie

Warteschlangentheorie Warteschlangentheorie Frühjahrstrimester 2016 HSU Hamburg Andreas Löpker 1. Einführung 1.1. Einfaches Warteschlangenmodell Der Ankunftsprozess beschreibt die zufällige Ankunft von Kunden. Ist die Bedienstation

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 9 UNIVERSITÄT KARLSRUHE Blatt 5 Priv-Doz Dr D Kaelka Dipl-Math W Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe : Wir betrachten eine Markovkette in

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

Kapitel 4 Diskrete Markov-Prozesse

Kapitel 4 Diskrete Markov-Prozesse Kapitel 4 Diskrete Markov-Prozesse 4.1 Definition und grundlegende Eigenschaften 4.1 Definition und grundlegende Eigenschaften Stetige Zeit aber weiterhin diskreter Zustandsraum. Beispiele: Klinische Studien,

Mehr

Der Poissonprozess. Kapitel 5

Der Poissonprozess. Kapitel 5 spielt in der stochastischen Modellierung eine fundamentale Rolle Grund ist seine verteilungsfreie Charakterisierung durch wenige qualitative Eigenschaften, die in zahlreichen Anwendungsbeispielen plausibel

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

8.3 Zuverlässigkeitsmodelle

8.3 Zuverlässigkeitsmodelle 8.3 Zuverlässigkeitsmodelle Def. 29 (Zuverlässigkeit) Die Zuverlässigkeit eines Systems ζ ist die Wahrscheinlichkeit, dass das System zum Zeitpunkt t intakt ist: Rel(ζ) = P(X t). Annahme: Das System besteht

Mehr

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Definition: Erneuerungsprozess Sei {T n, n N} eine Folge unabhängiger, nichtnegativer Zufallsvariablen mit Verteilungsfunktion F, mit F () < 1. Dann heißt

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen

7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen 7.7 Spezielle diskrete Wahrscheinlichkeitsverteilungen 7.7.1 Die Laplace-Verteilung Sei X eine gleich verteilte Zufallsvariable mit den Werten in der Menge Ω X = {x i R : i = 1,...,n}, d.h. f (x i = 1

Mehr

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse 2 Halbgruppen von Übergangswahrscheinlichkeiten Markov-Prozesse Im Folgenden sei (X, B) ein (polnischer) Messraum und T = [0, ) oder T = N 0 Definition 21 Eine Familie (P t ) t T von (X, B) mit Übergangswahrscheinlichkeiten

Mehr

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem binären Experiment mit Erfolgswahrscheinlichkeit p genau in der k-ten unabhängigen

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

Diskrete Strukturen II

Diskrete Strukturen II SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen

Mehr

7.4 Charakteristische Funktionen

7.4 Charakteristische Funktionen 7.4 Charakteristische Funktionen Def. 25 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

Satz 104 (Skalierung exponentialverteilter Variablen)

Satz 104 (Skalierung exponentialverteilter Variablen) 2.3.1 Eigenschaften der Exponentialverteilung Satz 104 (Skalierung exponentialverteilter Variablen) Sei X eine exponentialverteilte Zufallsvariable mit dem Parameter λ. Für a > 0 ist die Zufallsvariable

Mehr

Erneuerungs- und Semi-Markov-Prozesse

Erneuerungs- und Semi-Markov-Prozesse Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Für den Poisson-Prozess und (reguläre) diskrete Markov-Prozesse impliziert die Markov-Eigenschaft, dass die Zwischenzeiten bzw. Verweildauern exponentialverteilt

Mehr

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treffer geometrisch verteilt ist, so ist ihre Anzahl in einer festen

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Diskrete Verteilungen

Diskrete Verteilungen Diskrete Verteilungen Bernoulli-Verteilung: X Bernoulli(p) Symbol für «verteilt wie» «Eperiment» mit zwei Ausgängen: «Erfolg» ( 1) oder «Misserfolg» ( ). Die Erfolgswahrscheinlichkeit sei p. Wertebereich

Mehr

Bem. 6 Die charakterische Funktion existiert.

Bem. 6 Die charakterische Funktion existiert. 4.4 Charakteristische Funktionen Def. 2.14 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx

Mehr

2. Stochastische Prozesse.

2. Stochastische Prozesse. SS 2006 Arbeitsblatt 2 / S. 1 von 7 2. Stochastische Prozesse. Warteschlangen treten als Erscheinungsformen von in der Zeit ablaufenden Prozessen auf, von denen wie oben erwähnt mindestens einer nicht

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie

Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie Berichte aus der Informationstechnik Klaus-Dieter Thies Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie für Computernetzwerke

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Ziele dieses Kapitels. Konzepte und Methoden der Systemsoftware Kapitel 8: Warteschlangentheorie. Holger Karl. Warteschlangen überall.

Ziele dieses Kapitels. Konzepte und Methoden der Systemsoftware Kapitel 8: Warteschlangentheorie. Holger Karl. Warteschlangen überall. Ziele dieses Kapitels Konzepte und Methoden der Systemsoftware Kapitel 8: Warteschlangentheorie Holger Karl Im vorherigen Kapitel wurden unterschiedliche Optionen zur Gestaltung von Client/Server-Systemen

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 24. November 2010 1 Stetige Verteilungen Normalapproximation Gleichverteilung Exponentialverteilung Normalapproximation

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}. Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit

Mehr

Die Probabilistische Methode

Die Probabilistische Methode Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.

Mehr

Referenten: Gina Spieler, Beatrice Bressau, Laura Uhlmann Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn

Referenten: Gina Spieler, Beatrice Bressau, Laura Uhlmann Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn 8.5 Eindimensionale stetige Zufallsvariablen Eine Zufallsvariable X heißt stetig, wenn es eine Funktion f(x) gibt, sodass die Verteilungsfunktion von X folgende Gestalt hat: x F(x) = f(t)dt f(x) heißt

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Master Modul IV im SS 2016: Technisch-Ökonomische Wartesysteme

Master Modul IV im SS 2016: Technisch-Ökonomische Wartesysteme Operations Research und Wirtschaftsinformatik Prof. Dr. P. Recht // M. Radermacher, M.Sc. DOOR Aufgabe 3 Master Modul IV im SS 206: Technisch-Ökonomische Wartesysteme Übungsblatt Wurde in der Übung am

Mehr

Dichte der geometrischen Verteilung

Dichte der geometrischen Verteilung 0,8 Ô ¼ 0,8 Ô ¼ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 1 2 3 4 5 6 7 8 9 10 0,0 1 2 3 4 5 6 7 8 9 10 0,8 Ô ¼ 0,8 Ô ¼ ¾ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 0,0 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 Dichte der geometrischen

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Grundlagen der Wahrscheinlichkeitstheorie

Grundlagen der Wahrscheinlichkeitstheorie Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)

Mehr

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 8. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 5.6.2013 8. Unabhängigkeit von Zufallsgrößen, Erwartungswert und Varianz 8.1

Mehr

Fahrzeugfolgemodelle I

Fahrzeugfolgemodelle I Christoph Berkholz Eckart Stets SE Verkehrssimulation und Optimierung, 29.10.2008 Es gibt kein einheitliches Verkehrsmodell. Dafür aber viele Ansätze. Heute: klassische mikroskopische Fahrzeugfolgemodelle,

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 1. Dezember 21 1 Integralrechnung Flächeninhalt Stammfunktion Rechenregeln 2 Dichten von Erwartungswert und Varianz

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr 1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand

Mehr

Zuverlässigkeitstheorie

Zuverlässigkeitstheorie 3. Grundbegriffe der Wahrscheinlichkeitsrechnung Prof. Jochen Seitz Fachgebiet Kommunikationsnetze 20. November 2008 Übersicht Gesetz der großen Zahlen von Bernoulli 1 Gesetz der großen Zahlen von Bernoulli

Mehr

Q5. Markov-Prozesse in kontinuierlicher Zeit

Q5. Markov-Prozesse in kontinuierlicher Zeit Q5. Markov- in kontinuierlicher Zeit Gliederung 1.Zeitkontinuierliche Markov- 2.Vom Modell zum Markov-Prozess 3.Stationäre Analyse 4.Transiente Analyse 5.Stationäre Analyse von Modellen mit unendlichem

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

Kapitel VI - Lage- und Streuungsparameter

Kapitel VI - Lage- und Streuungsparameter Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

λ λc 1 λc 2 λc µ λ µ λc 1... Damit muss die Gleichgewichtsverteilung folgendes Gleichungssystem erfüllen (n 1)

λ λc 1 λc 2 λc µ λ µ λc 1... Damit muss die Gleichgewichtsverteilung folgendes Gleichungssystem erfüllen (n 1) Kapitel 3 Markov-Modelle II 3.1 Ankunft oder Abfertigung in Gruppen 3.1.1 Das M [X] /M/1 Modell Wir nehmen an, dass die Ankünfte einem Poisson-Prozess mit Rate λ genügen und zu jedem Ankunftszeitpunkt

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

DWT 3.3 Birth-and-Death Prozesse 467/476 c Ernst W. Mayr

DWT 3.3 Birth-and-Death Prozesse 467/476 c Ernst W. Mayr 3.3 Birth-and-Death Prozesse M/M/1-Warteschlangen stellen einen Spezialfall so genannter Birth-and-Death Prozesse dar. Darunter versteht man kontinuierliche Markov-Ketten mit einem Übergangsdiagramm der

Mehr

Von englischen und deutschen Postämtern

Von englischen und deutschen Postämtern Von englischen und deutschen Postämtern Teilnehmer: Ricky Burzla Robert Butz Jan Putzig Antoni Schilling Jakob Steinbrück Patrick Zielonka Wilhelm-Ostwald-Gymnasium, Leipzig Herder-Oberschule, Berlin Heinrich-Hertz-Oberschule,

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................

Mehr

Vorlesung 5a. Die Varianz

Vorlesung 5a. Die Varianz Vorlesung 5a Die Varianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Stochastik Aufgaben zum Üben: Teil 2

Stochastik Aufgaben zum Üben: Teil 2 Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212 1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,

Mehr

6.4 Poisson-Verteilung

6.4 Poisson-Verteilung 6.4 Poisson-Verteilung Sei {N t } t T eine Menge von Zufallsvariablen (ein stochastischer Prozeß ) mit folgenden Eigenschaften: V1: Zuwächse sind unabhängig, dh. die Zufallsvariablen N t+h N t und N t

Mehr

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. 2 Zufallsvariable 2.1 Einführung Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. Eine Zufallsvariable X ordnet jedem elementaren Versuchsausgang

Mehr

Zufallsvariable: Verteilungen & Kennzahlen

Zufallsvariable: Verteilungen & Kennzahlen Mathematik II für Biologen 12. Juni 2015 Zufallsvariable Kennzahlen: Erwartungswert Kennzahlen: Varianz Kennzahlen: Erwartungstreue Verteilungsfunktion Beispiel: Exponentialverteilung Kennzahlen: Erwartungswert

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

1. Was ist eine Wahrscheinlichkeit P(A)?

1. Was ist eine Wahrscheinlichkeit P(A)? 1. Was ist eine Wahrscheinlichkeit P(A)? Als Wahrscheinlichkeit verwenden wir ein Maß, welches die gleichen Eigenschaften wie die relative Häufigkeit h n () besitzt, aber nicht zufallsbehaftet ist. Jan

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung

Mehr

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder

Mehr

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung

Mehr

Spezielle diskrete Verteilungen

Spezielle diskrete Verteilungen 9 Eindimensionale Zufallsvariablen Spezielle diskrete Verteilungen 9.9 Spezielle diskrete Verteilungen Im Folgenden: Vorstellung spezieller (parametrischer) Verteilungsfamilien, die häufig Verwendung finden.

Mehr

Spezielle diskrete Verteilungen

Spezielle diskrete Verteilungen 9 Eindimensionale Zufallsvariablen Spezielle diskrete Verteilungen 9.9 Spezielle diskrete Verteilungen Im Folgenden: Vorstellung spezieller (parametrischer) Verteilungsfamilien, die häufig Verwendung finden.

Mehr

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe 1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe Nachdem eine Stichprobe X 1,..., X n gezogen wurde berechnen wir gewöhnlich irgendwelchen Wert damit. Sei dies T = T (X 1,..., X n, wobei T auch

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood

Mehr