4.1 Einführung Wiederholung: Wichtige Schedulingverfahren. Scheduling II Leistungsanalyse von Schedulingalgorithmen. Modell.

Größe: px
Ab Seite anzeigen:

Download "4.1 Einführung Wiederholung: Wichtige Schedulingverfahren. Scheduling II Leistungsanalyse von Schedulingalgorithmen. Modell."

Transkript

1 Betriebssysteme II - Analyse und Modellierung Sommersemester Einführung 4.1 Einführung Wiederholung: Wichtige Schedulingverfahren Betriebssysteme II - Analyse und Modellierung 4. Kapitel Scheduling II Leistungsanalyse von Schedulingalgorithmen Prof. Matthias Werner Professur Betriebssysteme bedienzeitunabhängig bedienzeitabhängig FCFS: First Come First Serve SJN: Shortest Job Next ohne Verdrängung mit Verdrängung ohne Prioritäten mit Prioritäten ohne Prioritäten mit Prioritäten FCFS (FIFO) PRIO-NP RR PRIO-P, (RMS, EDF) SJN SRTN PRIO-NP: Prioritized, Non Preemption RR: Round Robin SRTN: Shortest Remaining Time Next PRIO-P: Prioritized with Preemption RMS: Rate Monotonic Scheduling EDF: Earliest Deadline First SoSe 218 M. Werner 2 / 51 osg.informatik.tu-chemnitz.de 4.1 Einführung 4.1 Einführung Fragestellung Modell Im Standardscheduling betrachtet man meist keine konkrete Taskmenge, sondern weiß nur ungefähr Bescheid zufällige Taskeigenschaften stochastisches Verhalten Es interessieren Performance-Eigenschaften Typische Fragestellung Wie lange dauert es (im Mittel), bis eine Task fertig bearbeitet ist? Mittlere Taskantwortzeit: Erwartungswert der Verweilzeit einer Task im System 1. Abstraktion: Bei einer Task interessiert nur das Zeitverhalten, keine Semantik 2. Abstraktion: Es interessiert nicht die einzelne Task, sondern nur (große) Mengen von Tasks Für Antwortzeit oder Durchsatz sind folgende Parameter nötig: 1. Ankunftsverhalten von Tasks (wann kommen wieviel und welche Tasks an) 2. Wie werden die Tasks in der Warteschlange behandelt (Strategie) 3. Abarbeitungsdauer (Bedienzeit) von Tasks (wie lange brauchen Tasks den Prozessor) Wir betrachten Ansätze der Warteschlangentheorie (Queuing Theory)/ Markowketten (Markov chains) SoSe 218 M. Werner 3 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 4 / 51 osg.informatik.tu-chemnitz.de

2 Für die Beschreibung von Scheduling holen wir ein wenig aus und betrachten zunächst Markow-Ketten Für die Teilnehmer an z.b. Verlässliche Systeme ist das Folgende z.t. Wiederholung Markow-Ketten sind stochastische Prozesse (siehe Abschnitt 3.3) Ein Poission-Prozess kann als Spezialfall einer Markow-Kette aufgefasst werden Idee: System besitzt eine Menge von diskreten Zuständen X i Hier relevant: Zustand beschreibt Last des Systems Übergänge zwischen Zuständen (bzw. Ereignisse, die diese Übergänge auslösen) geschehen zufällig Markow-Ketten (Forts.) Die Wahrscheinlichkeit des Übergangs in einen Folgezustand hängt nicht von schon durchlaufenen Zuständen ab MARKOW-Eigenschaft (Gedächnislosigkeit) Pr(X n+1 X 1, X 2,..., X n ) = Pr(X n+1 X n ) Unterscheidung von zeitdiskreten und zeitkontinuierlichen Markow-Ketten (ZDMK und ZKMK) Wahrscheinlichkeiten werden nach BAYES verknüpft (bedingte Wahrscheinlichkeit) (siehe Kapitel 3, Folie 11) Anmerkung Obwohl für das betrachtete Anwendungsgebiet zeitdiskrete Markow-Ketten kaum relevant sind, betrachten wir sie zuerst, weil dies das Verständnis von zeitkontinuierlichen Markow-Ketten erleichtert. SoSe 218 M. Werner 5 / 51 osg.informatik.tu-chemnitz.de Zeitdiskrete MARKOW-Ketten (ZDMK) Rundenmodell: Zustand kann sich nur zu bestimmten Zeiten ändern Graphische Darstellung einer ZDMK mit zwei Zuständen: Wahrscheinlichkeit des Verbleibens in Zustand 1 Wahrscheinlichkeit des Übergangs von Zustand 1 zu Zustand 2 Zustand 1 Zustand 2 Wahrscheinlichkeit des bergangs von Zustand 2 zu Zustand 1 Wahrscheinlichkeit des Verbleibens in Zustand 2 System ist immer in genau einem Zustand Von und zu jedem Zustand können beliebig viele (bis zu Anzahl der Zustände) Pfeile (Zustandsübergänge) abgehen bzw. hinführen Die Summe der Wahrscheinlichkeiten aller abgehender Zustandsübergänge muss für alle Zustände 1 sein Homogenität: Übergangswahrscheinlichkeit hängt nicht von der Zeit ab: n, m, Pr(X n+1 = x X n = y) = Pr(X m+1 = x X m = y) SoSe 218 M. Werner 7 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 6 / 51 osg.informatik.tu-chemnitz.de Zustandsvektor Zustandsvektor Der Zustandsvektor beschreibt die Wahrscheinlichkeiten, mit denen sich das System zu einem bestimmten Zeitpunkt in den jeweiligen Zuständen befindet. T Wahrscheinlichkeit für Zustand 1 Wahrscheinlichkeit für Zustand 2 Zustandsvektor nach i Schritten: p i =. Wahrscheinlichkeit für Zustand n SoSe 218 M. Werner 8 / 51 osg.informatik.tu-chemnitz.de

3 Zustandsvektor (Forts.) Die Menge der Systemzustände bilden den Ereignisraum Ω p gibt damit alle Aufenthaltswahrscheinlichkeiten für den Ereignisraum an es muss wieder p i,j = 1 gelten Achtung, Sprachverwirrung! j Der Zustandsvektor wird manchmal auch kurz mit Zustand bezeichnet Überladung des Begriffs. Manchen Sie sich stets klar, ob mit Zustand ein Element aus der Menge der Systemzustände oder die Aufenhaltswahrscheinlichkeiten des Systems für diese Systemzustände gemeint ist. Übergangsmatrix Übergangsmatrix Die Matrix gibt die Übergangswahrscheinlichkeiten zwischen einzelnen Zuständen an. Q = Pr(Z 1 Z 1 ) Pr(Z 1 Z 2 ) Pr(Z 1 Z n ) Pr(Z 2 Z 1 ) Pr(Z 2 Z 2 ) Pr(Z 2 Z n ).. Pr(Z n Z 1 ) Pr(Z n Z 2 ) Pr(Z n Z n ) Die Übergangsmatrix ist damit die Adjazenzmatrix des Graphen der Markow-Kette SoSe 218 M. Werner 9 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 1 / 51 osg.informatik.tu-chemnitz.de Beispiel Quelle: Wikipedia k = 1 Pr(X i+1 = k X i = 1) =.2 k = 2.8 k = 3.5 k = 1 Pr(X i+1 = k X i = 2) = k = 2.5 k = 3.1 k = 1 Pr(X i+1 = k X i = 3) =.9 k = 2 k = Q = Änderung des Zustandsvektors Häufig ist ein Ausgangszustand des betrachteten System (Initialzustand) bekannt Zustandsvektor besteht nur aus Nullen und einer Eins, z.b. p = ( 1 ) Da sich das System ab dem Systemstart zufällig entwickelt, verwischen die Aufenthaltswahrscheinlichkeiten in bestimmten Systemzuständen Die Zustandswahrscheinlichkeiten nach einem Zustandsübergang p i+1 = p i Q Nach n Schritten: p n = p n 1 Q = p Q n SoSe 218 M. Werner 11 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 12 / 51 osg.informatik.tu-chemnitz.de

4 Beispiel Sie spielen Roulette Sie starten mit 1 und setzen in jeder Runde 2 ein Sie setzen grundsätzlich nur auf Farbe (rouge/noir) Wie groß ist die Wahrscheinlichkeit, dass Sie nach 1 Runden noch immer mindestens 1 besitzen? Zeitkontinuierliche MARKOW-Ketten Grundregeln wie bei zeitdiskreten Ketten: Verschiedene diskrete Zustände Beliebige Übergänge zwischen diesen Zuständen Gedächtnislos - nur der aktuelle Zustand beeinflusst den Folgezustand Aber: Übergang findet zu beliebigem Zeitpunkt t statt Wahrscheinlichkeit nach Zeit und Verweilzeit Homogene MARKOW-Kette: Abhängigkeit nur von Verweilzeit Pr(X(t n + t) = j X(t n ) = i n,..., X(t 1 ) = i 1 ) = Pr(X(t n + t) = j X(t n ) = i n ) Wir betrachten nur homogene Markow-Ketten = Pr(X(t) = j X() = i n ) SoSe 218 M. Werner 13 / 51 osg.informatik.tu-chemnitz.de Generatormatrix (Verweil-)Zeitabhängige Übergangswahrscheinlichkeiten unbequem Generatormatrix or generator matrix: 1 Q(t) I G = lim (I = 1. t t., d.h. Einheitsmatrix)... 1 g i,j ist die Rate mit der Zustand Z i in Richtung Z j verlassen wird Es gilt: g i,i = j i g i,j SoSe 218 M. Werner 14 / 51 osg.informatik.tu-chemnitz.de Stationärer Zustand Hauptinteresse liegt in der Regel auf dem stationären Zustand System ist sehr lange gelaufen keine Einschwingvorgänge mehr Stationärer Zustand Vektor der Zustandswahrscheinlichkeiten konstant: Bitte beachten p s = lim t p(t) Obwohl die Aufenthaltswahrscheinlichkeiten im stationärem Zustand sich nicht mehr ändern, ändert sich der Systemzustand trotzdem weiterhin. Als stationär wird also der Zustand des Zustandsvektors beschrieben, nicht der Zustand des Systems! Im stationärem Zustand gilt: p s G = SoSe 218 M. Werner 15 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 16 / 51 osg.informatik.tu-chemnitz.de

5 Warteschlangen Warteschlangen können (z.t.) als Spezialfall von Markow-Ketten angesehen werden Die Warteschlangentheorie wurde parallel zu Markow-Ketten entwickelt, viele Aussagen können aber gut mit der Nutzung von Markow-Ketten behandelt werden Ankunft Warten Ursprünglich aus der Geschäftsmodellierung (Telefonvermittlung, Bedienung von Bankkunden) λ: Durchschnittliche Ankunftsrate µ: Durchschnittliche Servicerate s: Anzahl der Servicestellen S Service Kenngrößen λ s µ Ankunft t w, w w Warten t q, w Service t w t b t q w w Durchschnittliche Zeit einer Task in der Schlange (Wartezeit) Durchschnittliche Zeit einer Task am Server (Bedienzeit, Servicezeit)(= 1 µ ) Durchschnittliche Zeit einer Task im System (= t w + t b ), auch Antwortzeit Durchschnittliche Anzahl von Tasks in der Schlange w Durchschnittliche Anzahl von Tasks im System (= w w + s) ρ Anteil der Zeit, in der der Server beschäftigt ist SoSe 218 M. Werner 17 / 51 osg.informatik.tu-chemnitz.de Warteschlange als Geburts und Sterbe-Prozesse Wenn die Taskankunft und -verarbeitung gedächtnislos erfolgt (siehe Diskussion im Abschnitt 4.3) enspricht der einfachste Scheduling-Fall FCFS einer (unendlichen) Markow-Kette: SoSe 218 M. Werner 18 / 51 osg.informatik.tu-chemnitz.de Gesetz von LITTLE Unabhängig vom Ankunfts- und Serviceverhalten ist die Anzahl der Task im System immer die Differenz zwischen Taskankünften N A (t) und Taskbeendigungen N R (t) w(t) = N A (t) N R (t) Mittelwert: 1 w = lim t t t (N A (τ) N R (τ)) dτ (1) Tasks akkumuliert: #Tasks * Verweilzeit wobei alle λ i und µ i jeweils konstant sind N A w Man nennt allgemein solche (nicht unbedingt unendliche) Markow-Ketten, deren Zustände nur Übergänge zu ihren Nachbarzuständen haben, Geburts- und Sterbe-Prozesse (birth-death process) t q N R SoSe 218 M. Werner 19 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 2 / 51 osg.informatik.tu-chemnitz.de

6 Gesetz von LITTLE (Forts.) Andererseits ist die mittlere Verweilzeit einer der Task im System: 1 t q = lim t N A (t) Teilt man (1) durch (2), erhält man: w t q = lim t t ( 1 t 1 N A (t) (N A (τ) N R (τ)) dτ (2) ) N A (t) = lim = λ t t Umgestellt ist dieser Zusammenhang als Gesetz von LITTLE bekannt: Theorem 4.1 (Gesetz von LITTLE (LITTLE s law)) Für alle Queueing-Systeme im Gleichgewicht, bei denen nicht innerhalb des Systems Tasks generiert oder vernichtet werden, ist die durchschnittliche Anzahl von Tasks im System gleich dem Produkt von Ankunftsrate und durchschnittlicher Antwortzeit: Modellannahmen Häufig wird Ankunft und Bedienung bei Queuing-Systemen als POISSON-Prozess angesehen starke (unrealistische) Vereinfachung Markow-Eigenschaft leichter zu analysieren Zwischenankunftszeit ist exponentialverteilt (F (t) = 1 e λ t ) Wenn eine FCFS-Strategie angenommen wird, führt dies zur bekannten M/M/1-Queue (siehe Folie 31) Die mittlere Wartezeit in der Queue ist t w = 1 µ (mit ρ = λ µ ) ρ 1 ρ w = λ t q SoSe 218 M. Werner 21 / 51 osg.informatik.tu-chemnitz.de Modellannahmen (Forts.) In der Realität ist die Taskankunft tatsächlich häufig ein Possion-Prozess Bedienung komplizierter: Kein stochastischer Prozess über der Zeit Aber: Mit Index = Ankunftsinstanzen kann ein Prozess über den Ankünften definiert werden unpraktisch SoSe 218 M. Werner 22 / 51 osg.informatik.tu-chemnitz.de Hyperexponentialverteilung Einfachster Fall war Exponentialverteilung relativ unrealistisch Besser: Verschiedene Klassen von Tasks, die jeweils der Exponentialverteilung entsprechen Hyperexponentialverteilung q 1 µ 1 Annahme: Bedienzeit entspricht Verteilungsfunktion Betrachten verschiedene praktische Verteilungsfunktionen für die Bedienung q 2 µ 2 k F Hyp,k (t) = q i (1 e µ t ) i=1 q k µ k SoSe 218 M. Werner 23 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 24 / 51 osg.informatik.tu-chemnitz.de

7 Eigenschaften der Hyperexponentialverteilung Wahrscheinlichkeitsdichte: f Hyp,k (t) = k q i µ i e µ i t Erwartungswert: E[X Hyp ] = k i=1 q i µ i = 1 µ i=1 Streuung: D 2 [X Hyp ] = E[X 2 Hyp ] = ( 2 k Spezialfall: k = 1 Exponentialverteilung i=1 q i µ 2 i ) 1 µ 2 Erlang-Verteilung Häufig schwanken Bedienzeiten um einen Mittelwert herum Normalverteilung Normalverteilung ist schwer zu handhaben, kann aber angenährt werden Annäherung: Anzahl hintereinander geschalteter Exponentialverteilungen Ergebnis ist Überlagerung der Verteilungen (wie bei Signalfiltern) Erlang-Verteilung kµ kµ kµ k 1 F Erl,k (t) = 1 e k µ t i= (k µ t) i i! SoSe 218 M. Werner 25 / 51 osg.informatik.tu-chemnitz.de Erlang-Verteilung (Forts.) F(t) 1 SoSe 218 M. Werner 26 / 51 osg.informatik.tu-chemnitz.de Erlang-Verteilung (Forts.) Wahrscheinlichkeitsdichte,2 f(t),175,75,15,125,5,1,75,25,5, t t k 1 F Erl,k (t) = 1 e k µ t (k µ t) i i= SoSe 218 M. Werner 27 / 51 osg.informatik.tu-chemnitz.de i! -,25 f Erl,k (t) = k µ (k µ t)k 1 e k µ t (r 1)! SoSe 218 M. Werner 28 / 51 osg.informatik.tu-chemnitz.de

8 Eigenschaften der Erlang-Verteilung Allgemeine Verteilung Mit Hilfe einer Kombination der Hyperexponential- und der Erlang-Verteilung lassen sich beliebige Verteilungen annähern Momente der Erlang-Verteilung Erwartungswert: E[X Erl ] = 1 µ Streuung: D 2 [X Erl ] = E[X 2 Erl ] = 1 k µ 2 q 1 µ 1 µ 1 µ 1 Beziehung zu anderen Verteilungen: k = 1 Exponentialverteilung k 1 Normalverteilung mit µ N = 1 µ und σ2 N = 1 k µ 2 k Dirac-Impuls (Deterministische Verteilung) q k q 2 µ 2 µ k µ 2 µ k µ 2 µ k 1 2 j SoSe 218 M. Werner 29 / 51 osg.informatik.tu-chemnitz.de Klassifizierung: KENDALL-Notation Man generalisiert die Beschreibung von Warteschlangen mit der KENDALL-Notation 1 A Beschreibung des Ankunftsprozesses: A B C Z M: Markowprozess = Exponentialverteilte Abstände Hyp k : Hyperexponentialverteilte Abstände (k-stufig) Erl k : Erlang (k-stufig) D: deterministisch Abstände (stets gleich) G: beliebig (G wie general) B Beschreibung des Serviceprozesses (wie A) C Anzahl der Server Z Warteschlangendisziplin Mitunter werden noch andere Parameter angegeben: Population, maximale Schlangenlänge, Abweisung SoSe 218 M. Werner 3 / 51 osg.informatik.tu-chemnitz.de FCFS Betrachten nun einzelne Schedulingstrategien Beginnen mit FCFS = FIFO FCFS ist die am einfachsten zu modellierende Strategie Entspricht der einfachen Warteschlange Ankunft: Poisson-Prozess Bedienung: beliebig M G 1-Queue Es sei: F b (t): Wahrscheinlichkeit, dass Bedienzeit t b t ist, also Pr{t b t} f b (t): Wahrscheinlichkeitsdichte von F b (t), also f b (t) = d dt F b(t) 1 Die originale Kendall-Notation weicht für den Z-Parameter ab. SoSe 218 M. Werner 31 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 32 / 51 osg.informatik.tu-chemnitz.de

9 FCFS (Forts.) Sei w(t) die Anzahl von Tasks im System zum Zeitpunkt t N A (t) seien die bis zum Zeitpunkt t eingegangenen Tasks N R (t) seien die bis zum Zeitpunkt t fertiggestellten Tasks w(t) = N A (t) N R (t) w(t) ist stochastischer Prozess ohne Markov-Eigenschaft Warum keine Markow-Eigenschaft? Markow-Eigenschaft bedeutet Gedächtnislosigkeit, d.h. für einen Prozess X(t) muss gelten für t k+1 > t k > t 1 : Pr [X(t k+1 )] = Pr [x k+1 X(t k = x k ),..., X(t 1 = x 1 )] = Pr [X(t k+1 ) = x k+1 X(t k = x k )] Mit anderen Worten: Die Zukunft darf nur von der Gegenwart abhängen, nicht von der Vergangenheit. Für allgemeine Bedienungen ist aber die Wahrscheinlichkeit für eine bestimmte Restbedienzeit nicht immer gleich (außer für Possion-Prozesse), hängt also von der Vergangenheit ab. FCFS (Forts.) Gehen auf diskrete Zeitpunkte der Fertigstellung einer Task über Immer noch stochastischer Prozess, aber mit anderem Index diskrete, nicht gleichmäßig verteilte Zeitpunkte Zu diesen diskreten Zeitpunkten gilt Gedächtnislosigkeit Man spricht von einer eingebetteten Markov-Kette Sei A k : Anzahl der Ankünfte bis zur Fertigstellung der k. Task W k : Tasks in der Schlange nach Fertigstellung der k. Task SoSe 218 M. Werner 33 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 34 / 51 osg.informatik.tu-chemnitz.de FCFS (Forts.) Unterscheiden Fälle: 1. W k = W k+1 = A k+1 2. W k > W k+1 = W k 1 + A k+1 Definieren: Φ(x) = W k+1 = W k Φ(W k ) + A k+1 { wenn x 1 sonst FCFS (Forts.) E[A] = = k Pr[A = k] k=1 k=1 k = λ E[f b (t)] (λt) k e λt f b (t)dt k! Gleichgewicht E[W ] =E[W ] E[Φ(W )] + E[A] E[Φ(W )] =E[A] (3) = λ 1 µ = ρ = E[Φ(W )] Die eigentlich interessante Größe E(W ) (Warteschlangenlänge) ist jetzt aber verloren gegangen Zusätzlicher Ansatz nötig Berücksichtigung des zweiten Moments (Varianz) Führt zur P-K-Gleichung Für Interessierte ist auf den folgenden Seiten die Ableitung angegeben SoSe 218 M. Werner 35 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 36 / 51 osg.informatik.tu-chemnitz.de

10 Exkurs: Weitere Ableitung der P-K-Gleichung Betrachten 2. Moment: W 2 k+1 = W 2 k + Φ(W k ) 2 + A 2 k+1 2W k Φ(W k ) + 2W k A k+1 2A k+1 Φ(W k ) Betrachten wieder das Gleichgewicht: E[W 2 ] = E[W 2 ] + E[Φ(W )] + E[A 2 ] 2E[W ] + 2E[W A] 2E[A Φ(W )] 2E[W ] = E[Φ(W )] + E[A 2 ] + 2E[W A] 2E[A Φ(W )] wegen E[Φ(W )] = ρ sowie Unabhängigkeit: 2E[W ] = ρ + E[A 2 ] + 2E[W ]ρ 2ρ 2 E[W ] = ρ + E[A2 ] 2ρ 2 2(1 ρ) Es fehlt noch E[A 2 ] SoSe 218 M. Werner 37 / 51 osg.informatik.tu-chemnitz.de P-K-Gleichung Exkurs: Weitere Ableitung der P-K-Gleichung (Forts.) E[A 2 ] = = = = k 2 Pr[A = k] k=1 k A k + k(k 1) A k k=1 k=1. k=2 λ t (λ t)k e f b (t)dt k! λ tf b dt + (λ t) 2 f b dt k 2 = k 2 k + k = (k 1)k + k = λe[t b ] + λ 2 E[t 2 b] wegen E[t b ] = 1 µ also: E[A 2 ] = ρ + λ 2 E[t 2 b] SoSe 218 M. Werner 38 / 51 osg.informatik.tu-chemnitz.de Interpretation Theorem 4.2 (Gleichung von POLLACZEK-KHINCHIN) E[w] = ρ + λ2 E[t 2 b ] 2(1 ρ) Mit Hilfe des Satzes von Little lässt sich die mittlere Antwortzeit (=Zeit im System) und die mittlere Wartezeit errechnen: E[t q ] = 1 µ + λ E[t2 b ] 2(1 ρ) E[t w ] = λ E[t2 b ] 2(1 ρ) Die Summanden der P-K-Gleichung lassen sind unabhängig interpretieren: E[w] = ρ + λ2 E[t 2 b ] 2(1 ρ) ρ: mittlere Zahl von Task auf dem Prozessor λ2 E[t 2 b ] 2(1 ρ) : mittlere Anzahl von Task in der Warteschlange SoSe 218 M. Werner 39 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 4 / 51 osg.informatik.tu-chemnitz.de

11 Bedeutung der Varianz Vergleichen verschiedene M G 1 mit gleichem µ M M 1 M D 1 = lim k M Erl k 1 M Hyp ,2 E[W] 5,6 M M 1 M D 1 4,8 M Hyp k 1 PRIO-NP Betrachten nicht unterbrechbare Tasks mit Prioritäten Annahmen: l {1,..., L} seien Prioritätslevels, wobei L die höchste Priorität ist Prioritäten sind unabhängig von der Bedienzeit Jede Task-Klasse kommt entsprechend einem Poisson-Prozess mit der Rate λ l an 2,4 1,6,8,8,16,24,32,4,48,56,64,72,8,88,96 ρ SoSe 218 M. Werner 41 / 51 osg.informatik.tu-chemnitz.de Wartezeit pro Priorität SoSe 218 M. Werner 42 / 51 osg.informatik.tu-chemnitz.de Mittlere Wartezeiten pro Priorität E[t w,l ] = 15 E[t R ] (1 R l )(1 R l+1 ) mit E[t R] = L l=1 λ l E[t 2 b,l ] 2 Auch wenn die mittlere Wartezeit über alle Task wie bei FCFS ist, unterscheidet sie sich für jede Prioritätsklasse 12,5 Sei T l eine Task mit Priorität l, die im System ankommt T l muss warten auf 1 l =2 l =3 alle Tasks T k mit k l der gleicher oder höherer Priorität, die vor T l ankommen sind alle Task T j mit j > l einer höheren Priorität, die nach T l aber vor Beginn der Bedienung von T l ankommen 7,5 5 l =1 2,5 FCFS,5 1 1,5 2 2,5 3 SoSe 218 M. Werner 43 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 44 / 51 osg.informatik.tu-chemnitz.de

12 SJF SJF Extremfälle SJF ist ein PRIO-P mit Prioritäten 1 t b Übergang von diskreten Prioritätsklassen zu kontinuierlichen Zeitwerten Es gelten die Betrachtungen zur einzelnen Prioritätsklasse in PRIO-P mit R l R l+1 : E[t w (x)] = E[t r ] (1 R(x)) 2 Sei λ(x) Anteil am Ankunftsprozess, der Bedienzeit x hat λ(x) = λ f b (x) E[t w (x)] = Lange Bedienzeit: x : lim E[t s(x)] = E[t R] x (1 ρ) 2 Kurze Bedienzeiten: x : lim x E[t s(x)] = E[t R ] λe[t 2 b x ] 2(1 λ z f b (z)dz) 2 SoSe 218 M. Werner 45 / 51 osg.informatik.tu-chemnitz.de Präemptives Scheduling: PRIO-P und SRTN Betrachten präemptive Schedulingmethoden PRIO-P und SRTN Unterschied zu PRIO-NP und SJF: Task wird während Ausführung unterbrochen Fertigstellung verzögert sich Modellannahme: Unterbrechung kostet nichts Betrachtung Wartezeit bis zum Prozessor nicht hinreichend Erst nach Beendigung kann nicht mehr verzögert werden SoSe 218 M. Werner 47 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 46 / 51 osg.informatik.tu-chemnitz.de Präemptives Scheduling: PRIO-P und SRTN (Forts.) Task T l beendet nach: 1. eigener Bedienung 1 µ l 2. Bedienung aller gleich oder höherprioren Tasks, die vor T l da waren entspricht FCFS für die gleich- und höherprioren Tasks l max i=l λ i E[t 2 b ] 2(1 l max ρ i ) 3. Bedienung aller höherprioren Tasks, die bis zur Beendigung von T l ankommen l max λ i E[W l ] µ i i=l+1 Niederpriore Task spielen keine Rolle mehr! SoSe 218 M. Werner 48 / 51 osg.informatik.tu-chemnitz.de i=l

13 Präemptives Scheduling: PRIO-P und SRTN (Forts.) Round Robin Insgesamt ergibt sich: E[t w,l ] = 1 µ l (1 ρ l ) + l max i=l λ i E[t 2 b ] 2 (1 ρ l )(1 ρ l+1 ) Dabei ist ρ l die akkumulierte Auslastung: ρ l = l maxρ i i=l Bei Round Robin hängt die Wartezeit von der Bedienzeit ab t w = t w (t b ) E[t w (t b )] = t b (1 ρ) Dies kann aber auch über Grenzwertbetrachtungen direkt abgeleitet werden SoSe 218 M. Werner 49 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 5 / 51 osg.informatik.tu-chemnitz.de Literatur Literatur [ZB99] Dieter Zöbel und Elisabeth Balcerak. Modellbildung und Analyse von Rechensystemen. vdf, 1999, Chapter 5 & 6 [LK13] Fernando Puente León und Uwe Kiencke. Ereignisdiskrete Systeme. 3. Auflage. Oldenbourg Wissenschaftsverlag, 213, Chapter 4 & 5 SoSe 218 M. Werner 51 / 51 osg.informatik.tu-chemnitz.de

3. Prozesse mit kontinuierlicher Zeit

3. Prozesse mit kontinuierlicher Zeit 3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

2. Stochastische Prozesse.

2. Stochastische Prozesse. SS 2006 Arbeitsblatt 2 / S. 1 von 7 2. Stochastische Prozesse. Warteschlangen treten als Erscheinungsformen von in der Zeit ablaufenden Prozessen auf, von denen wie oben erwähnt mindestens einer nicht

Mehr

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Definition: Erneuerungsprozess Sei {T n, n N} eine Folge unabhängiger, nichtnegativer Zufallsvariablen mit Verteilungsfunktion F, mit F () < 1. Dann heißt

Mehr

Stetige Verteilungen Rechteckverteilung

Stetige Verteilungen Rechteckverteilung Stetige Verteilungen Rechteckverteilung Die Längenabweichungen X produzierter Werkstücke von der Norm seien gleichmäßig verteilt zwischen a = mm und b = 4mm. Die Dichtefunktion lautet also f(x) = für a

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Theoretische Aspekte der Kommunikationsnetze Teil: Bedienungs- und Verkehrstheorie

Theoretische Aspekte der Kommunikationsnetze Teil: Bedienungs- und Verkehrstheorie BVT WS 2016/17 1 Theoretische Aspekte der Kommunikationsnetze Teil: Bedienungs- und Verkehrstheorie 0. Organisatorisches Kontaktdaten Dr.-Ing. Maik Debes Raum: H 3507 Telefon: 03677 691246 Mail: maik.debes@tu-ilmenau.de

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treffer geometrisch verteilt ist, so ist ihre Anzahl in einer festen

Mehr

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin. Lemma 92 Beweis: Wir berechnen zunachst I 2 : I 2 = Z 1 I := e x2 =2 d x p = 2: 1 Z 1 1 Z 1 Z 1 = 1 1 Z 1 e x2 =2 d x 1 e (x2 +y 2 )=2 d x d y : e y2 =2 d y Wir gehen nun zu Polarkoordinaten uber und setzen

Mehr

8 Die Exponentialverteilung

8 Die Exponentialverteilung 8 Die Exponentialverteilung 8.1 Einführung Modelle Zuverlässigkeitsmodelle Lebensdauermodelle Bedienungsmodelle. 277 W.Kössler, Humboldt-Universität zu Berlin Def. 26 (Exponentialverteilung) Sei X eine

Mehr

Diskrete Strukturen II

Diskrete Strukturen II SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr 1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand

Mehr

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle). 77 Markowketten 77 Motivation Der Zustand eines Systems zur Zeit n N werde durch eine Zufallsvariable X n beschrieben und soll nur von X n abhängen (nicht jedoch von früheren Zuständen X n, X n 3, ) Wir

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Stochastik und Markovketten

Stochastik und Markovketten 1 Zentrum für Bioinformatik der Universität des Saarlandes WS 22/23 2 Warum Stochastik? Viele Fragestellungen der Bioinformatik lassen sich auch heutzutage gar nicht oder nicht schnell genug exakt beantworten

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

1. Stationarität Definition: Ein stochastischer Prozess. heißt streng oder stark stationär, falls für

1. Stationarität Definition: Ein stochastischer Prozess. heißt streng oder stark stationär, falls für " " " Beschreibung stochastischer Prozesse Wir betrachten diskrete Zeitpunkte und die zugehörigen Zufallsvariablen!. ann sind die Zufallsvariablen durch ihre gemeinsame ichte " #%$&#'$)(*#'$,+- charakterisiert.

Mehr

Erneuerungs- und Semi-Markov-Prozesse

Erneuerungs- und Semi-Markov-Prozesse Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Für den Poisson-Prozess und (reguläre) diskrete Markov-Prozesse impliziert die Markov-Eigenschaft, dass die Zwischenzeiten bzw. Verweildauern exponentialverteilt

Mehr

3.3 Strategien zur Ablaufsteuerung

3.3 Strategien zur Ablaufsteuerung 3.3 Strategien zur Ablaufsteuerung Prinzip der Trennung von Strategie (Richtlinie, policy) und Mechanismus (mechanism) bedeutet bei der Prozessverwaltung class Process {... static Set readylist

Mehr

Einführung. Klassisches Scheduling-Problem. Schedulingziel. 6. Kapitel Ressource Prozessor: Scheduling

Einführung. Klassisches Scheduling-Problem. Schedulingziel. 6. Kapitel Ressource Prozessor: Scheduling Wintersemester 08/09 6. Kapitel Ressource Prozessor: Scheduling Prof. Matthias Werner 6 Professur Betriebssysteme Einführung Bisher: Wenn ein Prozesses den Prozessor aufgibt (Zustand laufend verlässt),

Mehr

Einführung. Schedulingziel. Klassisches Scheduling-Problem. 6. Kapitel Ressource Prozessor: Scheduling

Einführung. Schedulingziel. Klassisches Scheduling-Problem. 6. Kapitel Ressource Prozessor: Scheduling Wintersemester 06/07 6. Kapitel Ressource Prozessor: Scheduling Prof. Matthias Werner 6 Professur Betriebssysteme Einführung Bisher: Wenn ein Prozesses den Prozessor aufgibt (Zustand laufend verlässt),

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

OPERATIONS MANAGEMENT

OPERATIONS MANAGEMENT OPERATIONS MANAGEMENT - Kurzfristige Kapazitätsplanung - Helmut M. Dietl 1 Lernziele Nach dieser Veranstaltung sollten Sie wissen, welcher Trade-off zwischen Warte- und Servicekosten besteht wovon das

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Literatur zu Kapitel 4 der Vorlesung. Diskrete Ereignissysteme, Kapitel 4. Stochastische Prozesse. Weitere Literatur

Literatur zu Kapitel 4 der Vorlesung. Diskrete Ereignissysteme, Kapitel 4. Stochastische Prozesse. Weitere Literatur Diskrete Ereignissysteme, Kapitel 4 Literatur zu Kapitel 4 der Vorlesung 4. Stochastische diskrete Ereignissysteme 4.1 Grundbegriffe der Wahrscheinlichkeitsrechnung 4.2 Stochastische Prozesse in diskreter

Mehr

Warteschlangentheorie

Warteschlangentheorie Warteschlangentheorie Ankunftsrate, z. B. 5 Personen pro Stunde Bedienrate, z.b. 20 Personen pro Stunde sei so groß gewählt, dass pro Takt höchstens eine Person ankot, bzw. abgefertigt wird. Mit der Wahrscheinlichkeit

Mehr

Satz 104 (Skalierung exponentialverteilter Variablen)

Satz 104 (Skalierung exponentialverteilter Variablen) 2.3.1 Eigenschaften der Exponentialverteilung Satz 104 (Skalierung exponentialverteilter Variablen) Sei X eine exponentialverteilte Zufallsvariable mit dem Parameter λ. Für a > 0 ist die Zufallsvariable

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Ziele dieses Kapitels. Konzepte und Methoden der Systemsoftware Kapitel 8: Warteschlangentheorie. Holger Karl. Warteschlangen überall.

Ziele dieses Kapitels. Konzepte und Methoden der Systemsoftware Kapitel 8: Warteschlangentheorie. Holger Karl. Warteschlangen überall. Ziele dieses Kapitels Konzepte und Methoden der Systemsoftware Kapitel 8: Warteschlangentheorie Holger Karl Im vorherigen Kapitel wurden unterschiedliche Optionen zur Gestaltung von Client/Server-Systemen

Mehr

Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie

Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie Berichte aus der Informationstechnik Klaus-Dieter Thies Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie für Computernetzwerke

Mehr

Quantitative Methoden. Technische Universität Dresden

Quantitative Methoden. Technische Universität Dresden Quantitative Methoden Technische Universität Dresden Problem Problem und Gegenstand Erfüllen von QoS-Anforderungen mit zeit- bzw. größenbeschränkten Ressourcen Gegenstand Scheduling basierend auf deterministischen

Mehr

Diskrete Ereignissysteme, Kapitel 3

Diskrete Ereignissysteme, Kapitel 3 Diskrete Ereignissysteme, Kapitel 3 3. Stochastische diskrete Ereignissysteme 3.1 Grundbegriffe der Wahrscheinlichkeitsrechnung 3.2 Stochastische Prozesse in diskreter Zeit Markov-Ketten in diskreter Zeit

Mehr

Statistik für NichtStatistiker

Statistik für NichtStatistiker Statistik für NichtStatistiker Zufall und Wahrscheinlichkeit von Prof. Dr. Karl Bosch 5., verbesserte Auflage R. Oldenbourg Verlag München Wien Inhaltsverzeichnis 1. ZufalLsexperimente und zufällige Ereignisse

Mehr

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ), 2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist

Mehr

Prozesse und Prozessmanagement des BS. 1 Unterschied Prozess, Threads. 1.1 Prozess. 1.2 Threads

Prozesse und Prozessmanagement des BS. 1 Unterschied Prozess, Threads. 1.1 Prozess. 1.2 Threads Prozesse und Prozessmanagement des BS 1 Unterschied Prozess, Threads 1.1 Prozess Bei jedem Programm muss gespeichert werden, welche Betriebsmittel (Speicherplatz, CPU- Zeit, CPU-Inhalt,...) es benötigt.

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Mayr)

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Mayr) SS 2011 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Mayr) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2011ss/dwt/uebung/ 30. Juni 2011 ZÜ

Mehr

Bem. 6 Die charakterische Funktion existiert.

Bem. 6 Die charakterische Funktion existiert. 4.4 Charakteristische Funktionen Def. 2.14 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx

Mehr

4.2 Moment und Varianz

4.2 Moment und Varianz 4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p

Mehr

Hausübung 2. Konzepte und Methoden der Systemsoftware. Aufgabe 1: Einfache Schedulingstrategien. SoSe bis

Hausübung 2. Konzepte und Methoden der Systemsoftware. Aufgabe 1: Einfache Schedulingstrategien. SoSe bis Universität Paderborn Fachgebiet Rechnernetze SoSe 2014 Konzepte und Methoden der Systemsoftware Hausübung 2 2014-05-12 bis 2014-05-23 Hausübungsabgabe: Format: Lösungen in schriftlicher oder gedruckter

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 10. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 10. Übung SS 18: Woche vom Übungsaufgaben 10. Übung SS 18: Woche vom 18. 6. 22. 6. 2016 Stochastik IV: ZG (diskret + stetig); Momente von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

7.4 Charakteristische Funktionen

7.4 Charakteristische Funktionen 7.4 Charakteristische Funktionen Def. 25 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx

Mehr

Q7. Warteschlangennetze

Q7. Warteschlangennetze Q7. Warteschlangennetze Gliederung 1.Einfache Gesetze der Leistungsanalyse 2.Offene Netze mit einer Auftragsklasse 3.Offene Netze mit mehreren Auftragsklassen 4.Geschlossene Netze mit einer Auftragsklasse

Mehr

Q5. Markov-Prozesse in kontinuierlicher Zeit

Q5. Markov-Prozesse in kontinuierlicher Zeit Q5. Markov- in kontinuierlicher Zeit Gliederung 1.Zeitkontinuierliche Markov- 2.Vom Modell zum Markov-Prozess 3.Stationäre Analyse 4.Transiente Analyse 5.Stationäre Analyse von Modellen mit unendlichem

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Kapitel 12: Markov-Ketten

Kapitel 12: Markov-Ketten Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 21.01.2016 Kapitel 12: Markov-Ketten Ab jetzt betrachten wir stochastische Prozesse (X n ) n N0 mit 1. diskreter Zeit N 0 = {0,1,2,...},

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Diskrete Ereignissysteme, Kapitel 4

Diskrete Ereignissysteme, Kapitel 4 Diskrete Ereignissysteme, Kapitel 4 4. Stochastische diskrete Ereignissysteme 4.1 Grundbegriffe der Wahrscheinlichkeitsrechnung 4.2 Stochastische Prozesse in diskreter Zeit Markov-Ketten in diskreter Zeit

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Scheduling-Algorithmen: Zeitpunkt der Auswahlentscheidung

Scheduling-Algorithmen: Zeitpunkt der Auswahlentscheidung Scheduling-Algorithmen: Zeitpunkt der Auswahlentscheidung Nicht-präemptives Scheduling: CPU kann einem Prozess nur entzogen werden, wenn er beendet oder blockiert ist Präemptives Scheduling: Aktueller

Mehr

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt. . Grundbegri e Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis,

Mehr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/476 c Ernst W. Mayr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/476 c Ernst W. Mayr Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p

Mehr

8.3 Zuverlässigkeitsmodelle

8.3 Zuverlässigkeitsmodelle 8.3 Zuverlässigkeitsmodelle Def. 29 (Zuverlässigkeit) Die Zuverlässigkeit eines Systems ζ ist die Wahrscheinlichkeit, dass das System zum Zeitpunkt t intakt ist: Rel(ζ) = P(X t). Annahme: Das System besteht

Mehr

Vorlesung 11b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 11b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten Vorlesung 11b Bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Bisher legten wir das Hauptaugenmerk auf den Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten

Mehr

K8 Stetige Zufallsvariablen Theorie und Praxis

K8 Stetige Zufallsvariablen Theorie und Praxis K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R

Mehr

Analysis of System Performance IN2072 Chapter 2 Random Process Part 1

Analysis of System Performance IN2072 Chapter 2 Random Process Part 1 Chair for Network Architectures and Services Prof. Carle Department of Computer Science TU München Analysis of System Performance IN2072 Chapter 2 Random Process Part Dr. Alexander Klein Prof. Dr.-Ing.

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Aufgaben zum Thema Quantitative Methoden

Aufgaben zum Thema Quantitative Methoden Aufgaben zum Thema Quantitative Methoden Q1. Eine Rechenanlage möge sich durch ein M/M/1/ -System modellieren lassen. Die ankommenden Aufträge haben einen mittleren Abstand von 250 ms, die Bedienrate betrage

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung

Mehr

7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X].

7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X]. 7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := gilt G X(1) = Pr[X = k] s k = E[s X ], k=0 k Pr[X = k] = E[X]. k=1 DWT 7.1 Einführung 182/476 Beispiel 73 Sei X binomialverteilt

Mehr

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a

Mehr

Beschreibung von Warteschlangensystemen und deren psychologische Einflüsse auf den Menschen

Beschreibung von Warteschlangensystemen und deren psychologische Einflüsse auf den Menschen Beschreibung von Warteschlangensystemen und deren psychologische Einflüsse auf den Menschen Pascal Held 2007-11-22 Zusammenfassung Warteschlangen sind nicht etwa eine Erfindung von Theoretikern um etwas

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013

Mehr

4 MEHRDIMENSIONALE VERTEILUNGEN

4 MEHRDIMENSIONALE VERTEILUNGEN 4 MEHRDIMENSIONALE VERTEILUNGEN 4.14 Stochastische Vektoren 1. Der Merkmalraum des stochastischen Vektors (X, Y ) sei M = R 2. Betrachten Sie die folgenden Ereignisse und ihre Wahrscheinlichkeiten: A 1

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Vorlesung 9b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 9b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten Vorlesung 9b Bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 1. Zerlegung der gemeinsamen Verteilung (Buch S. 111) 2 Bisher legten wir das Hauptaugenmerk auf den Aufbau der gemeinsamen Verteilung

Mehr

Warteschlangen. Mike Hüftle. 31. Juli Einleitung Theorie und Modelle Kenngrößen von Warteschlangen... 3

Warteschlangen. Mike Hüftle. 31. Juli Einleitung Theorie und Modelle Kenngrößen von Warteschlangen... 3 Warteschlangen Mike Hüftle 31. Juli 2006 Inhaltsverzeichnis 1 Einleitung 2 1.1 Theorie und Modelle......................... 2 1.2 Kenngrößen von Warteschlangen.................. 3 2 Warteschlangenmodelle

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

Prioritätsbasiertes Echtzeit-Scheduling

Prioritätsbasiertes Echtzeit-Scheduling EMES: Eigenschaften mobiler und eingebetteter Systeme Prioritätsbasiertes 00101111010010011101001010101 Echtzeit-Scheduling Dr. Felix Salfner, Dr. Siegmar Sommer Wintersemester 2010/2011 00101111010010011101001010101

Mehr

Diskrete Ereignissysteme, Kapitel 4. Weitere Literatur. Literatur zu Kapitel 4 der Vorlesung. Chapter 4 Stochastische Diskrete Ereignissysteme

Diskrete Ereignissysteme, Kapitel 4. Weitere Literatur. Literatur zu Kapitel 4 der Vorlesung. Chapter 4 Stochastische Diskrete Ereignissysteme Chapter 4 Stochastische Diskrete Ereignissysteme Diskrete Ereignissysteme, Kapitel 4 4. Stochastische diskrete Ereignissysteme 4. Grundbegriffe der Wahrscheinlichkeitsrechnung 4.2 Stochastische Prozesse

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung

Mehr

Operations Management

Operations Management Operations Management Kurzfristige Kapazitätsplanung, Warteschlangenmanagement Prof. Dr. Helmut Dietl Lernziele Nach dieser Veranstaltung sollen Sie wissen, welcher Trade-off zwischen Warte- und Servicekosten

Mehr

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem binären Experiment mit Erfolgswahrscheinlichkeit p genau in der k-ten unabhängigen

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie

Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie SS 2014 Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2014ss/dwt/uebung/ 5. Juni 2014 ZÜ DWT ZÜ VI Übersicht:

Mehr

Quantitative Methoden

Quantitative Methoden Quantitative Methoden Betriebssysteme Claude-J. Hamann TU Dresden Problem und Gegenstand Problem Erfüllen von QoS-Anforderungen mit zeit- bzw. größenbeschränkten Ressourcen Gegenstand Scheduling basierend

Mehr

(8 + 2 Punkte) = = 0.75

(8 + 2 Punkte) = = 0.75 Aufgabe 1 (8 + 2 Punkte) Von 20 Teilnehmern einer Bergwanderung geben 8 Personen an Knieschmerzen zu haben. 6 Teilnehmer leiden an Sonnenbrand. 8 Teilnehmer blieben unversehrt. a) Wie groß ist die Wahrscheinlichkeit,

Mehr

5. Foliensatz Betriebssysteme und Rechnernetze

5. Foliensatz Betriebssysteme und Rechnernetze Prof. Dr. Christian Baun 5. Foliensatz Betriebssysteme und Rechnernetze FRA-UAS SS2017 1/29 5. Foliensatz Betriebssysteme und Rechnernetze Prof. Dr. Christian Baun Frankfurt University of Applied Sciences

Mehr

Master Modul IV im SS 2016: Technisch-Ökonomische Wartesysteme

Master Modul IV im SS 2016: Technisch-Ökonomische Wartesysteme Operations Research und Wirtschaftsinformatik Prof. Dr. P. Recht // M. Radermacher, M.Sc. DOOR Aufgabe 3 Master Modul IV im SS 206: Technisch-Ökonomische Wartesysteme Übungsblatt Wurde in der Übung am

Mehr

Vernetzte Systeme. Übungsstunde Adrian Schüpbach 09. Juni 2006

Vernetzte Systeme. Übungsstunde Adrian Schüpbach 09. Juni 2006 Vernetzte Systeme Übungsstunde 09.06.2006 Adrian Schüpbach scadrian@student.ethz.ch 09. Juni 2006 Adrian Schüpbach (ETH Zürich) Vernetzte Systeme SS 2006 1 / 28 Übersicht 1 TCP-Zustandsdiagramm 2 Proxy

Mehr

Matrizen. Nicht nur eine Matrix, sondern viele 0,5 0,2 0,3 A 0,2 0,7 0,1

Matrizen. Nicht nur eine Matrix, sondern viele 0,5 0,2 0,3 A 0,2 0,7 0,1 Nicht nur eine Matrix, sondern viele Matrizen 0,5 0,2 0,3 A 0,2 0,7 0,1 015 0,15 0,75 075 0,1 01 aber keine Matrize und auch keine Matratzen 1 Wie beschreibt man Prozesse? Makov-Modell Modell Markov- Prozess

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr