4.1 Einführung Wiederholung: Wichtige Schedulingverfahren. Scheduling II Leistungsanalyse von Schedulingalgorithmen. Modell.
|
|
- Jörg Busch
- vor 5 Jahren
- Abrufe
Transkript
1 Betriebssysteme II - Analyse und Modellierung Sommersemester Einführung 4.1 Einführung Wiederholung: Wichtige Schedulingverfahren Betriebssysteme II - Analyse und Modellierung 4. Kapitel Scheduling II Leistungsanalyse von Schedulingalgorithmen Prof. Matthias Werner Professur Betriebssysteme bedienzeitunabhängig bedienzeitabhängig FCFS: First Come First Serve SJN: Shortest Job Next ohne Verdrängung mit Verdrängung ohne Prioritäten mit Prioritäten ohne Prioritäten mit Prioritäten FCFS (FIFO) PRIO-NP RR PRIO-P, (RMS, EDF) SJN SRTN PRIO-NP: Prioritized, Non Preemption RR: Round Robin SRTN: Shortest Remaining Time Next PRIO-P: Prioritized with Preemption RMS: Rate Monotonic Scheduling EDF: Earliest Deadline First SoSe 218 M. Werner 2 / 51 osg.informatik.tu-chemnitz.de 4.1 Einführung 4.1 Einführung Fragestellung Modell Im Standardscheduling betrachtet man meist keine konkrete Taskmenge, sondern weiß nur ungefähr Bescheid zufällige Taskeigenschaften stochastisches Verhalten Es interessieren Performance-Eigenschaften Typische Fragestellung Wie lange dauert es (im Mittel), bis eine Task fertig bearbeitet ist? Mittlere Taskantwortzeit: Erwartungswert der Verweilzeit einer Task im System 1. Abstraktion: Bei einer Task interessiert nur das Zeitverhalten, keine Semantik 2. Abstraktion: Es interessiert nicht die einzelne Task, sondern nur (große) Mengen von Tasks Für Antwortzeit oder Durchsatz sind folgende Parameter nötig: 1. Ankunftsverhalten von Tasks (wann kommen wieviel und welche Tasks an) 2. Wie werden die Tasks in der Warteschlange behandelt (Strategie) 3. Abarbeitungsdauer (Bedienzeit) von Tasks (wie lange brauchen Tasks den Prozessor) Wir betrachten Ansätze der Warteschlangentheorie (Queuing Theory)/ Markowketten (Markov chains) SoSe 218 M. Werner 3 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 4 / 51 osg.informatik.tu-chemnitz.de
2 Für die Beschreibung von Scheduling holen wir ein wenig aus und betrachten zunächst Markow-Ketten Für die Teilnehmer an z.b. Verlässliche Systeme ist das Folgende z.t. Wiederholung Markow-Ketten sind stochastische Prozesse (siehe Abschnitt 3.3) Ein Poission-Prozess kann als Spezialfall einer Markow-Kette aufgefasst werden Idee: System besitzt eine Menge von diskreten Zuständen X i Hier relevant: Zustand beschreibt Last des Systems Übergänge zwischen Zuständen (bzw. Ereignisse, die diese Übergänge auslösen) geschehen zufällig Markow-Ketten (Forts.) Die Wahrscheinlichkeit des Übergangs in einen Folgezustand hängt nicht von schon durchlaufenen Zuständen ab MARKOW-Eigenschaft (Gedächnislosigkeit) Pr(X n+1 X 1, X 2,..., X n ) = Pr(X n+1 X n ) Unterscheidung von zeitdiskreten und zeitkontinuierlichen Markow-Ketten (ZDMK und ZKMK) Wahrscheinlichkeiten werden nach BAYES verknüpft (bedingte Wahrscheinlichkeit) (siehe Kapitel 3, Folie 11) Anmerkung Obwohl für das betrachtete Anwendungsgebiet zeitdiskrete Markow-Ketten kaum relevant sind, betrachten wir sie zuerst, weil dies das Verständnis von zeitkontinuierlichen Markow-Ketten erleichtert. SoSe 218 M. Werner 5 / 51 osg.informatik.tu-chemnitz.de Zeitdiskrete MARKOW-Ketten (ZDMK) Rundenmodell: Zustand kann sich nur zu bestimmten Zeiten ändern Graphische Darstellung einer ZDMK mit zwei Zuständen: Wahrscheinlichkeit des Verbleibens in Zustand 1 Wahrscheinlichkeit des Übergangs von Zustand 1 zu Zustand 2 Zustand 1 Zustand 2 Wahrscheinlichkeit des bergangs von Zustand 2 zu Zustand 1 Wahrscheinlichkeit des Verbleibens in Zustand 2 System ist immer in genau einem Zustand Von und zu jedem Zustand können beliebig viele (bis zu Anzahl der Zustände) Pfeile (Zustandsübergänge) abgehen bzw. hinführen Die Summe der Wahrscheinlichkeiten aller abgehender Zustandsübergänge muss für alle Zustände 1 sein Homogenität: Übergangswahrscheinlichkeit hängt nicht von der Zeit ab: n, m, Pr(X n+1 = x X n = y) = Pr(X m+1 = x X m = y) SoSe 218 M. Werner 7 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 6 / 51 osg.informatik.tu-chemnitz.de Zustandsvektor Zustandsvektor Der Zustandsvektor beschreibt die Wahrscheinlichkeiten, mit denen sich das System zu einem bestimmten Zeitpunkt in den jeweiligen Zuständen befindet. T Wahrscheinlichkeit für Zustand 1 Wahrscheinlichkeit für Zustand 2 Zustandsvektor nach i Schritten: p i =. Wahrscheinlichkeit für Zustand n SoSe 218 M. Werner 8 / 51 osg.informatik.tu-chemnitz.de
3 Zustandsvektor (Forts.) Die Menge der Systemzustände bilden den Ereignisraum Ω p gibt damit alle Aufenthaltswahrscheinlichkeiten für den Ereignisraum an es muss wieder p i,j = 1 gelten Achtung, Sprachverwirrung! j Der Zustandsvektor wird manchmal auch kurz mit Zustand bezeichnet Überladung des Begriffs. Manchen Sie sich stets klar, ob mit Zustand ein Element aus der Menge der Systemzustände oder die Aufenhaltswahrscheinlichkeiten des Systems für diese Systemzustände gemeint ist. Übergangsmatrix Übergangsmatrix Die Matrix gibt die Übergangswahrscheinlichkeiten zwischen einzelnen Zuständen an. Q = Pr(Z 1 Z 1 ) Pr(Z 1 Z 2 ) Pr(Z 1 Z n ) Pr(Z 2 Z 1 ) Pr(Z 2 Z 2 ) Pr(Z 2 Z n ).. Pr(Z n Z 1 ) Pr(Z n Z 2 ) Pr(Z n Z n ) Die Übergangsmatrix ist damit die Adjazenzmatrix des Graphen der Markow-Kette SoSe 218 M. Werner 9 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 1 / 51 osg.informatik.tu-chemnitz.de Beispiel Quelle: Wikipedia k = 1 Pr(X i+1 = k X i = 1) =.2 k = 2.8 k = 3.5 k = 1 Pr(X i+1 = k X i = 2) = k = 2.5 k = 3.1 k = 1 Pr(X i+1 = k X i = 3) =.9 k = 2 k = Q = Änderung des Zustandsvektors Häufig ist ein Ausgangszustand des betrachteten System (Initialzustand) bekannt Zustandsvektor besteht nur aus Nullen und einer Eins, z.b. p = ( 1 ) Da sich das System ab dem Systemstart zufällig entwickelt, verwischen die Aufenthaltswahrscheinlichkeiten in bestimmten Systemzuständen Die Zustandswahrscheinlichkeiten nach einem Zustandsübergang p i+1 = p i Q Nach n Schritten: p n = p n 1 Q = p Q n SoSe 218 M. Werner 11 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 12 / 51 osg.informatik.tu-chemnitz.de
4 Beispiel Sie spielen Roulette Sie starten mit 1 und setzen in jeder Runde 2 ein Sie setzen grundsätzlich nur auf Farbe (rouge/noir) Wie groß ist die Wahrscheinlichkeit, dass Sie nach 1 Runden noch immer mindestens 1 besitzen? Zeitkontinuierliche MARKOW-Ketten Grundregeln wie bei zeitdiskreten Ketten: Verschiedene diskrete Zustände Beliebige Übergänge zwischen diesen Zuständen Gedächtnislos - nur der aktuelle Zustand beeinflusst den Folgezustand Aber: Übergang findet zu beliebigem Zeitpunkt t statt Wahrscheinlichkeit nach Zeit und Verweilzeit Homogene MARKOW-Kette: Abhängigkeit nur von Verweilzeit Pr(X(t n + t) = j X(t n ) = i n,..., X(t 1 ) = i 1 ) = Pr(X(t n + t) = j X(t n ) = i n ) Wir betrachten nur homogene Markow-Ketten = Pr(X(t) = j X() = i n ) SoSe 218 M. Werner 13 / 51 osg.informatik.tu-chemnitz.de Generatormatrix (Verweil-)Zeitabhängige Übergangswahrscheinlichkeiten unbequem Generatormatrix or generator matrix: 1 Q(t) I G = lim (I = 1. t t., d.h. Einheitsmatrix)... 1 g i,j ist die Rate mit der Zustand Z i in Richtung Z j verlassen wird Es gilt: g i,i = j i g i,j SoSe 218 M. Werner 14 / 51 osg.informatik.tu-chemnitz.de Stationärer Zustand Hauptinteresse liegt in der Regel auf dem stationären Zustand System ist sehr lange gelaufen keine Einschwingvorgänge mehr Stationärer Zustand Vektor der Zustandswahrscheinlichkeiten konstant: Bitte beachten p s = lim t p(t) Obwohl die Aufenthaltswahrscheinlichkeiten im stationärem Zustand sich nicht mehr ändern, ändert sich der Systemzustand trotzdem weiterhin. Als stationär wird also der Zustand des Zustandsvektors beschrieben, nicht der Zustand des Systems! Im stationärem Zustand gilt: p s G = SoSe 218 M. Werner 15 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 16 / 51 osg.informatik.tu-chemnitz.de
5 Warteschlangen Warteschlangen können (z.t.) als Spezialfall von Markow-Ketten angesehen werden Die Warteschlangentheorie wurde parallel zu Markow-Ketten entwickelt, viele Aussagen können aber gut mit der Nutzung von Markow-Ketten behandelt werden Ankunft Warten Ursprünglich aus der Geschäftsmodellierung (Telefonvermittlung, Bedienung von Bankkunden) λ: Durchschnittliche Ankunftsrate µ: Durchschnittliche Servicerate s: Anzahl der Servicestellen S Service Kenngrößen λ s µ Ankunft t w, w w Warten t q, w Service t w t b t q w w Durchschnittliche Zeit einer Task in der Schlange (Wartezeit) Durchschnittliche Zeit einer Task am Server (Bedienzeit, Servicezeit)(= 1 µ ) Durchschnittliche Zeit einer Task im System (= t w + t b ), auch Antwortzeit Durchschnittliche Anzahl von Tasks in der Schlange w Durchschnittliche Anzahl von Tasks im System (= w w + s) ρ Anteil der Zeit, in der der Server beschäftigt ist SoSe 218 M. Werner 17 / 51 osg.informatik.tu-chemnitz.de Warteschlange als Geburts und Sterbe-Prozesse Wenn die Taskankunft und -verarbeitung gedächtnislos erfolgt (siehe Diskussion im Abschnitt 4.3) enspricht der einfachste Scheduling-Fall FCFS einer (unendlichen) Markow-Kette: SoSe 218 M. Werner 18 / 51 osg.informatik.tu-chemnitz.de Gesetz von LITTLE Unabhängig vom Ankunfts- und Serviceverhalten ist die Anzahl der Task im System immer die Differenz zwischen Taskankünften N A (t) und Taskbeendigungen N R (t) w(t) = N A (t) N R (t) Mittelwert: 1 w = lim t t t (N A (τ) N R (τ)) dτ (1) Tasks akkumuliert: #Tasks * Verweilzeit wobei alle λ i und µ i jeweils konstant sind N A w Man nennt allgemein solche (nicht unbedingt unendliche) Markow-Ketten, deren Zustände nur Übergänge zu ihren Nachbarzuständen haben, Geburts- und Sterbe-Prozesse (birth-death process) t q N R SoSe 218 M. Werner 19 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 2 / 51 osg.informatik.tu-chemnitz.de
6 Gesetz von LITTLE (Forts.) Andererseits ist die mittlere Verweilzeit einer der Task im System: 1 t q = lim t N A (t) Teilt man (1) durch (2), erhält man: w t q = lim t t ( 1 t 1 N A (t) (N A (τ) N R (τ)) dτ (2) ) N A (t) = lim = λ t t Umgestellt ist dieser Zusammenhang als Gesetz von LITTLE bekannt: Theorem 4.1 (Gesetz von LITTLE (LITTLE s law)) Für alle Queueing-Systeme im Gleichgewicht, bei denen nicht innerhalb des Systems Tasks generiert oder vernichtet werden, ist die durchschnittliche Anzahl von Tasks im System gleich dem Produkt von Ankunftsrate und durchschnittlicher Antwortzeit: Modellannahmen Häufig wird Ankunft und Bedienung bei Queuing-Systemen als POISSON-Prozess angesehen starke (unrealistische) Vereinfachung Markow-Eigenschaft leichter zu analysieren Zwischenankunftszeit ist exponentialverteilt (F (t) = 1 e λ t ) Wenn eine FCFS-Strategie angenommen wird, führt dies zur bekannten M/M/1-Queue (siehe Folie 31) Die mittlere Wartezeit in der Queue ist t w = 1 µ (mit ρ = λ µ ) ρ 1 ρ w = λ t q SoSe 218 M. Werner 21 / 51 osg.informatik.tu-chemnitz.de Modellannahmen (Forts.) In der Realität ist die Taskankunft tatsächlich häufig ein Possion-Prozess Bedienung komplizierter: Kein stochastischer Prozess über der Zeit Aber: Mit Index = Ankunftsinstanzen kann ein Prozess über den Ankünften definiert werden unpraktisch SoSe 218 M. Werner 22 / 51 osg.informatik.tu-chemnitz.de Hyperexponentialverteilung Einfachster Fall war Exponentialverteilung relativ unrealistisch Besser: Verschiedene Klassen von Tasks, die jeweils der Exponentialverteilung entsprechen Hyperexponentialverteilung q 1 µ 1 Annahme: Bedienzeit entspricht Verteilungsfunktion Betrachten verschiedene praktische Verteilungsfunktionen für die Bedienung q 2 µ 2 k F Hyp,k (t) = q i (1 e µ t ) i=1 q k µ k SoSe 218 M. Werner 23 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 24 / 51 osg.informatik.tu-chemnitz.de
7 Eigenschaften der Hyperexponentialverteilung Wahrscheinlichkeitsdichte: f Hyp,k (t) = k q i µ i e µ i t Erwartungswert: E[X Hyp ] = k i=1 q i µ i = 1 µ i=1 Streuung: D 2 [X Hyp ] = E[X 2 Hyp ] = ( 2 k Spezialfall: k = 1 Exponentialverteilung i=1 q i µ 2 i ) 1 µ 2 Erlang-Verteilung Häufig schwanken Bedienzeiten um einen Mittelwert herum Normalverteilung Normalverteilung ist schwer zu handhaben, kann aber angenährt werden Annäherung: Anzahl hintereinander geschalteter Exponentialverteilungen Ergebnis ist Überlagerung der Verteilungen (wie bei Signalfiltern) Erlang-Verteilung kµ kµ kµ k 1 F Erl,k (t) = 1 e k µ t i= (k µ t) i i! SoSe 218 M. Werner 25 / 51 osg.informatik.tu-chemnitz.de Erlang-Verteilung (Forts.) F(t) 1 SoSe 218 M. Werner 26 / 51 osg.informatik.tu-chemnitz.de Erlang-Verteilung (Forts.) Wahrscheinlichkeitsdichte,2 f(t),175,75,15,125,5,1,75,25,5, t t k 1 F Erl,k (t) = 1 e k µ t (k µ t) i i= SoSe 218 M. Werner 27 / 51 osg.informatik.tu-chemnitz.de i! -,25 f Erl,k (t) = k µ (k µ t)k 1 e k µ t (r 1)! SoSe 218 M. Werner 28 / 51 osg.informatik.tu-chemnitz.de
8 Eigenschaften der Erlang-Verteilung Allgemeine Verteilung Mit Hilfe einer Kombination der Hyperexponential- und der Erlang-Verteilung lassen sich beliebige Verteilungen annähern Momente der Erlang-Verteilung Erwartungswert: E[X Erl ] = 1 µ Streuung: D 2 [X Erl ] = E[X 2 Erl ] = 1 k µ 2 q 1 µ 1 µ 1 µ 1 Beziehung zu anderen Verteilungen: k = 1 Exponentialverteilung k 1 Normalverteilung mit µ N = 1 µ und σ2 N = 1 k µ 2 k Dirac-Impuls (Deterministische Verteilung) q k q 2 µ 2 µ k µ 2 µ k µ 2 µ k 1 2 j SoSe 218 M. Werner 29 / 51 osg.informatik.tu-chemnitz.de Klassifizierung: KENDALL-Notation Man generalisiert die Beschreibung von Warteschlangen mit der KENDALL-Notation 1 A Beschreibung des Ankunftsprozesses: A B C Z M: Markowprozess = Exponentialverteilte Abstände Hyp k : Hyperexponentialverteilte Abstände (k-stufig) Erl k : Erlang (k-stufig) D: deterministisch Abstände (stets gleich) G: beliebig (G wie general) B Beschreibung des Serviceprozesses (wie A) C Anzahl der Server Z Warteschlangendisziplin Mitunter werden noch andere Parameter angegeben: Population, maximale Schlangenlänge, Abweisung SoSe 218 M. Werner 3 / 51 osg.informatik.tu-chemnitz.de FCFS Betrachten nun einzelne Schedulingstrategien Beginnen mit FCFS = FIFO FCFS ist die am einfachsten zu modellierende Strategie Entspricht der einfachen Warteschlange Ankunft: Poisson-Prozess Bedienung: beliebig M G 1-Queue Es sei: F b (t): Wahrscheinlichkeit, dass Bedienzeit t b t ist, also Pr{t b t} f b (t): Wahrscheinlichkeitsdichte von F b (t), also f b (t) = d dt F b(t) 1 Die originale Kendall-Notation weicht für den Z-Parameter ab. SoSe 218 M. Werner 31 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 32 / 51 osg.informatik.tu-chemnitz.de
9 FCFS (Forts.) Sei w(t) die Anzahl von Tasks im System zum Zeitpunkt t N A (t) seien die bis zum Zeitpunkt t eingegangenen Tasks N R (t) seien die bis zum Zeitpunkt t fertiggestellten Tasks w(t) = N A (t) N R (t) w(t) ist stochastischer Prozess ohne Markov-Eigenschaft Warum keine Markow-Eigenschaft? Markow-Eigenschaft bedeutet Gedächtnislosigkeit, d.h. für einen Prozess X(t) muss gelten für t k+1 > t k > t 1 : Pr [X(t k+1 )] = Pr [x k+1 X(t k = x k ),..., X(t 1 = x 1 )] = Pr [X(t k+1 ) = x k+1 X(t k = x k )] Mit anderen Worten: Die Zukunft darf nur von der Gegenwart abhängen, nicht von der Vergangenheit. Für allgemeine Bedienungen ist aber die Wahrscheinlichkeit für eine bestimmte Restbedienzeit nicht immer gleich (außer für Possion-Prozesse), hängt also von der Vergangenheit ab. FCFS (Forts.) Gehen auf diskrete Zeitpunkte der Fertigstellung einer Task über Immer noch stochastischer Prozess, aber mit anderem Index diskrete, nicht gleichmäßig verteilte Zeitpunkte Zu diesen diskreten Zeitpunkten gilt Gedächtnislosigkeit Man spricht von einer eingebetteten Markov-Kette Sei A k : Anzahl der Ankünfte bis zur Fertigstellung der k. Task W k : Tasks in der Schlange nach Fertigstellung der k. Task SoSe 218 M. Werner 33 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 34 / 51 osg.informatik.tu-chemnitz.de FCFS (Forts.) Unterscheiden Fälle: 1. W k = W k+1 = A k+1 2. W k > W k+1 = W k 1 + A k+1 Definieren: Φ(x) = W k+1 = W k Φ(W k ) + A k+1 { wenn x 1 sonst FCFS (Forts.) E[A] = = k Pr[A = k] k=1 k=1 k = λ E[f b (t)] (λt) k e λt f b (t)dt k! Gleichgewicht E[W ] =E[W ] E[Φ(W )] + E[A] E[Φ(W )] =E[A] (3) = λ 1 µ = ρ = E[Φ(W )] Die eigentlich interessante Größe E(W ) (Warteschlangenlänge) ist jetzt aber verloren gegangen Zusätzlicher Ansatz nötig Berücksichtigung des zweiten Moments (Varianz) Führt zur P-K-Gleichung Für Interessierte ist auf den folgenden Seiten die Ableitung angegeben SoSe 218 M. Werner 35 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 36 / 51 osg.informatik.tu-chemnitz.de
10 Exkurs: Weitere Ableitung der P-K-Gleichung Betrachten 2. Moment: W 2 k+1 = W 2 k + Φ(W k ) 2 + A 2 k+1 2W k Φ(W k ) + 2W k A k+1 2A k+1 Φ(W k ) Betrachten wieder das Gleichgewicht: E[W 2 ] = E[W 2 ] + E[Φ(W )] + E[A 2 ] 2E[W ] + 2E[W A] 2E[A Φ(W )] 2E[W ] = E[Φ(W )] + E[A 2 ] + 2E[W A] 2E[A Φ(W )] wegen E[Φ(W )] = ρ sowie Unabhängigkeit: 2E[W ] = ρ + E[A 2 ] + 2E[W ]ρ 2ρ 2 E[W ] = ρ + E[A2 ] 2ρ 2 2(1 ρ) Es fehlt noch E[A 2 ] SoSe 218 M. Werner 37 / 51 osg.informatik.tu-chemnitz.de P-K-Gleichung Exkurs: Weitere Ableitung der P-K-Gleichung (Forts.) E[A 2 ] = = = = k 2 Pr[A = k] k=1 k A k + k(k 1) A k k=1 k=1. k=2 λ t (λ t)k e f b (t)dt k! λ tf b dt + (λ t) 2 f b dt k 2 = k 2 k + k = (k 1)k + k = λe[t b ] + λ 2 E[t 2 b] wegen E[t b ] = 1 µ also: E[A 2 ] = ρ + λ 2 E[t 2 b] SoSe 218 M. Werner 38 / 51 osg.informatik.tu-chemnitz.de Interpretation Theorem 4.2 (Gleichung von POLLACZEK-KHINCHIN) E[w] = ρ + λ2 E[t 2 b ] 2(1 ρ) Mit Hilfe des Satzes von Little lässt sich die mittlere Antwortzeit (=Zeit im System) und die mittlere Wartezeit errechnen: E[t q ] = 1 µ + λ E[t2 b ] 2(1 ρ) E[t w ] = λ E[t2 b ] 2(1 ρ) Die Summanden der P-K-Gleichung lassen sind unabhängig interpretieren: E[w] = ρ + λ2 E[t 2 b ] 2(1 ρ) ρ: mittlere Zahl von Task auf dem Prozessor λ2 E[t 2 b ] 2(1 ρ) : mittlere Anzahl von Task in der Warteschlange SoSe 218 M. Werner 39 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 4 / 51 osg.informatik.tu-chemnitz.de
11 Bedeutung der Varianz Vergleichen verschiedene M G 1 mit gleichem µ M M 1 M D 1 = lim k M Erl k 1 M Hyp ,2 E[W] 5,6 M M 1 M D 1 4,8 M Hyp k 1 PRIO-NP Betrachten nicht unterbrechbare Tasks mit Prioritäten Annahmen: l {1,..., L} seien Prioritätslevels, wobei L die höchste Priorität ist Prioritäten sind unabhängig von der Bedienzeit Jede Task-Klasse kommt entsprechend einem Poisson-Prozess mit der Rate λ l an 2,4 1,6,8,8,16,24,32,4,48,56,64,72,8,88,96 ρ SoSe 218 M. Werner 41 / 51 osg.informatik.tu-chemnitz.de Wartezeit pro Priorität SoSe 218 M. Werner 42 / 51 osg.informatik.tu-chemnitz.de Mittlere Wartezeiten pro Priorität E[t w,l ] = 15 E[t R ] (1 R l )(1 R l+1 ) mit E[t R] = L l=1 λ l E[t 2 b,l ] 2 Auch wenn die mittlere Wartezeit über alle Task wie bei FCFS ist, unterscheidet sie sich für jede Prioritätsklasse 12,5 Sei T l eine Task mit Priorität l, die im System ankommt T l muss warten auf 1 l =2 l =3 alle Tasks T k mit k l der gleicher oder höherer Priorität, die vor T l ankommen sind alle Task T j mit j > l einer höheren Priorität, die nach T l aber vor Beginn der Bedienung von T l ankommen 7,5 5 l =1 2,5 FCFS,5 1 1,5 2 2,5 3 SoSe 218 M. Werner 43 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 44 / 51 osg.informatik.tu-chemnitz.de
12 SJF SJF Extremfälle SJF ist ein PRIO-P mit Prioritäten 1 t b Übergang von diskreten Prioritätsklassen zu kontinuierlichen Zeitwerten Es gelten die Betrachtungen zur einzelnen Prioritätsklasse in PRIO-P mit R l R l+1 : E[t w (x)] = E[t r ] (1 R(x)) 2 Sei λ(x) Anteil am Ankunftsprozess, der Bedienzeit x hat λ(x) = λ f b (x) E[t w (x)] = Lange Bedienzeit: x : lim E[t s(x)] = E[t R] x (1 ρ) 2 Kurze Bedienzeiten: x : lim x E[t s(x)] = E[t R ] λe[t 2 b x ] 2(1 λ z f b (z)dz) 2 SoSe 218 M. Werner 45 / 51 osg.informatik.tu-chemnitz.de Präemptives Scheduling: PRIO-P und SRTN Betrachten präemptive Schedulingmethoden PRIO-P und SRTN Unterschied zu PRIO-NP und SJF: Task wird während Ausführung unterbrochen Fertigstellung verzögert sich Modellannahme: Unterbrechung kostet nichts Betrachtung Wartezeit bis zum Prozessor nicht hinreichend Erst nach Beendigung kann nicht mehr verzögert werden SoSe 218 M. Werner 47 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 46 / 51 osg.informatik.tu-chemnitz.de Präemptives Scheduling: PRIO-P und SRTN (Forts.) Task T l beendet nach: 1. eigener Bedienung 1 µ l 2. Bedienung aller gleich oder höherprioren Tasks, die vor T l da waren entspricht FCFS für die gleich- und höherprioren Tasks l max i=l λ i E[t 2 b ] 2(1 l max ρ i ) 3. Bedienung aller höherprioren Tasks, die bis zur Beendigung von T l ankommen l max λ i E[W l ] µ i i=l+1 Niederpriore Task spielen keine Rolle mehr! SoSe 218 M. Werner 48 / 51 osg.informatik.tu-chemnitz.de i=l
13 Präemptives Scheduling: PRIO-P und SRTN (Forts.) Round Robin Insgesamt ergibt sich: E[t w,l ] = 1 µ l (1 ρ l ) + l max i=l λ i E[t 2 b ] 2 (1 ρ l )(1 ρ l+1 ) Dabei ist ρ l die akkumulierte Auslastung: ρ l = l maxρ i i=l Bei Round Robin hängt die Wartezeit von der Bedienzeit ab t w = t w (t b ) E[t w (t b )] = t b (1 ρ) Dies kann aber auch über Grenzwertbetrachtungen direkt abgeleitet werden SoSe 218 M. Werner 49 / 51 osg.informatik.tu-chemnitz.de SoSe 218 M. Werner 5 / 51 osg.informatik.tu-chemnitz.de Literatur Literatur [ZB99] Dieter Zöbel und Elisabeth Balcerak. Modellbildung und Analyse von Rechensystemen. vdf, 1999, Chapter 5 & 6 [LK13] Fernando Puente León und Uwe Kiencke. Ereignisdiskrete Systeme. 3. Auflage. Oldenbourg Wissenschaftsverlag, 213, Chapter 4 & 5 SoSe 218 M. Werner 51 / 51 osg.informatik.tu-chemnitz.de
3. Prozesse mit kontinuierlicher Zeit
3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
Mehr2. Stochastische Prozesse.
SS 2006 Arbeitsblatt 2 / S. 1 von 7 2. Stochastische Prozesse. Warteschlangen treten als Erscheinungsformen von in der Zeit ablaufenden Prozessen auf, von denen wie oben erwähnt mindestens einer nicht
MehrKapitel 5 Erneuerungs- und Semi-Markov-Prozesse
Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Definition: Erneuerungsprozess Sei {T n, n N} eine Folge unabhängiger, nichtnegativer Zufallsvariablen mit Verteilungsfunktion F, mit F () < 1. Dann heißt
MehrStetige Verteilungen Rechteckverteilung
Stetige Verteilungen Rechteckverteilung Die Längenabweichungen X produzierter Werkstücke von der Norm seien gleichmäßig verteilt zwischen a = mm und b = 4mm. Die Dichtefunktion lautet also f(x) = für a
MehrStatistik für Ingenieure Vorlesung 5
Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrTheoretische Aspekte der Kommunikationsnetze Teil: Bedienungs- und Verkehrstheorie
BVT WS 2016/17 1 Theoretische Aspekte der Kommunikationsnetze Teil: Bedienungs- und Verkehrstheorie 0. Organisatorisches Kontaktdaten Dr.-Ing. Maik Debes Raum: H 3507 Telefon: 03677 691246 Mail: maik.debes@tu-ilmenau.de
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrDWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr
Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treffer geometrisch verteilt ist, so ist ihre Anzahl in einer festen
Mehr1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.
Lemma 92 Beweis: Wir berechnen zunachst I 2 : I 2 = Z 1 I := e x2 =2 d x p = 2: 1 Z 1 1 Z 1 Z 1 = 1 1 Z 1 e x2 =2 d x 1 e (x2 +y 2 )=2 d x d y : e y2 =2 d y Wir gehen nun zu Polarkoordinaten uber und setzen
Mehr8 Die Exponentialverteilung
8 Die Exponentialverteilung 8.1 Einführung Modelle Zuverlässigkeitsmodelle Lebensdauermodelle Bedienungsmodelle. 277 W.Kössler, Humboldt-Universität zu Berlin Def. 26 (Exponentialverteilung) Sei X eine
MehrDiskrete Strukturen II
SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr
1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand
MehrProzesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).
77 Markowketten 77 Motivation Der Zustand eines Systems zur Zeit n N werde durch eine Zufallsvariable X n beschrieben und soll nur von X n abhängen (nicht jedoch von früheren Zuständen X n, X n 3, ) Wir
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrStochastik und Markovketten
1 Zentrum für Bioinformatik der Universität des Saarlandes WS 22/23 2 Warum Stochastik? Viele Fragestellungen der Bioinformatik lassen sich auch heutzutage gar nicht oder nicht schnell genug exakt beantworten
MehrPr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.
2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet
Mehr1. Stationarität Definition: Ein stochastischer Prozess. heißt streng oder stark stationär, falls für
" " " Beschreibung stochastischer Prozesse Wir betrachten diskrete Zeitpunkte und die zugehörigen Zufallsvariablen!. ann sind die Zufallsvariablen durch ihre gemeinsame ichte " #%$&#'$)(*#'$,+- charakterisiert.
MehrErneuerungs- und Semi-Markov-Prozesse
Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Für den Poisson-Prozess und (reguläre) diskrete Markov-Prozesse impliziert die Markov-Eigenschaft, dass die Zwischenzeiten bzw. Verweildauern exponentialverteilt
Mehr3.3 Strategien zur Ablaufsteuerung
3.3 Strategien zur Ablaufsteuerung Prinzip der Trennung von Strategie (Richtlinie, policy) und Mechanismus (mechanism) bedeutet bei der Prozessverwaltung class Process {... static Set readylist
MehrEinführung. Klassisches Scheduling-Problem. Schedulingziel. 6. Kapitel Ressource Prozessor: Scheduling
Wintersemester 08/09 6. Kapitel Ressource Prozessor: Scheduling Prof. Matthias Werner 6 Professur Betriebssysteme Einführung Bisher: Wenn ein Prozesses den Prozessor aufgibt (Zustand laufend verlässt),
MehrEinführung. Schedulingziel. Klassisches Scheduling-Problem. 6. Kapitel Ressource Prozessor: Scheduling
Wintersemester 06/07 6. Kapitel Ressource Prozessor: Scheduling Prof. Matthias Werner 6 Professur Betriebssysteme Einführung Bisher: Wenn ein Prozesses den Prozessor aufgibt (Zustand laufend verlässt),
MehrDWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr
2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,
MehrOPERATIONS MANAGEMENT
OPERATIONS MANAGEMENT - Kurzfristige Kapazitätsplanung - Helmut M. Dietl 1 Lernziele Nach dieser Veranstaltung sollten Sie wissen, welcher Trade-off zwischen Warte- und Servicekosten besteht wovon das
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrStatistik für Ingenieure Vorlesung 3
Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind
MehrSatz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]
Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrLiteratur zu Kapitel 4 der Vorlesung. Diskrete Ereignissysteme, Kapitel 4. Stochastische Prozesse. Weitere Literatur
Diskrete Ereignissysteme, Kapitel 4 Literatur zu Kapitel 4 der Vorlesung 4. Stochastische diskrete Ereignissysteme 4.1 Grundbegriffe der Wahrscheinlichkeitsrechnung 4.2 Stochastische Prozesse in diskreter
MehrWarteschlangentheorie
Warteschlangentheorie Ankunftsrate, z. B. 5 Personen pro Stunde Bedienrate, z.b. 20 Personen pro Stunde sei so groß gewählt, dass pro Takt höchstens eine Person ankot, bzw. abgefertigt wird. Mit der Wahrscheinlichkeit
MehrSatz 104 (Skalierung exponentialverteilter Variablen)
2.3.1 Eigenschaften der Exponentialverteilung Satz 104 (Skalierung exponentialverteilter Variablen) Sei X eine exponentialverteilte Zufallsvariable mit dem Parameter λ. Für a > 0 ist die Zufallsvariable
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
MehrZiele dieses Kapitels. Konzepte und Methoden der Systemsoftware Kapitel 8: Warteschlangentheorie. Holger Karl. Warteschlangen überall.
Ziele dieses Kapitels Konzepte und Methoden der Systemsoftware Kapitel 8: Warteschlangentheorie Holger Karl Im vorherigen Kapitel wurden unterschiedliche Optionen zur Gestaltung von Client/Server-Systemen
MehrElementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie
Berichte aus der Informationstechnik Klaus-Dieter Thies Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie für Computernetzwerke
MehrQuantitative Methoden. Technische Universität Dresden
Quantitative Methoden Technische Universität Dresden Problem Problem und Gegenstand Erfüllen von QoS-Anforderungen mit zeit- bzw. größenbeschränkten Ressourcen Gegenstand Scheduling basierend auf deterministischen
MehrDiskrete Ereignissysteme, Kapitel 3
Diskrete Ereignissysteme, Kapitel 3 3. Stochastische diskrete Ereignissysteme 3.1 Grundbegriffe der Wahrscheinlichkeitsrechnung 3.2 Stochastische Prozesse in diskreter Zeit Markov-Ketten in diskreter Zeit
MehrStatistik für NichtStatistiker
Statistik für NichtStatistiker Zufall und Wahrscheinlichkeit von Prof. Dr. Karl Bosch 5., verbesserte Auflage R. Oldenbourg Verlag München Wien Inhaltsverzeichnis 1. ZufalLsexperimente und zufällige Ereignisse
MehrDer Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),
2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist
MehrProzesse und Prozessmanagement des BS. 1 Unterschied Prozess, Threads. 1.1 Prozess. 1.2 Threads
Prozesse und Prozessmanagement des BS 1 Unterschied Prozess, Threads 1.1 Prozess Bei jedem Programm muss gespeichert werden, welche Betriebsmittel (Speicherplatz, CPU- Zeit, CPU-Inhalt,...) es benötigt.
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:
MehrBeweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass
Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck
MehrZentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Mayr)
SS 2011 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Mayr) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2011ss/dwt/uebung/ 30. Juni 2011 ZÜ
MehrBem. 6 Die charakterische Funktion existiert.
4.4 Charakteristische Funktionen Def. 2.14 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx
Mehr4.2 Moment und Varianz
4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p
MehrHausübung 2. Konzepte und Methoden der Systemsoftware. Aufgabe 1: Einfache Schedulingstrategien. SoSe bis
Universität Paderborn Fachgebiet Rechnernetze SoSe 2014 Konzepte und Methoden der Systemsoftware Hausübung 2 2014-05-12 bis 2014-05-23 Hausübungsabgabe: Format: Lösungen in schriftlicher oder gedruckter
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 10. Übung SS 18: Woche vom
Übungsaufgaben 10. Übung SS 18: Woche vom 18. 6. 22. 6. 2016 Stochastik IV: ZG (diskret + stetig); Momente von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
Mehr7.4 Charakteristische Funktionen
7.4 Charakteristische Funktionen Def. 25 Sei X Zufallsvariable mit Verteilungsfunktion F X und Dichte f X (falls X stetig) oder Wkt.funktion p i (falls X diskret). Die Funktion φ X (t) := Ee itx = eitx
MehrQ7. Warteschlangennetze
Q7. Warteschlangennetze Gliederung 1.Einfache Gesetze der Leistungsanalyse 2.Offene Netze mit einer Auftragsklasse 3.Offene Netze mit mehreren Auftragsklassen 4.Geschlossene Netze mit einer Auftragsklasse
MehrQ5. Markov-Prozesse in kontinuierlicher Zeit
Q5. Markov- in kontinuierlicher Zeit Gliederung 1.Zeitkontinuierliche Markov- 2.Vom Modell zum Markov-Prozess 3.Stationäre Analyse 4.Transiente Analyse 5.Stationäre Analyse von Modellen mit unendlichem
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
MehrKapitel 12: Markov-Ketten
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 21.01.2016 Kapitel 12: Markov-Ketten Ab jetzt betrachten wir stochastische Prozesse (X n ) n N0 mit 1. diskreter Zeit N 0 = {0,1,2,...},
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrDiskrete Ereignissysteme, Kapitel 4
Diskrete Ereignissysteme, Kapitel 4 4. Stochastische diskrete Ereignissysteme 4.1 Grundbegriffe der Wahrscheinlichkeitsrechnung 4.2 Stochastische Prozesse in diskreter Zeit Markov-Ketten in diskreter Zeit
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrScheduling-Algorithmen: Zeitpunkt der Auswahlentscheidung
Scheduling-Algorithmen: Zeitpunkt der Auswahlentscheidung Nicht-präemptives Scheduling: CPU kann einem Prozess nur entzogen werden, wenn er beendet oder blockiert ist Präemptives Scheduling: Aktueller
Mehr1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.
. Grundbegri e Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis,
Mehrk np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/476 c Ernst W. Mayr
Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p
Mehr8.3 Zuverlässigkeitsmodelle
8.3 Zuverlässigkeitsmodelle Def. 29 (Zuverlässigkeit) Die Zuverlässigkeit eines Systems ζ ist die Wahrscheinlichkeit, dass das System zum Zeitpunkt t intakt ist: Rel(ζ) = P(X t). Annahme: Das System besteht
MehrVorlesung 11b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 11b Bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Bisher legten wir das Hauptaugenmerk auf den Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten
MehrK8 Stetige Zufallsvariablen Theorie und Praxis
K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R
MehrAnalysis of System Performance IN2072 Chapter 2 Random Process Part 1
Chair for Network Architectures and Services Prof. Carle Department of Computer Science TU München Analysis of System Performance IN2072 Chapter 2 Random Process Part Dr. Alexander Klein Prof. Dr.-Ing.
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrAufgaben zum Thema Quantitative Methoden
Aufgaben zum Thema Quantitative Methoden Q1. Eine Rechenanlage möge sich durch ein M/M/1/ -System modellieren lassen. Die ankommenden Aufträge haben einen mittleren Abstand von 250 ms, die Bedienrate betrage
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrÜbersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten
Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung
Mehr7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X].
7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := gilt G X(1) = Pr[X = k] s k = E[s X ], k=0 k Pr[X = k] = E[X]. k=1 DWT 7.1 Einführung 182/476 Beispiel 73 Sei X binomialverteilt
MehrVorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten
Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a
MehrBeschreibung von Warteschlangensystemen und deren psychologische Einflüsse auf den Menschen
Beschreibung von Warteschlangensystemen und deren psychologische Einflüsse auf den Menschen Pascal Held 2007-11-22 Zusammenfassung Warteschlangen sind nicht etwa eine Erfindung von Theoretikern um etwas
MehrZentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)
SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013
Mehr4 MEHRDIMENSIONALE VERTEILUNGEN
4 MEHRDIMENSIONALE VERTEILUNGEN 4.14 Stochastische Vektoren 1. Der Merkmalraum des stochastischen Vektors (X, Y ) sei M = R 2. Betrachten Sie die folgenden Ereignisse und ihre Wahrscheinlichkeiten: A 1
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrVorlesung 9b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 9b Bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 1. Zerlegung der gemeinsamen Verteilung (Buch S. 111) 2 Bisher legten wir das Hauptaugenmerk auf den Aufbau der gemeinsamen Verteilung
MehrWarteschlangen. Mike Hüftle. 31. Juli Einleitung Theorie und Modelle Kenngrößen von Warteschlangen... 3
Warteschlangen Mike Hüftle 31. Juli 2006 Inhaltsverzeichnis 1 Einleitung 2 1.1 Theorie und Modelle......................... 2 1.2 Kenngrößen von Warteschlangen.................. 3 2 Warteschlangenmodelle
Mehr70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
MehrPrioritätsbasiertes Echtzeit-Scheduling
EMES: Eigenschaften mobiler und eingebetteter Systeme Prioritätsbasiertes 00101111010010011101001010101 Echtzeit-Scheduling Dr. Felix Salfner, Dr. Siegmar Sommer Wintersemester 2010/2011 00101111010010011101001010101
MehrDiskrete Ereignissysteme, Kapitel 4. Weitere Literatur. Literatur zu Kapitel 4 der Vorlesung. Chapter 4 Stochastische Diskrete Ereignissysteme
Chapter 4 Stochastische Diskrete Ereignissysteme Diskrete Ereignissysteme, Kapitel 4 4. Stochastische diskrete Ereignissysteme 4. Grundbegriffe der Wahrscheinlichkeitsrechnung 4.2 Stochastische Prozesse
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung
MehrOperations Management
Operations Management Kurzfristige Kapazitätsplanung, Warteschlangenmanagement Prof. Dr. Helmut Dietl Lernziele Nach dieser Veranstaltung sollen Sie wissen, welcher Trade-off zwischen Warte- und Servicekosten
MehrWie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das
Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem binären Experiment mit Erfolgswahrscheinlichkeit p genau in der k-ten unabhängigen
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrZentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie
SS 2014 Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2014ss/dwt/uebung/ 5. Juni 2014 ZÜ DWT ZÜ VI Übersicht:
MehrQuantitative Methoden
Quantitative Methoden Betriebssysteme Claude-J. Hamann TU Dresden Problem und Gegenstand Problem Erfüllen von QoS-Anforderungen mit zeit- bzw. größenbeschränkten Ressourcen Gegenstand Scheduling basierend
Mehr(8 + 2 Punkte) = = 0.75
Aufgabe 1 (8 + 2 Punkte) Von 20 Teilnehmern einer Bergwanderung geben 8 Personen an Knieschmerzen zu haben. 6 Teilnehmer leiden an Sonnenbrand. 8 Teilnehmer blieben unversehrt. a) Wie groß ist die Wahrscheinlichkeit,
Mehr5. Foliensatz Betriebssysteme und Rechnernetze
Prof. Dr. Christian Baun 5. Foliensatz Betriebssysteme und Rechnernetze FRA-UAS SS2017 1/29 5. Foliensatz Betriebssysteme und Rechnernetze Prof. Dr. Christian Baun Frankfurt University of Applied Sciences
MehrMaster Modul IV im SS 2016: Technisch-Ökonomische Wartesysteme
Operations Research und Wirtschaftsinformatik Prof. Dr. P. Recht // M. Radermacher, M.Sc. DOOR Aufgabe 3 Master Modul IV im SS 206: Technisch-Ökonomische Wartesysteme Übungsblatt Wurde in der Übung am
MehrVernetzte Systeme. Übungsstunde Adrian Schüpbach 09. Juni 2006
Vernetzte Systeme Übungsstunde 09.06.2006 Adrian Schüpbach scadrian@student.ethz.ch 09. Juni 2006 Adrian Schüpbach (ETH Zürich) Vernetzte Systeme SS 2006 1 / 28 Übersicht 1 TCP-Zustandsdiagramm 2 Proxy
MehrMatrizen. Nicht nur eine Matrix, sondern viele 0,5 0,2 0,3 A 0,2 0,7 0,1
Nicht nur eine Matrix, sondern viele Matrizen 0,5 0,2 0,3 A 0,2 0,7 0,1 015 0,15 0,75 075 0,1 01 aber keine Matrize und auch keine Matratzen 1 Wie beschreibt man Prozesse? Makov-Modell Modell Markov- Prozess
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrBiostatistik, Sommer 2017
1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
Mehr