Routing in Netzen. Matthias Rost

Größe: px
Ab Seite anzeigen:

Download "Routing in Netzen. Matthias Rost"

Transkript

1 ROUTIG I ETZE, SEMIAR ÜBER ALGORITHME, PROF. DR. ALT, SOMMERSEMESTER Routing in etzen Matthias Rost IHALTSVERZEICHIS I Einleitung 1 I-A Modell I-B Analyse der Algorithmen.. 1 I-C Architekturen I-D Greedy-Algorithmus..... II Routing in Arrays II-A 1-dimensionale Arrays.... II-B -dimensionale Arrays.... II-C Dynamisches Routing II-D Randomisierte Algorithmen. 7 II-E Deterministische Algorithmen 7 III Simulationsergebnisse 8 IV Mathematische Sätze 8 Literatur 8 I. EILEITUG Parallele Architekturen dienen der Leistungssteigerung bei der effektiven Lösung von Problemen. Durch die Verteilung des Problems und / oder des Algorithmus bedarf es insbesonders einer effektiven Kommunikation zwischen den beteiligten Rechnern. A. Modell Als Routing wird der Mechanismus der Wegewahl bezeichnet, so dass Paktete von ihrem Start- zu ihrem jeweiligen Zielprozessoren überführt werden. Als Paket können hier z.b. Ergebnisse von Berechnungen betrachtet werden. Als Routing-Konzept gehen wir nur auf das Store-And- Forward Modell ein. In diesem kann ein Prozessor in jedem Zeitschritt über eine Kante maximal ein Paket erhalten und senden. Es können somit nicht zwei Pakete aus einem Prozessor über ein und dieselbe Kante verschickt werden. Es ist jedoch grundsätzlich möglich, dass in einem Prozessor mehrere Pakete um die Benutzung einer Kante konkurrieren. Konkurrieren mehrere Pakete innerhalb eines Prozesors um eine Kante, werden diese in einer Queue (dt. Warteschlange) zwischengespeichert. Eine Queue definiert dabei eine Ordnung auf den Paketen, in welcher die Pakete in folgenden Zeitschritten versandt werden sollen. Für jede ausgehende Kante eines Prozessors existiert eine eigene Queue. Desweiteren betrachten wir hauptsächlich 1:1-Szenarien, d.h. für jeden Prozessor ist maximal ein Paket bestimmt und jeder Prozessor kann maximal ein Paket zu Beginn des Routings enthalten. B. Analyse der Algorithmen Bei der Analyse der Algorithmen werden wir drei wichtige Teilaspekte des Routings betrachten: Laufzeit des Algorithmus, d.h. nach wie vielen Zeitschritten hat jedes Paket sein Ziel erreicht. Größe der Queues, d.h. wie viele Pakete können in einem Prozessor vorliegen, so dass alle über die gleiche Kante versendet werden müssen. Die Größe einer Queue gibt insbesondere eine obere Grenze für die Verzögerung eines Pakets in einem Prozessor an. Als Verzögerung eines Pakets werden wir die Anzahl an Zeitschritten insgesamt verstehen, die dieses Paket in einer Queue vorliegt und somit nicht (sofort) weitergeleitet werden kann. Die Laufzeit der Algorithmen spielt eine bedeutende Rolle, da das Routing oft maßgeblich für die Laufzeit von anderen Algorithmen ist. Die Größe der Warteschlangen betrachten wir, da eine größere Queue grundsätzlich mehr Aufwand für den einzelnen Prozessor bedeutet und nicht beliebig viel Speicherplatz für Pakete vorhanden sein könnte. Wir werden Worst Case und Average Case Analysen der Laufzeit und der Queue-Größen durchführen. C. Architekturen Eine Menge an Prozessoren wird als etz formalisiert. Obwohl es verschiedene etzarchitekturen gibt, werden wir hier jedoch nur auf Array (dt. Feld oder Gitter) Architekturen eingehen. Die grundlegenden Ideen der Algorithmen lassen sich jedoch auch auf Hypercube ähnliche Architekturen übertragen.

2 ROUTIG I ETZE, SEMIAR ÜBER ALGORITHME, PROF. DR. ALT, SOMMERSEMESTER 009, (a) ein 1-dimensionales Array mit Bezeichnungen der Prozessoren, (b) ein -dimensionales Array mit Bezeichnungen der Prozessoren D. Greedy-Algorithmus Die Routing-Algorithmen, die wir betrachten, sind größtenteils Greedy-Algorithmen. Von einem Greedy-Algorithmus spricht man genau dann, wenn Pakete immer entlang eines kürzesten Weges im etz versandt werden. II. ROUTIG I ARRAYS A. 1-dimensionale Arrays Wir betrachten ein 1-dimensionales Array wie in Abbildung 1a mit Prozessoren. Theorem II.1. Unter der Annahme des 1:1- Szenarios und unter Verwendung des Greedy- Algorithmus erreichen innerhalb von 1 Zeitschritten alle Pakete ihre Ziele. Beweis: Gemäß dem Greedy-Algorithmus wird jedes Paket gemäß seiner Zielbestimmung sofort nach rechts oder links weiterleitet. Eine Verzögerung von Paketen kann nur dann eintreten, wenn mehrere Pakete innerhalb eines Prozessors die gleiche Kante benutzen wollen. Zu Beginn des Routings befindet sich jedoch gemäß des 1:1- Szenarios in jedem Prozessor nur ein Paket. Da Pakete, die nach rechts geschickt werden, und Pakete, welche nach links geschickt werden, nie in der gleichen Queue enthalten sind, kann jedes Paket sofort weitergeleitet werden. Pakete können somit nicht verzögert werden. Sei d der Abstand von einem Paket vor dem Routing zu seinem Zielprozessor. Das Routing eines Pakets mit Abstand d ist nach genau d Zeitschritten abgeschlossen. Da der maximale Abstand im etzwerk -1 ist, beträgt die maximal benötigte Zeit zum Routen aller Pakete -1 Zeitschritte. In einem 1-dimensionalem Array mit der Annahme des 1:1-Routings ist die benötigte Laufzeit optimal und die Größe der Queues ist maximal 1. Sofern wir zu Beginn des Routings mehrere Pakete in einem Prozessor zulassen, benötigen wir Queues, welche mehr als 1 Paket aufnehmen können. Weiterhin müssen wir nun eine Ordnung auf den Paketen definieren. Als Ordnung verwenden wir das sogenannte Farthest-First-Protokoll: Konkurrieren mehrere Pakete innerhalb eines Prozessors um eine Kante, so erhält dasjenige Paket Vorrang, welches den größten Abstand zu seinem Zielprozessor besitzt. Theorem II.. Seien in einem linearen Array der Größe maximal Pakete gegeben, so dass jedes Paket ein eindeutiges Ziel hat. Die Laufzeit des Greedy-Algorithmus unter Verwendung des Farthest-First-Protokolls beträgt maximal -1 Schritte. Beweis: Seien die Prozessoren von links nach rechts mit 1,,.., nummeriert. Wir betrachten o.b.d.a. nur die Pakete, die nach links geschickt werden und argumentieren wie folgt: Das Paket mit dem Ziel i kann maximal (i-1)- Mal verzögert werden, da nur die Pakete mit den Zielen [1,..., i 1] höher priorisiert sind. Das Paket mit dem Ziel i hat zu Beginn der Routing-Phase einen maximalen Abstand von -i zu seine m Zielprozessor. Aus diesen beiden Punkten ergibt sich für jedes Paket, das nach links geroutet wird, ergibt sich die maximale Laufzeit als Summe der maximalen Verzögerung und dem maximalen Abstand zum Zielprozessor zu i 1 + i = 1. Somit kann jedes Paket innerhalb von -1 Schritten zu seinem Ziel geroutet werden. B. -dimensionale Arrays Fügt man eine zweite Dimension wie in Abbildung 1b hinzu, so wird die Analyse komplizierter. Wir sprechen dann von einem Array mit Prozessoren bzw. einem x Array. Der Greedy- Algorithmus ist definiert als: 1) Route Paket in richtige Spalte ) Route Paket in richtige Zeile 1) Worst-Case Analyse:

3 ROUTIG I ETZE, SEMIAR ÜBER ALGORITHME, PROF. DR. ALT, SOMMERSEMESTER 009 a) Laufzeit: Wie man dem Code entnehmen kann, wird das Paket zuerst innerhalb der jeweiligen Zeile in die richtige Spalte geroutet. Der erste Schritt entspricht also dem Greedy-Algorithmus, wie er in dem Theorem II.1 beschrieben ist. Jedes Paket wird demnach innerhalb von 1 vielen Schritten seine Zielspalte erreichen. Die zweite Phase des Greedy-Algorithmus, in der die Pakete in ihren richtigen Spalten zu den richtigen Zeilen geroutet werden, benötigt gemäß II. maximal weitere 1 viele Schritte. Die Laufzeit ergibt sich also insgesamt zu. Dies ist die optimale Laufzeit, da für ein Paket aus dem obersten linken Prozessor mindestens nötig sind, um dieses in den untersten rechten Prozessor zu routen. b) Größe der Queues: Während die Laufzeit des Greedy-Alogrithmus optimal ist, kann die Größe der Queues in O( ) liegen. Um dies zu sehen, betrachten wir das folgende Szenario: In einem x Array werden Pakete mit dem Ziel (, ), (, ),.., (, ) in den Prozessor [1, ], [1, ],.., [1, ] und [, 1], [, ],.., [, 1] abgelegt. Für ein 9x9 Array ist dieses Szenario in Abbildung 1 skizziert. () Innerhalb von 1 Zeitschritten erreichen alle der Pakete gemäß des Greedy- Algorithmus den Prozessor [, ]. Die Ziele sämtlicher Pakete liegen unterhalb des Prozessors [, ]. Somit wächst die Queue für die Kante zum Prozessor [4, ] in diesem Prozessor auf ( ) ( 1) = 1 an. ) Average Case Analyse: eben dem Worst Case ist insbesondere auch der Average Case von Interesse. Wir werden zeigen, dass Queues mit großer Wahrscheinlichkeit nicht mehr als 4 Pakete aufnehmen werden und dass der Erwartungswert für die Verzögerung eines Pakets konstant ist. a) Analyse mit Hilfe des Wide-Channel- Modells: Wir führen das Wide-Channel-Modell ein. In diesem ist es möglich, dass beliebig viele Pakete innerhalb eines Zeitschritts über eine Kante versandt werden. Obwohl unter dieser Annahme das Greedy-Routing immer optimal ist, erlaubt dieses Modell wichtige Rückschlüsse auf das Standard-Modell, in dem über eine Kante jeweils nur ein Paket in einem Zeitschritt versandt werden kann. Theorem II.. Sei e eine Kante in einer Spalte. Sei X die Zufallsvariable, die angibt wie viele Pakete Abbildung 1: Ein Ausschnit aus einem 9x9 Array. In den runden Prozessoren sind die Pakete mit den Bestimmungsorten angegeben. In den rechteckigen Prozessoren stehen deren Bezeichnungen. die Kante e innerhalb von Zeitschritten überqueren. Die Wahrscheinlichkeit, dass mindestens α Pakete die Kante e überqueren ist P(X α ) = e (α 1 αln α). Beweis: Wir betrachten o.b.d.a. die Kante e, welche die Prozessoren [i, j] und [i + 1, j] verbindet. Sei T ein Zeitpunkt, welcher in dem zu beobachtenden Zeitfenster t + 1, t +,..., t + liegt. Ein Paket p kann im Wide-Channel-Modell die Kante nur zum Zeitpunkt T überqueren, wenn der Abstand des Pakets p zu Beginn des Routings T war. Da es für jede Zeile und jedes T nur maximal zwei solche Pakete geben kann, und da die Pakete oberhalb von der Zeile i entstanden sein müssen, gibt es i Pakete, welche die Kante zum Zeitpunkt T überqueren können. Da wir viele Zeitschritte betrachten gibt es insgesamt i Pakete, welche die Kante im Zeitfenster überqueren könnten. Ein Packet, welches die Kante e überquert, muss für einen Prozessor unterhalb von i bestimmt sein. Es gibt i viele solcher Prozessoren. Da die

4 ROUTIG I ETZE, SEMIAR ÜBER ALGORITHME, PROF. DR. ALT, SOMMERSEMESTER Zielprozessoren zufällig gewählt sind, beträgt die Wahrscheinlichkeit, dass ein Paket einen solchen Zielort hat i. Wir verwenden den Satz IV.1: P(X β P Σ ) e (1 1 β ln β)β PΣ. (1) Mit jedem der i Pakete, welche die Kante überqueren könnte, wird eine Zufallsvariable X k assoziiert. Diese Bernoulli-Variable beschreibt, ob das Paket die Kante e überquert oder nicht. Die Zufallsvariable X = ΣX k ist somit die Anzahl an Paketen, welche diese insgesamt überqueren. Die Wahrscheinlichkeit, die Kante zu überqueren, ist für jedes Paket P k. Es ist somit P Σ = ΣP k = P Σ = i i = i( 1). α Wir wählen β = 4i(. i) Da α β P Σ = 4i( i) i( 1) = α = i erhalten wir durch Einsetzen dieser Werte in 1 P(X βp Σ ) e (1 1 β lnβ)βpσ P(X α ) e(1 1 β ln β) α. Weiterhin gilt, dass β α, da β 4i( i) y Abbildung : Der Term 4 i( i) von i im Bereich [0, ]. und 4i( i) i = α in Abhängigkeit 1. Dies kann mittels Funktionsanalysis gezeigt werden (siehe ). Da der Term 1 1 β lnβ für kleinere β zunimmt, ergibt sich letztlich durch Substitution von α durch β das Ergebnis P(X α ) = e(α 1 α ln α). P delta alpha Abbildung : Visualierierung des Satzes II.. Die P-Achse gibt die Wahrscheinlichkeit an, dass innerhalb von delta Zeitschritten mehr als delta alpha Pakete eine Kante benutzen. Gemäß Satz II. können wir nun abschätzen wie viele Pakete in dem Wide-Channel-Modell eine vertikale Kante überqueren. In Abbildung ist der D-Plot dieser Funktion skizziert. Die Wahrscheinlichkeit, dass zum Beispiel mehr als 4 Pakete innerhalb von Zeitschritten eine Kante überqueren ist e b) Übertragung der Ergebnisse für das Wide- Channel-Modell auf das Standard-Modell: Theorem II.4. Für alle T,, x > 0 gilt, dass wenn x Pakete eine Kante e in dem Zeitfenster [T + 1, T + ] mit der Größe im Standard- Modell überqueren, so gibt es ein t 0, so dass mindestens x+t Pakete die Kante e im Zeitfenster [T + 1 t, T + ] des Wide-Channel-Modells überqueren. Beweis: Sei t 0 und sei T t der letzte Zeitpunkt vor T, so dass im Standard-Modell kein Paket die Kante e benutzt. Da t minimal ist, ist die Kante e während [T t+1, T] im Standard-Modell ausgenutzt. Folglich überqueren in dem Zeitraum [T t + 1, T] genau t Pakete die Kante e. Da in dem Zeitraum [T + 1, T + ] x Pakete die Kante benutzen, folgt, dass x + t Pakete diese Kante in dem Zeitraum [T t + 1, T + ] benutzen. Betrachten wir nun das Routing für das Wide- Channel-Modell: Da zum Zeitpunkt T t im Standard-Modell kein Paket über die Kante e versandt wurde, wird auch im Wide-Channel-Modell zum Zeitpunkt T t kein Paket über diese Kante versandt. Dies ergibt sich, da Pakete gemäß dem Farthest-First-Protokoll nur durch Pa- 4 0

5 ROUTIG I ETZE, SEMIAR ÜBER ALGORITHME, PROF. DR. ALT, SOMMERSEMESTER kete verzögert werden können, welche eine größere Entfernung haben. Wenn ein Paket im Standard-Modell also so verzögert worden wäre, dass es die Kante e zum Zeitpunkt T t nicht überqueren konnte, so müsste es ein anderes, höher priorisiertes Paket gegeben haben, so dass dieses die Kante e zum Zeitpunkt T t überquert hätte. Da es dieses nicht gibt, wird die Kante auch im Wide-Channel-Modell nicht benutzt. Alle Pakete, die im Standard-Modell nach dem Zeitpunkt T t über die Kante übertragen werden, werden auch im Wide-Channel- Modell nach dem Zeitpunkt T t übertragen. Dies wird aus dem vorherigen Punkt ersichtlich. Würde ein Paket, welches im Standard- Modell erst nach T t die Kante überquert, diese im Wide-Channel-Modell vor T t überqueren, so hätte dieses Paket im Standard- Modell durch ein anderes Paket verzögert werden müssen. Da zum Zeitpunkt T t jedoch kein Paket im Standard-Modell die Kante überquert, gibt es offenbar kein solches Paket und das Paket kann auch im Wide- Channel-Modell die Kante e erst nach dem Zeitpunkt T t überqueren. n = i( + t) i P k = P Σ = i( + t)( i) ( α β = + t) i( + t)( i) P Σ β = α + t. Wir setzen diese Werte in 1 ein: P(X α + t) t 0 e (1 1 α β ln β)( +t) e (1 1 β ln β)( α ) Σ t 0 e (1 1 β ln β)t 1 α e(1 β ln β)( ). ln β) 1 e (1 1 β Da wiederum α β für α, erhalten wir: e(α 1 αln α)( 1 e (1 1 α ln α) Da 1.5 α und 1 e (1 1 α ln α) in Wir haben somit gezeigt, dass wenn x Pakete im Standard-Modell die Kante e im Zeitraum [T + 1, T + ] überqueren, im Wide-Channel-Modell im Zeitraum [T t+1, T + ] mindestens x+t Pakete diese Kante benutzen. Theorem II.5. Die Wahrscheinlichkeit, dass α oder mehr Pakete eine Spalten Kante e in einem Zeitfenster der Größe überqueren, beträgt im Standard-Modell unter Verwendung des Greedy- Algorithmus O(e α 1 α ln α) ) für 1.5 α. Beweis: Wir benutzen den Satz II.4 und definieren die Zufallsvariable wieder als die Anzahl an Paketen, welche die zu beobachtende Kante e überqueren. Durch diesen wissen wir, dass mehr als α Pakete eine Kante im Standard- Modell im Zeitraum [T + 1, T + ] nur benutzen, wenn es ein t 0 gibt, so dass im Wide-Channel- Modell im Zeitraum von [T t + 1, T + ] mehr als α + t Pakete über die beobachetete Kante versendet werden. Um diese Wahrscheinlichkeit zu berechnen, benutzen wir erneut den Satz IV.1. Für diesen wählen wir die Parameter wie folgt: y alpha Abbildung 4: Die Funktion y = 1 e (1 1 α ln α) im Bereich von [1.5, ] diesem Bereich streng monoton steigend ist (siehe 4), minimieren wir den enner mit α = 1.5. e(α 1 αln α) 1 e ( ln1.5) < e(α 1 αln α) = O(e (α 1 α ln α) ) Theorem II.6. Die Wahrscheinlichkeit, dass mehr als c ln Pakete in aufeinanderfolgenden Zeitschritten eine Kante e überqueren, beträgt O( 1 ) für c < 1.

6 ROUTIG I ETZE, SEMIAR ÜBER ALGORITHME, PROF. DR. ALT, SOMMERSEMESTER Beweis: Wir benutzen Satz II.5. Da wir nur aufeinanderfolgende Pakete betrachten möchten, setzen wir α =. Dadurch ist die Anzahl an Paketen gleich der Größe des Zeitrahmens. Weiterhin 5 setzen wir = c ln mit c = ln 1 < 1. Durch Einsetzen in II.5 erhalten wir: P(X c ln) = O(e (1 ln ) 5 ln 1 ln ) = O(e 5 ln ) = O( 5 ) Da es nur O() viele Kanten und nur O( ) viele zu betrachtende Zeitfenster gibt, liegt die Wahrscheinlichkeit, dass auf einer beliebigen Kante in einem beliebigen Zeitfenster mehr als c ln Pakete hintereinander eine Kante überqueren, in O( 1 ). Theorem II.7. Die Wahrscheinlichkeit, dass eine beliebige Queue auf maximal 4 Pakete anwächst liegt in 1 O( ln4 ). Beweis: Wir betrachten die Queue der Spalten Kante e welche die Prozessoren [i, j], [i + 1, j] verbindet. Gemäß dem Satz II.6 wissen wir, dass mit Wahrscheinlichkeit 1 O( 1 ) nicht mehr als c ln Pakete eine beliebige Kante aufeinanderfolgend überqueren. Jede Queue ist somit mit Wahrscheinlichkeit 1 O( 1 ) alle c ln Zeitschritte leer. Damit die Größe einer Queue auf mindestens 4 Pakete anwachsen kann, müssen innerhalb eines solchen Zeitfensters der Größe c ln mindestens 4 Pakete aus der Zeile i, welche eine Zielzeile > i und die Zielspalte j haben, den Prozessor [i, j] erreichen. Für jedes dieser 4 Pakete gibt es höchstens c ln viele Zeitpunkte, zu denen diese den Prozessor erreichen könnten. Weiterhin ist die Wahrscheinlichkeit, dass diese 4 Pakete als Ziel genau einen Prozessor unterhalb [i, j] haben, jeweils höchstens 1. Die Wahrscheinlichkeit, dass 4 Pakete in dem Zeitfenster den Prozessor [i, j] erreichen beträgt somit O( ln4 ). Da es O() viele zu betrachtende Queues gibt und O( ) viele Zeitfenster betrachtet werden müssen, ist die Wahrscheinlichkeit, dass eine beliebige Queue jemals mindestens 4 Pakete aufnehmen wird O( ln4 ). Theorem II.8. Die Wahrscheinlichkeit, dass ein Paket mindestens δ Zeitschritte verzögert wird, liegt in O(e δ 6 ). Die erwartete Verzögerung für ein beliebiges Paket ist somit konstant. Beweis: Wir betrachten nur Pakete, welche innerhalb einer Spalte geroutet werden, da die Verzögerung für ein Paket innerhalb einer Zeile gemäß des Greedy-Algorithmus immer 0 ist. Sei T der Zeitpunkt im Wide-Channel-Modell, zu dem ein Paket seinen Zielprozessor erreicht. Im Standard- Modell erreiche dieses Paket seinen Zielprozessor erst zum Zeitpunkt T +δ, so dass eine Verzögerung von δ Zeitschritten vorliegt. Gemäß der Argumentation aus dem Beweis von Satz II.4 müssen mindestens δ Pakete mit höherer Priorisierung die Kante unmittelbar vor dem Zielprozessor überquert haben. Insgesamt haben somit δ + 1 Pakete die Kante innerhalb des Zeitraums [T, T + δ] überquert. Wir können nun Satz II.5 verwenden. Durch Einsetzen von α =, da wir nur konsekutive Pakete betrachten wollen, und = δ + 1 erhalten wir: P(X α ) = O(e(α 1 α ln α) ) δ+1 (1 ln ) P(X δ + 1) = O(e ) = O(e 0.194(δ+1) ) = O(e δ 6 ). Die Wahrscheinlichkeit, dass ein Paket δ Schritte verzögert wird, liegt somit in O(e δ 6 ). Der Erwartungswert, für die Verzögerung ergibt sich zu: E(O(e δ 6 )) E(ce δ 6 ) = δ 0 = c δ 0 δ(ce δ 6 ) δ( 1 6 e )δ Es gilt k=0 kqk q = (q 1) für 0 < q < 1. Wir setzen in unserem Fall q = 1 6 < 1 und erhalten e E(ce δ q 6 ) = c < 6c = O(1). (q 1) Die erwartete Verzögerung für ein Paket ist somit konstant. C. Dynamisches Routing In dem klassischen 1:1-Szenario liegen zu Beginn Pakete in Prozessoren vor, welche daraufhin zu ihrer Zielbestimmung geroutet werden. Beim dynamischen Routing werden hingegen kontinuierlich neue Pakete in den Prozessoren erzeugt. In jedem Zeitschritt wird mit einer Wahrscheinlichkeit λ in jedem Prozessor ein neues Paket mit einem zufällig gewählten Ziel erstellt. Der Parameter λ darf hierbei nicht zu groß gewählt werden. In - dimensionalen Arrays muss z.b. λ < 4 gelten. Dies ergibt sich, da in jedem Zeitschritt innerhalb der rechten Hälfte des Arrays 1 λ viele Pakete erzeugt werden, welche ein Ziel innerhalb der linken Hälfte des Arrays haben. Wäre λ > 4,

7 ROUTIG I ETZE, SEMIAR ÜBER ALGORITHME, PROF. DR. ALT, SOMMERSEMESTER so würde diese Anzahl größer als sein und es würden sich beliebig große Queues beim Übergang der rechten zur linken Hälfte bilden. Theorem II.9 (Beweis siehe [1]). Sofern λ < 4 und ein Zeitraum von T Zeitschritten im dynamischen Routing betrachtet wird, so ist die Verzögerung für ein Paket mit hoher Wahrscheinlichkeit O(e cλ ), wobei c unabhängig von der Anzahl der betrachteten Zeitschritte und unabhängig von ist. Mit großer Wahrscheinlichkeit wächst keine Queue auf mehr als O(1 + log T log ) an. E. Deterministische Algorithmen Abschließend stellen wir noch einen deterministischen Routing-Algorithmus vor, welcher in einem 1:1-Szenario innerhalb alle Pakete innerhalb von 6 + o( ) Schritten ohne die Verwendung von Queues routet. Der Algorithmus basiert auf der Sortierung der Pakete in spaltenweiser Ordnung: 1) Sortiere Pakete gemäß ihrem Ziel in spaltenweiser Ordnung. ) Führe den Greedy-Algorithmus aus. D. Randomisierte Algorithmen Die Ergebnisse für den Greedy-Algorithmus auf einem x Array gelten nur für eine zufällige Verteilung der Pakete auf die Prozessoren. Der Greedy-Algorithmus funktioniert also sehr gut im Durchschnitt, während grundsätzlich Worst Case Szenarien möglich sind. Eine Möglichkeit um das Problem der Worst Case Fälle zu beheben, ist die Einführung von Randomisierung. Der Vorteil ist hierbei, dass die erwartete Laufzeit und die Größe der Queues nicht von der Eingabe abhängen sondern von der Güte des Zufallszahlengenerators. Wir führen einen einfachen randomisierten Routing-Algorithmus ein, welcher nach folgendem Schema funktioniert: 1) Unterteile jede Spalte in log Intervalle der Größe log ) Route jedes Paket innerhalb seines Spaltenintervalls zu einem beliebigen Prozessor ) Route jedes Paket innerhalb der Zeile zur richtigen Spalte 4) Route jedes Paket innerhalb der Spalte zur richtigen Zeile Die einzelnen Routing-Schritte des Algorithmus werden hierbei - entgegen der Vorgehensweise beim Greedy-Algorithmus - erst ausgeführt, wenn sämtliche Pakete die vorherige Phase des Algorithmus abgeschlossen haben. Weiterhin gehen wir davon aus, dass die Queues im. Schritt, dem Routing der Pakete in die richtige Spalte, jeweils zuerst alle ankommenden Pakete weitergeleitet werden und falls es kein ankommendes Paket gibt, ein beliebiges aus der jeweiligen Queue versandt wird. Theorem II.10. (Beweis siehe []) Die Laufzeit des in Abschnitt II-E definierten randomisierten Routing Algorithmus liegt im Falle des 1:1- Routings mit hoher Wahrscheinlichkeit in + o( ) und verwendet dabei mit großer Wahrscheinlichkeit nur Queues der Größe O(log )., (a) Ein 4x4 Array mit Paketen innerhalb der runden Prozessoren vor dem Sortieren, (b) Das 4x4 Array nach dem Sortieren mit spaltenweiser Ordnung Abbildung 5: ach dem Sortieren befinden sich keine Pakete mehr in einer Zeile mit der gleichen Zielspalte. Ein Beispiel ist in Abbildung 5 gegeben. Wenn die Pakete gemäß ihren Zielen in spaltenweiser Ordnung angegeben sind, so benötigt der Greedy- Algorithmus keine Queues. Dies ist der Fall, da in keiner Zeile zwei Pakete mit gleicher Zielspalte auftreten können. Das Sortieren von Paketen gemäß der spaltenweisen Ordnung kann in 4 + o( ) Schritten ohne die Verwendung von Queues erfolgen. Da der Greedy-Algorithmus

8 ROUTIG I ETZE, SEMIAR ÜBER ALGORITHME, PROF. DR. ALT, SOMMERSEMESTER eine Worst Case Laufzeit von hat und er keine Queues benutzt, folgt die Laufzeit von 6 + o( ) für den deterministischen Algorithmus. III. SIMULATIOSERGEBISSE Die stochastische Analyse von Routing- Algorithmen ist geprägt von Abschätzungen und der Verwendung der O-otation. Mit Hilfe von Simulationen ist es möglich, Parameter realistisch abzuschätzen und die stochastischen Ergebnisse zu überprüfen. Aus diesem Grunde haben wir eine Simulation auf Basis des diskreten Ereignis Simulationsframeworks OMeT (siehe []) erstellt. Die Simulation kann beliebige x Arrays simulieren. Es werden das 1:1-Szenario sowie das dynamische Routing unterstützt. Ein Szenario kann beliebig oft - mit anderen Zufallszahlen - ausgeführt werden um aussagekräftige statistische Werte zu mitteln. Die Simulation unterstützt verschiedenartige statistische Auswertungen der Größe der Queues sowie der Verzögerung für Pakete. Die Bilder sind gemäß folgenden Parametern beschriftet. S - Die Größe des etzwerks beträgt SxS. P - Die Wahrscheinlichkeit, dass innerhalb eines Zeitschrittes ein Paket erzeugt wird. T - Die Anzahl an aufeinanderfolgenden Zeitschritten, in denen neue Pakete mit Wahrscheinlichkeit P erzeugt werden. R - Die Anzahl an Runs der Simulation. Ist R > 1 so sind entweder alle Ergebnisse abgebildet oder die Ergebnisse sind über alle Wiederholungen gemittelt. Ist T = 1 und P = 1 so handelt es sich um das 1:1-Szenario. Ist T > 1 und P < 1 handelt es sich um dynamisches Routing. Beweis: Für alle λ > 0 gilt: E(e λx k ) = P(X k = 1)e λ 1 + P(X k = 0)e λ 0 = P(X k = 1)e λ 1 + P(X k = 0)e 0 = P(X k = 1)e λ 1 + (1 P(X k = 1)) = 1 + P(X k = 1)(e λ 1) Da e λ > 1 für λ > 0 und da 1 + x e x für alle x > 0, können wir die obige Formel umformen zu E(e λ X k ) e P k(e λ 1). () Weiterhin gilt durch die Unabhängigkeit der Variablen, dass Mit () folgt E(e λxσ ) = E(Π n i=1 eλxi ) = Π n i=1 E(eλXi ) E(e λxσ ) Π n i=1 epi(eλ 1) () = e PΣ(eλ 1). (4) Durch Markows Ungleichung wissen wir, dass P(e λxσ e λβpσ ) E(eλXΣ ). (5) λβpσ e In (5) setzen wir (4) ein und erhalten: Es gilt P(e λxσ e λβpσ ) e PΣ(eλ 1) λβp Σ. P(X Σ βp Σ ) = P(e λ XΣ e λ β PΣ ). Folglich ist P(X Σ βp Σ ) = P(e λxσ e λβpσ ) (6) e PΣ(eλ 1) λβp Σ. (7) Die Formel (7) wird für λ = lnβ minimiert, so dass wir durch Einsetzen die gewünschte Aussage erhalten. P(X β P Σ ) e (1 1 β lnβ)β PΣ IV. MATHEMATISCHE SÄTZE Theorem IV.1. Sei eine Menge an n unabhängigen Bernoulli Zufallsvariablen X 1, X,..., X n gegeben, wobei P(X k = 1) P k für 1 k n, X Σ = n i=1 X i, P Σ = n i=1 P i und β > 1, dann ist LITERATUR [1] F. T. Leighton, Introduction to parallel algorithms and architectures: array, trees, hypercubes. San Francisco, CA, USA: Morgan Kaufmann Publishers Inc., 199. [] D. Krizanc, S. Rajasekaran, and T. Tsantilas, Optimal routing algorithms for mesh-connected processor arrays, VLSI Algorithms and Architectures, pp , [] [Online]. Available: P(X β P Σ ) e (1 1 β lnβ)β PΣ.

9 ROUTIG I ETZE, SEMIAR ÜBER ALGORITHME, PROF. DR. ALT, SOMMERSEMESTER Abbildung 6: S = 5, T = 1, P = 1, R = 100 Die über alle 100 Simulationen gemittelten Maximal-, Mittel- und Standardabweichungswerte für die Verzögerung bzw. die Größe der Queues. Abbildung 7: S = 5, T = 1, P = 1, R = 100 Die gemittelte Anzahl an Verzögerungen. Für jeden Prozessor ist jeweils links die Häufigkeit der Verzögerung 0 angegeben. Die Verteilung entspricht den Ergebnissen aus Satz II.8. Abbildung 8: S = 5, T = 1, P = 1, R = 1 Die absolute Anzahl an Verzögerungen für eine Simulation. Für jeden Prozessor ist jeweils links die Häufigkeit der Verzögerung 0 angegeben. Die Verteilung entspricht den Ergebnissen aus Satz II.8.

10 ROUTIG I ETZE, SEMIAR ÜBER ALGORITHME, PROF. DR. ALT, SOMMERSEMESTER Abbildung 9: S = 5, T = 1, P = 1, R = 100 Alle Größen der Queues der 100 Simulationen im Überblick. Offensichtlich wächst keine Queue auf mehr als Pakete an. Dies entspricht den Ergebnissen aus Satz II.7. Abbildung 10: S = 5, T = 1, P = 1, R = 100 Alle Größen der Queues einer Simulation. Die Queues wachsen nicht auf mehr als 1 Element an. Abbildung 11: S = 0, T = 1, P = 1, R = 15 Die über alle 15 Simulationen gemittelten Maximal-, Mittel- und Standardabweichungswerte für die Verzögerung bzw. die Größe der Queues.

11 ROUTIG I ETZE, SEMIAR ÜBER ALGORITHME, PROF. DR. ALT, SOMMERSEMESTER Abbildung 1: S = 0, T = 1, P = 1, R = 1 Alle Größen der Queues einer Simulation. Die Queues wachsen nicht auf mehr als Element an. Abbildung 1: S = 10, T = 1000, P = 0., R = 1 Ein dynamisches Routing-Szenario, in dem über 1000 Zeitschritte mit Wahrscheinlichkeit 0. Pakete erzeugt werden. Während die maximale Verzögerung und die maximale Größe der Queues stark zugenommen haben, sind deren Mittelwerte bzw. die Standardabweichungen recht gering. Abbildung 14: S = 10, T = 1000, P = 0., R = 1 Die absolute Anzahl an Verzögerungen für eine dynamische Simulation. Für jeden Prozessor ist jeweils links die Häufigkeit der Verzögerung 0 angegeben.

12 ROUTIG I ETZE, SEMIAR ÜBER ALGORITHME, PROF. DR. ALT, SOMMERSEMESTER Abbildung 15: S = 10, T = 1000, P = 0., R = 1 Alle Größen der Queues einer dynamischen Simulation. Die Queues wachsen nur vereinzelt auf mehr als 7 Elemente an. Abbildung 16: S = 10, T = 1000, P = 0.5, R = 1 Ein dynamisches Routing-Szenario in dem die Anzahl der in jedem Zeitschritt erzeugten Pakete die zulässige Obergrenze von 4 übersteigt. Die Verzögerungen wachsen linear mit der Simulationszeit: Das Mittel der Verzögerungen ist ungefähr die Hälfte des Maximums. Der gleiche Zusammenhang gilt für die Größe der Queues. Abbildung 17: S = 10, T = 1000, P = 0.5, R = 1 Alle Größen der Queues im überlasteten dynamischen Routing-Szenario. Während die zentralen Queues zu Beginn stark anwachsen, wachsen die Queues der äußeren Prozessoren erst gegen Ende auf 1 der insgesamt 1000 erzeugten Pakete.

Grundlagen: Algorithmen und Datenstrukturen

Grundlagen: Algorithmen und Datenstrukturen Technische Universität München Fakultät für Informatik Lehrstuhl für Effiziente Algorithmen Dr. Hanjo Täubig Tobias Lieber Sommersemester 011 Übungsblatt 30. Mai 011 Grundlagen: Algorithmen und Datenstrukturen

Mehr

Grundlagen: Algorithmen und Datenstrukturen

Grundlagen: Algorithmen und Datenstrukturen Technische Universität München Fakultät für Informatik Lehrstuhl für Effiziente Algorithmen Dr. Hanjo Täubig Tobias Lieber Sommersemester 2011 Übungsblatt 1 16. September 2011 Grundlagen: Algorithmen und

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Wir wollen nun die Behauptung beweisen, dass die Laufzeit von SELECT linear ist, also dass T (n) = O(n) gilt.

Wir wollen nun die Behauptung beweisen, dass die Laufzeit von SELECT linear ist, also dass T (n) = O(n) gilt. Abschätzung für die Rekursion von SELECT Wir wollen nun die Behauptung beweisen, dass die Laufzeit von SELECT linear ist, also dass T (n) = O(n) gilt. Wir nehmen erst einmal an, dass eine Konstante d existiert,

Mehr

Seminar: Randomisierte Algorithmen Auswerten von Spielbäumen Nele Küsener

Seminar: Randomisierte Algorithmen Auswerten von Spielbäumen Nele Küsener Seminar: Randomisierte Algorithmen Auswerten von Sielbäumen Nele Küsener In diesem Vortrag wird die Laufzeit von Las-Vegas-Algorithmen analysiert. Das Ergebnis ist eine obere und eine untere Schranke für

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Streaming Data: Das Modell

Streaming Data: Das Modell Streaming Data: Das Modell Berechnungen, bei fortlaufend einströmenden Daten (x t t 0), sind in Echtzeit zu erbringen. Beispiele sind: - Verkehrsmessungen im Internet, - Datenanalyse in der Abwehr einer

Mehr

Satz 61 (Chebyshev-Ungleichung)

Satz 61 (Chebyshev-Ungleichung) Die folgende Abschätzung ist nach Pavnuty Lvovich Chebyshev (1821 1894) benannt, der ebenfalls an der Staatl. Universität in St. Petersburg wirkte. Satz 61 (Chebyshev-Ungleichung) Sei X eine Zufallsvariable,

Mehr

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler 6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung

Mehr

Parallele Algorithmen in der Bildverarbeitung

Parallele Algorithmen in der Bildverarbeitung Seminar über Algorithmen - SoSe 2009 Parallele Algorithmen in der Bildverarbeitung von Christopher Keiner 1 Allgemeines 1.1 Einleitung Parallele Algorithmen gewinnen immer stärker an Bedeutung. Es existieren

Mehr

6 Polynomielle Gleichungen und Polynomfunktionen

6 Polynomielle Gleichungen und Polynomfunktionen 6 Polynomielle Gleichungen und Polynomfunktionen Lineare Gleichungen Eine lineare Gleichung in einer Variablen ist eine Gleichung der Form ax + b = cx + d mit festen Zahlen a und c mit a c. Dies kann man

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Übung zur Vorlesung Berechenbarkeit und Komplexität

Übung zur Vorlesung Berechenbarkeit und Komplexität RWTH Aachen Lehrgebiet Theoretische Informatik Reidl Ries Rossmanith Sanchez Tönnis WS 2012/13 Übungsblatt 7 26.11.2012 Übung zur Vorlesung Berechenbarkeit und Komplexität Aufgabe T15 Entwickeln Sie ein

Mehr

Hausdorff-Maß und Hausdorff-Dimension. Jens Krüger

Hausdorff-Maß und Hausdorff-Dimension. Jens Krüger Hausdorff-Maß und Hausdorff-Dimension Jens Krüger Inhaltsverzeichnis 1 Einleitung 2 2 Grundlagen aus der Maßtheorie 3 3 Die Konstruktion des Hausdorff-Maßes 4 4 Eigenschaften des Hausdorff-Maßes und Hausdorff-Dimension

Mehr

10 Transformation von Zufallsvariablen

10 Transformation von Zufallsvariablen 10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Algorithmen II Vorlesung am

Algorithmen II Vorlesung am Algorithmen II Vorlesung am 24.01.2013 Online Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales Forschungszentrum

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 8. Vorlesung Pseudozufallszahlen sind, wie der Name schon sagt, keine echten Zufallszahlen, sondern werden durch Generatoren erzeugt. Als Pseudozufallszahlen bezeichnet man Zahlenfolgen die durch einen

Mehr

Lineare Kongruenzgeneratoren und Quicksort

Lineare Kongruenzgeneratoren und Quicksort Seminar Perlen der theoretischen Informatik Dozenten: Prof. Johannes Köbler und Olaf Beyersdorff Lineare Kongruenzgeneratoren und Quicksort Ausarbeitung zum Vortrag Mia Viktoria Meyer 12. November 2002

Mehr

5 Binomial- und Poissonverteilung

5 Binomial- und Poissonverteilung 45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1

Mehr

Voronoi-Diagramme. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK

Voronoi-Diagramme. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 29.05.2011 Das Postamt-Problem b(p, q) = {x R 2 : xp = xq } p q h(p, q) h(q, p) = {x :

Mehr

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht

Mehr

Greedy Algorithms - Gierige Algorithmen

Greedy Algorithms - Gierige Algorithmen Greedy Algorithms - Gierige Algorithmen Marius Burfey 23. Juni 2009 Inhaltsverzeichnis 1 Greedy Algorithms 1 2 Interval Scheduling - Ablaufplanung 2 2.1 Problembeschreibung....................... 2 2.2

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten

Mehr

1 Sortieren in zweidimensionalen Zellularautomaten

1 Sortieren in zweidimensionalen Zellularautomaten 1 Sortieren in zweidimensionalen Zellularautomaten Der Einfachheit halber beschränken wir uns in diesem Kapitel auf das Sortieren quadratischer Muster. Mit n bezeichnen wir immer die Anzahl zu sortierender

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

TU DORTMUND Sommersemester 2018

TU DORTMUND Sommersemester 2018 Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade

Mehr

Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n i =.

Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n i =. 2. Der Blum-Floyd-Pratt-Rivest-Tarjan Selektions-Algorithmus Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n

Mehr

Kapitel III Selektieren und Sortieren

Kapitel III Selektieren und Sortieren Kapitel III Selektieren und Sortieren 1. Einleitung Gegeben: Menge S von n Elementen aus einem total geordneten Universum U, i N, 1 i n. Gesucht: i-kleinstes Element in S. Die Fälle i = 1 bzw. i = n entsprechen

Mehr

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

5. Übungsblatt zu Algorithmen I im SoSe 2016

5. Übungsblatt zu Algorithmen I im SoSe 2016 Karlsruher Institut für Technologie Institut für Theoretische Informatik Prof. Dr. Dennis Hofheinz Lukas Barth, Lisa Kohl 5. Übungsblatt zu Algorithmen I im SoSe 2016 https://crypto.iti.kit.edu/index.php?id=algo-sose16

Mehr

3.1 Sukzessive Minima und reduzierte Basen: Resultate

3.1 Sukzessive Minima und reduzierte Basen: Resultate Gitter und Codes c Rudolf Scharlau 4. Juni 2009 202 3.1 Sukzessive Minima und reduzierte Basen: Resultate In diesem Abschnitt behandeln wir die Existenz von kurzen Basen, das sind Basen eines Gitters,

Mehr

Kommunikationskomplexität

Kommunikationskomplexität Kommunikationskomplexität Seminar über Algorithmen, Prof. Dr. Alt, Sommersemester 2010, Freie Universität Berlin Matthias Rost 13. Juli 2010 1 von 37 Matthias Rost Kommunikationskomplexität Inhaltsverzeichnis

Mehr

67 Zufallsvariable, Erwartungswert, Varianz

67 Zufallsvariable, Erwartungswert, Varianz 67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

1,2,3,4,5,... Dabei ist die Reihenfolge wichtig, jede Zahl hat also ihre feste Position. Die Folge 2,1,4,3,... ist eine andere als 1,2,3,4,...

1,2,3,4,5,... Dabei ist die Reihenfolge wichtig, jede Zahl hat also ihre feste Position. Die Folge 2,1,4,3,... ist eine andere als 1,2,3,4,... 9 Folgen Eine (unendliche) Folge im herkömmlichen Sinn entsteht durch Hintereinanderschreiben von Zahlen, z.b.: 1,2,3,4,5,... Dabei ist die Reihenfolge wichtig, jede Zahl hat also ihre feste Position.

Mehr

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. 12 Ungleichungen Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. Dann gilt: min c R E(X c)2 = Var X. Beweis: Für alle reellen Zahlen c R gilt: E(X

Mehr

Online Algorithmen. Online Kürzeste Wege Probleme. Online Algorithmen Kompetitivität

Online Algorithmen. Online Kürzeste Wege Probleme. Online Algorithmen Kompetitivität Online Algorithmen Wiederholung Eigenschaften von Online Algorithmen Unvollständige (Vorab-)Information Sequentielle Anfragen Abarbeitung der aktuellen Anfragen ohne Information über zukünftige Anfragen

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Stetige Verteilungen Rechteckverteilung

Stetige Verteilungen Rechteckverteilung Stetige Verteilungen Rechteckverteilung Die Längenabweichungen X produzierter Werkstücke von der Norm seien gleichmäßig verteilt zwischen a = mm und b = 4mm. Die Dichtefunktion lautet also f(x) = für a

Mehr

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung R. Brinkmann http://brinkmann-du.de Seite 5.05.0 Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung Erwartungswert binomialverteilter Zufallsgrößen Wird ein Bernoulli- Versuch, bei

Mehr

13. Woche: NP-Vollständigkeit Satz von Cook-Levin Anwendungen in der Kryptographie

13. Woche: NP-Vollständigkeit Satz von Cook-Levin Anwendungen in der Kryptographie 13 Woche: NP-Vollständigkeit Satz von Cook-Levin Anwendungen in der Kryptographie 13 Woche: NP-Vollständigkeit, Satz von Cook-Levin, Anwendungen 276/ 333 N P-Vollständigkeit Ḋefinition NP-vollständig Sei

Mehr

Ordnen Sie die folgenden Funktionen nach ihrer asymptotischer Komplexität in aufsteigender Reihenfolge: i=1 4i + n = 4 n. i=1 i + 3n = 4 ( n(n+1)

Ordnen Sie die folgenden Funktionen nach ihrer asymptotischer Komplexität in aufsteigender Reihenfolge: i=1 4i + n = 4 n. i=1 i + 3n = 4 ( n(n+1) für Informatik Prof. aa Dr. Ir. Joost-Pieter Katoen Christian Dehnert, Friedrich Gretz, Benjamin Kaminski, Thomas Ströder Tutoraufgabe (Asymptotische Komplexität): Ordnen Sie die folgenden Funktionen nach

Mehr

Parallelität und Kommunikation

Parallelität und Kommunikation Parallelität und Kommunikation WS 2010/2011 Friedhelm Meyer auf der Heide V9, 3.1.2011 Friedhelm Meyer auf der Heide 1 Rückblick, Thema heute Wir wollen herausfinden, wie gut Routing entlang unabhängig

Mehr

Seminar Gewöhnliche Differentialgleichungen

Seminar Gewöhnliche Differentialgleichungen Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden

Mehr

Mathematik. Juni 2016 AHS. Kompensationsprüfung 9 Angabe für Kandidatinnen/Kandidaten

Mathematik. Juni 2016 AHS. Kompensationsprüfung 9 Angabe für Kandidatinnen/Kandidaten Name: Datum: Klasse: Kompensationsprüfung zur standardisierten kompetenzorientierten schriftlichen Reifeprüfung AHS Juni 2016 Mathematik Kompensationsprüfung 9 Angabe für Kandidatinnen/Kandidaten Hinweise

Mehr

Übungsblatt 2 - Lösung

Übungsblatt 2 - Lösung Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 2 - Lösung Vorlesung Algorithmentechnik im WS 08/09 Ausgabe 04. November 2008 Abgabe 8. November, 5:0 Uhr (im Kasten vor Zimmer

Mehr

Grundlagen: Algorithmen und Datenstrukturen

Grundlagen: Algorithmen und Datenstrukturen Technische Universität München Fakultät für Informatik Lehrstuhl für Effiziente Algorithmen Dr. Hanjo Täubig Tobias Lieber Sommersemester 011 Übungsblatt 6. August 011 Grundlagen: Algorithmen und Datenstrukturen

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

4.2 Minimale Spannbäume: Der Algorithmus von Jarník/Prim Definition 4.2.1

4.2 Minimale Spannbäume: Der Algorithmus von Jarník/Prim Definition 4.2.1 Allgemeines. Minimale Spannbäume: Der Algorithmus von Jarník/Prim Definition.. (a) Ein Graph G =(V, E) heißt kreisfrei, wenn er keinen Kreis besitzt. Beispiel: Ein kreisfreier Graph: FG KTuEA, TU Ilmenau

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Sommersemester 2007 11. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@bioinf.uni-leipzig.de Das Rucksack-Problem Ein Dieb, der einen Safe

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Sommersemester 2009 11. Vorlesung Uwe Quasthoff Universität Leipzig Institut für Informatik quasthoff@informatik.uni-leipzig.de Das Rucksack-Problem Ein Dieb, der einen

Mehr

Konstruktion der reellen Zahlen

Konstruktion der reellen Zahlen Konstruktion der reellen Zahlen Zur Wiederholung: Eine Menge K (mit mindestens zwei Elementen) heißt Körper, wenn für beliebige Elemente x, y K eindeutig eine Summe x+y K und ein Produkt x y K definiert

Mehr

Mathematik für Wirtschaftswissenschaftler

Mathematik für Wirtschaftswissenschaftler Mathematik für Wirtschaftswissenschaftler Yves Schneider Universität Luzern Frühjahr 2016 Repetition Kapitel 1 bis 3 2 / 54 Repetition Kapitel 1 bis 3 Ausgewählte Themen Kapitel 1 Ausgewählte Themen Kapitel

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Vollständigkeit. 1 Konstruktion der reellen Zahlen

Vollständigkeit. 1 Konstruktion der reellen Zahlen Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente

Mehr

6.6 Poisson-Verteilung

6.6 Poisson-Verteilung 6.6 Poisson-Verteilung Die Poisson-Verteilung ist eine Wahrscheinlichkeitsverteilung, die zur Modellierung der Anzahl von zufälligen Vorkommnissen in einem bestimmten räumlichen oder zeitlichen Abschnitt

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen VO 708.031 Um was geht es? Datenstrukturen Algorithmen Algorithmus Versuch einer Erklärung: Ein Algorithmus nimmt bestimmte Daten als Input und transformiert diese nach festen

Mehr

Das Suchproblem 4. Suchen Das Auswahlproblem Suche in Array

Das Suchproblem 4. Suchen Das Auswahlproblem Suche in Array Das Suchproblem Gegeben. Suchen Lineare Suche, Binäre Suche, Interpolationssuche, Untere Schranken [Ottman/Widmayer, Kap. 3.2, Cormen et al, Kap. 2: Problems 2.-3,2.2-3,2.3-] Menge von Datensätzen. Beispiele

Mehr

Definition 131 Sei R ein (kommutativer) Ring. Ein Polynom über R in der Variablen x ist eine Funktion p der Form

Definition 131 Sei R ein (kommutativer) Ring. Ein Polynom über R in der Variablen x ist eine Funktion p der Form 3. Polynome 3.1 Definition und Grundlagen Definition 131 Sei R ein (kommutativer) Ring. Ein Polynom über R in der Variablen x ist eine Funktion p der Form p(x) = a n x n + a n 1 x n 1 + + a 1 x + a 0,

Mehr

1.3 Erinnerung: Mergesort

1.3 Erinnerung: Mergesort Mergesort 1.3 Erinnerung: Mergesort Um n Zahlen/Objekte a 1,..., a n zu sortieren, geht der Mergesort-Algorithmus so vor: Falls n n 0 : Sortiere mit einem naiven Algorithmus (z. B. Insertion Sort). Sonst:

Mehr

3. Prozesse mit kontinuierlicher Zeit

3. Prozesse mit kontinuierlicher Zeit 3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess

Mehr

Testen von Hypothesen

Testen von Hypothesen Elke Warmuth Humboldt-Universität zu Berlin Sommersemster 2010 1 / 46 2 / 46 1 Testen von Hypothesen 3 / 46 Signifikant, signifikant, signifikant,... 4 / 46 Signifikant, signifikant, signifikant,... 5

Mehr

Nr. 4: Pseudo-Zufallszahlengeneratoren

Nr. 4: Pseudo-Zufallszahlengeneratoren Proseminar: Finanzmathematische Modelle und Simulationen Martin Dieckmann WS 09/0 Nr. 4: Pseudo-Zufallszahlengeneratoren Begriff Pseudo-Zufallszahl Zufallszahlen im Rechner entstehen letztlich immer durch

Mehr

Der Weg eines Betrunkenen

Der Weg eines Betrunkenen Der Weg eines Betrunkenen 2 Hätte es damals schon Computer gegeben, wäre es für unseren Mathematiker um einiges leichter gewesen, den Weg des Betrunkenen zu bestimmen. Er hätte nicht nur eine beliebige

Mehr

Heute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung

Heute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung Heute Die Binomialverteilung Poissonverteilung Approximation der Binomialverteilung durch die Normalverteilung Arbeiten mit Wahrscheinlichkeitsverteilungen Die Binomialverteilung Man werfe eine Münze n

Mehr

String - Matching. Kapitel Definition

String - Matching. Kapitel Definition Kapitel 1 String - Matching 1.1 Definition String - Matching ( übersetzt in etwa Zeichenkettenanpassung ) ist die Suche eines Musters ( Pattern ) in einem Text. Es findet beispielsweise Anwendung bei der

Mehr

Das Suchproblem. Gegeben Menge von Datensätzen. Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle

Das Suchproblem. Gegeben Menge von Datensätzen. Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle 122 4. Suchen Lineare Suche, Binäre Suche, Interpolationssuche, Untere Schranken [Ottman/Widmayer, Kap. 3.2, Cormen et al, Kap. 2: Problems 2.1-3,2.2-3,2.3-5] 123 Das Suchproblem Gegeben Menge von Datensätzen.

Mehr

Lernmodul 7 Algorithmus von Dijkstra

Lernmodul 7 Algorithmus von Dijkstra Folie 1 von 30 Lernmodul 7 Algorithmus von Dijkstra Quelle: http://www.map24.de Folie 2 von 30 Algorithmus von Dijkstra Übersicht Kürzester Weg von A nach B in einem Graphen Problemstellung: Suche einer

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung

5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung 5 Konfidenzschätzung 5. Einige Grundbegriffe zur Konfidenzschätzung Diesem Kapitel liegt das parametrische Modell {X, B X, P } mit P {P Θ} zugrunde. {Θ, B Θ } sei ein Meßraum über Θ und µ ein σ-finites

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Kapitel III Ringe und Körper

Kapitel III Ringe und Körper Kapitel III Ringe und Körper 1. Definitionen und Beispiele Definition 117 Eine Algebra A = S,,, 0, 1 mit zwei zweistelligen Operatoren und heißt ein Ring, falls R1. S,, 0 eine abelsche Gruppe mit neutralem

Mehr

Kapitel 5 Stochastische Unabhängigkeit

Kapitel 5 Stochastische Unabhängigkeit Kapitel 5 Stochastische Unabhängigkeit Vorlesung Wahrscheinlichkeitsrechnung I vom SoSe 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 5.1 Das Konzept der stochastischen Unabhängigkeit. 1 Herleitung anhand

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de

Mehr

7. Grenzwertsätze. Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012

7. Grenzwertsätze. Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 7. Grenzwertsätze Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Mittelwerte von Zufallsvariablen Wir betrachten die arithmetischen Mittelwerte X n = 1 n (X 1 + X 2 + + X n ) von unabhängigen

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN

TECHNISCHE UNIVERSITÄT MÜNCHEN TECHNISCHE UNIVERSITÄT MÜNCHEN Zentrum Mathematik PROF. DR.DR. JÜRGEN RICHTER-GEBERT, VANESSA KRUMMECK, MICHAEL PRÄHOFER Höhere Mathematik für Informatiker I Wintersemester 3/ Aufgabenblatt 6. Januar Präsenzaufgaben

Mehr

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe

Mehr

Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen

Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen Definition Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen Seminar über Algorithmen WS 2005/2006 Vorgetragen von Oliver Rieger und Patrick-Thomas Chmielewski basierend auf der Arbeit

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 3

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 3 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/14 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Einführung in die Wahrscheinlichkeitstheorie svorschläge zu Übungsblatt

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

2 Aufgaben aus [Teschl, Band 2]

2 Aufgaben aus [Teschl, Band 2] 20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:

Mehr