Planung von Handlungen bei unsicherer Information
|
|
- Dieter Winter
- vor 5 Jahren
- Abrufe
Transkript
1 Planung von Handlungen bei unsicherer Information Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
2 Gliederung 1 Unterschiede zwischen MDP und POMDP 2 Ein Beispiel für den POMDP-Algorithmus 3 Wertiteration in diesem Beispiel 4 Planung im Beispiel des einfachen Roboters Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
3 Mathematische Modellierung verrauschter Messungen MDP: die Effekte einer Aktion sind nichtdeterministisch. Nach Ausführung der optimalen policy ist der neue Zustand eindeutig bestimmt (als Effekt der ausgeführten Aktion). POMDP: der neue Zustand ist nicht eindeutig bekannt, wenn die ausgeführte Aktion bekannt ist. Stattdessen muss er über Messungen geschätzt werden. Über den neuen Zustand herrscht also zu jeder Zeit Unsicherheit. Beispiel Robertino Durch das Ausführen einer Fahrkommandos ist nicht eindeutig bestimmt, ob Robertino tatsächlich an der beabsichtigten Position angekommen ist. Robertino muss eine Messung durchführen, daraus die aktuelle Position schätzen und dann feststellen, ob er die beabsichtigte Position erreicht hat. Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
4 Schema eines Kontrollalgorithmus Robertino muss Planen, Planausführen und Messen verzahnen. Plan-Execute-Sense-Zyklus 1 Starte mit einer initialen Situation! 2 Berechne einen Plan! 3 Führe den ersten Schritt aus! 4 Messe die Umgebung und ermittle eine neue Situation! 5 Fahre bei 2 fort! Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
5 Initiale Situation in einem Markov-Prozess Bewegungsmodell Wie bei einem MDP wird Robertinos Bewegung als nichtdeterministische Funktion P(X t = x t X t 1 = x t 1, U t = u t ) modelliert. Umgebungsmodell Jede Zelle gibt an, mit welcher Wahrscheinlichkeit sich Robertino in ihr aufhalten kann. Je heller die Farbe, desto höher die Wahrscheinlichkeit. Dabei sind X t, X t 1 und U t (den Nichtdeterminismus beschreibende) Zufallsvariable. x t, x t 1 und u t sind zulässige Ergebnisse der Zufallsexperimente, d.h. befahrbare Positionen in der Karte bzw. erlaubte Fahranweisungen. Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
6 Berücksichtigung von Messwerten (Sensormodell) Messergebnisse hängen von Robertinos Position ab. Da Sensoren verrauscht sind, ist die Abbildung Robertino auf Position x gemessener Wert ist z nichtdeterministisch und wird durch eine stochastische Funktion P(Z t = z t X t = x t ) modelliert. Experiment zur Bestimmung des Sensormodells Stelle Robertino auf eine definierte Position ˆx. Führe N Messungen durch mit den Ergebnissen { 1 z,..., N z}. Ermittle P(Z = i z X = ˆx) = #(Z =i z, X = ˆx) #(X = ˆx) Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
7 Modell eines einfachen Roboters u 3 u 3 z 1 z 2 u 3 x 1 x 2 z 1 z 2 u 3 u 1 u 2 u 1 u 2 Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
8 Modell eines einfachen Roboters Wir geben den Zuständen zunächst eine anschauliche Erklärung: Interpretation des Zustandsautomaten Zustände x1 : Hindernis voraus x2 : Hindernis hinten Messungen z 1 : neues Hindernis voraus erkannt z2 : neues Hindernis hinten erkannt Aktionen u1 : fahre vorwärts u 2 : fahre rückwärts u3 : drehe dich um Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
9 Modell eines einfachen Roboters Zustandsübergang des Kontrollautomaten p(x 1 x 1, u 3 ) = 0.2 p(x 2 x 1, u 3 ) = 0.8 p(x 1 x 2, u 3 ) = 0.8 p(x 2 x 2, u 3 ) = 0.2 Sensormodell Payoffs p(z 1 x 1 ) = 0.7 p(z 2 x 1 ) = 0.3 p(z 1 x 2 ) = 0.3 p(z 2 x 2 ) = 0.7 r(x 1, u 1 ) = 100 r(x 2, u 1 ) = 100 r(x 1, u 2 ) = 100 r(x 2, u 2 ) = 50 r(x 1, u 3 ) = 1 r(x 2, u 3 ) = 1 Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
10 Modell eines einfachen Roboters Die Strategie bildet probabilistische Annahmen über Zustände auf Kontrollaktionen ab: π : [0, 1] n {u 1, u 2, u 3 } Bei endlich vielen Zuständen kann eine Annahme als Vektor von Wahrscheinlichkeiten formalisiert werden: b = (P(x 1 ), P(x 2 ),..., P(x n )) = (p 1,..., p N ) Dafür kann man ein Histogramm angeben. Der reward für b und die Aktion u ist der erwartete payoff über alle Zustände: r(b, u) = P(x) r(x, u) x {x 1,...,x n} Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
11 Auswahl der nächsten Steueranweisung In diesem Beispiel wissen wir: p 2 = 1 p 1. Berechnung des payoff für jede Steueranweisung: Graphisch: r(b, u 1 ) = 100p p 2 = 200p r(b, u 2 ) = 100p 1 50p 2 = 150p 1 50 r(b, u 3 ) = p 1 p 2 = 1 Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
12 Auswahl der nächsten Steueranweisung Die Berechnung von V T (b) (Planungshorizont T=1) läuft darauf hinaus, diejenige Steueranweisung zu finden, die den erwarteten payoff maximiert: V T (b) = max r(b, u) = max { 200p 1+100, 150p 1 50} u {u 1,u 2,u 3 } u {u 1,u 2,u 3 } Welche Aktion im ersten Schritt optimal ist, hängt also davon ab, welche Annahme für die Planung initial ist. Für V (b) erhalten wir also die folgende T = 1-optimale Strategie: π 1 (b) = { u1 falls p(x 1 ) 3 7 u 2 falls p(x 1 ) > 3 7 Schlussfolgerung: V 1 (b) ist eine stückweise lineare Funktion. Die Linearität folgt aus der Linearität des Erwartungswerts. Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
13 Effekt der Ausführung der optimalen policy Das Ausführen des besten Aktion ändert den Zustand des Systems. Die Änderung ist abhängig davon, wie wahrscheinlich welcher Zustandsübergang ist. Bei gegebener Annahme b und gegebener Aktion u {u 1, u 2, u 3 } gilt im Beispiel: u = u 1 oder u = u 2 : b P(X = x 1 ) P(X = x 2 ) P(X = e) = X = x 1 X = x 2 X = e x i, u x i, u x i, u b P(X = x 1 ) P(X = x 2 ) P(X = e) Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
14 Effekt der Ausführung der optimalen policy Das ergibt: p 1 p 2 0 = Das System erreicht also sicher den Endzustand. Für u = u 3 : p 1 p 2 0 ( ) p1 = p 1 Die Annahme verschiebt sich von (p 1 p 2 ) zu (p 1 p 2 ). Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
15 Messungen Zur Bestimmung der optimalen Aktion im ersten Schritt wurde der auf Grund einer angenommenen Verteilung für die Wahrscheinlichkeit der Position erwartete Nutzen herangezogen: r(b, u) = x P(x) r(x, u) Der Nutzen der Aktionen im zweiten Schritt hängt von der auf Grund der ersten Aktion zu erwartenden Verteilung für die Position des Robtors ab: V 2 (b) = max r(b, u) + P(b u, b) V 1 (b ) u b Der Nutzen für zwei aufeinanderfolgende Aktionen ist also der Nutzen für die erste Aktion plus dem auf Grund der neuen Annahme b für die zweite Aktion erwarteten Nutzen. Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
16 Messungen Der Suchraum für policies besteht also aus der Menge aller Wahrscheinlichkeitsverteilungen über die Verteilung P(b)! Die Wahrscheinlichkeit P(b u, b) fragt ja danach, wie wahrscheinlich die Verteilung b ist, wenn die letzte Aktion u und die letzte Hypothese b bekannt sind. Suchraum des einfachen Roboters Im Beispiel ist b eine Funktion der Wahrscheinlichkeit p1, mit der Robertino sich im Zustand x 1 befindet. Denn: P(x 2 ) := p 2 = 1 p 1 Nach der ersten Aktion wird P(x 1 ) von der durch u ausgelösten Wahrscheinlichkeit beeinflusst, mit der Robertino in einen anderen Zustand gelangt: z.b.: P(x 1 u, x 1 ) P(x 1 ) wird außerdem durch die Messungen nach u beeinflusst. Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
17 Messungen Beim Planen zukünftiger Aktionen können die Messungen aber nicht bekannt sein, weil sie ja noch gar nicht durchgeführt wurden! Wir müssen uns also auf den Erwartungswert der durchzuführenden Messungen beschränken: Schätzung neuer Annahmen P(b u, b) = z = z = z P(b, u, b, z) P(u, b) P(b z, u, b) P(z, u, b) P(u, b) P(z u, b) P(b z, u, b) = E z u,b (b z, u, b) Wir summieren nicht über u und b, weil beide bekannt sind! Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
18 Berechnung von V T (b) bei T > 1 Wir können jetzt unsere Formel für V 2 (b) aktualisieren: V 2 (b) = max r(b, u) + P(b u, b) V 1 (b ) u b = max r(b, u) + P(z u, b) P(b z, u, b) V 1 (b ) u b z Das Summieren über b bedeutet extrem viel Rechenaufwand. Wenn die Verteilung b kontinuierlich ist, muss die Summe sogar durch ein Integral ersetzt werden. Das ist der allgemeine Fall eines POMDP: ( ) V T (b ) = P(z u, b) P(b z, u, b)dz V 1 (b )db Müssen wir wirklich immer den ganzen Suchraum durchgehen? Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
19 Berechnung von V T (b) bei T > 1 Die Antwort liefert eine Analyse des Plan-Execute-Sense-Zyklus: Welche Wahrscheinlichkeiten benutzt Robertino in einer aktuellen Situation? Robertino wird mit einer initialen Annahme b 0 gestartet. Damit ist eine Wahrscheinlichkeitsverteilung fixiert. Dann führt Robertino eine Aktion u1 aus. Die zu erwartenden Messungen sind durch b0 und u 1 determiniert! Das Modell eines einfachen Roboters gibt an, wie für jede mögliche Position ihre neue Wahrscheinlichkeit bei festem b 0 und u 1 berechnet wird: P( ) = x P( u 1, x) P(x) wird über u 1 von jedem x mit P( u 1, x) erreicht! Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
20 Berechnung von V T (b) bei T > 1 Damit ist eine Wahrscheinlichkeitsverteilung b fixiert: { P(b 1 für genau dieses b z, u, b) = 0 für alle anderen Annahmen Die Formel V 2 (b) = max r(b, u) + u b P(z u, b) P(b z, u, b) V 1 (b ) z vereinfacht sich also zu: V 2 (b) = max r(b, u) + u z P(z u, b) V 1 (b (b, u, z)) Die Annahme über Robertinos Position kann nun nur noch von den Messungen beeinflusst werden. Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
21 Berechnung von V T (b) bei T > 1 Rekursive Berechnung von V 1 (b (b, u, z)): V 1 (b b,u,z ) = max r(b b,u,z, u ) = max P( b, u, z) r(, ) jetzt greift das Modell des einfachen Roboters = max x P(, b, u, z, x) P(b, u, z) r(, ) Jetzt schreiben wir die stochastische Abhängigkeit der Zufallsvariablen so, dass sich das Sensormodell anwenden läßt: max x max x P(, b, u, z, x) P(b, u, z) P(z, b, u, x) P(, b, u, x) P(b, u, z) r(, ) = r(, ) Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
22 Berechnung von V T (b) bei T > 1 max Die Messung nach Ausführung von u hängt nicht von der Position und der Annahme vor der Ausführung ab: max x max max x max x P(z, b, u, x) P(, b, u, x) P(b, u, z) x P(z, u) P(, b, u, x) P(b, u, z) P(z, u) P( b, u, x) P(b, u, x) P(b, u, z) P(z, u) P( b, u, x) P(x b, u) P(b, u) P(z b, u) P(b, u) x P(z, u) P( b, u, x) P(x b, u) P(z b, u) r(, ) = r(, ) = r(, ) = r(, ) = r(, ) Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
23 Berechnung von V T (b) bei T > 1 Der Zustandsübergang von x nach hängt nicht von anderen Positionen als x ab: max max x x P(z, u) P( b, u, x) P(x b, u) P(z b, u) P(z, u) P( u, x) P(x b, u) P(z b, u) x hängt nicht von der nachfolgenden Aktion ab: max x Bei fixiertem b gilt: P(b) = 1: max x P(z, u) P( u, x) P(x b) P(z b, u) P(z, u) P( u, x) P(x) P(z b, u) r(, ) = r(, ) = r(, ) = r(, ) Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
24 Berechnung von V T (b) bei T > 1 Laut Sensormodell hängt z nicht von u ab: max x P(z, u) P( u, x) P(x) P(z b, u) r(, ) = 1 P(z b, u) max P(z ) P( u, x) P(x) r(, ) Insgesamt ergibt sich: V 2 (b) = max r(b, u) + u P(z u, b) z = max r(b, u) + u z x max P(z ) P( u, x) P(x),x max r(, ) P(z b, u) P(z ) P( u, x) P(x) r(, ),x Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
25 Planung von zwei Schritten Zur Berechnung von V 2 (b) muss diejenige Kombination für (u, ) gefunden werden, die den Wert von V 2 (b) maximiert: u = u 1 u = u 2 u = u 3 = u 1 = u 2... V 2 (b u,)... = u 3 In den beiden Fällen u = u 1 und u = u 2 gilt nach dem Modell des einfachen Roboters: Damit ergibt sich: V 2 (b u 1 ) = r(b, u 1 ) = x x, : P( u, x) = 0 P(x) r(x, u 1 ) = 200 p V 2 (b u 2 ) = r(b, u 2 ) = x P(x) r(x, u 2 ) = 150p 1 50 Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
26 Planung von zwei Schritten Komplexer ist der Fall u = u 3 : 60 p 1 50 V 2 (b) = 1+max 51 p z , 24 p 1 0, 62 +max z 2 60 p p , 24 p 1 0, 38 Eine obere Schranke dafür ist: V 2 (b) = 1 + max 120 p p , 76 p 1 50, 38 9 p p , 24 p , 62 60, 24 p 1 10, 62 35, 76 p , 38 1 Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
27 Finden des Maximums Welchen Wert hat V 2 (b) für u 3 in Abhängigkeit von p 1? Alle linearen Funktionen, aus denen das Maximum ermittelt werden soll, in einem Koordinatensystem. Davon sind nicht alle wichtig. Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
28 Finden des Maximums Wir müssen auch die Aktionen u 1 und u 2 berücksichtigen. Jede liefert eine weitere lineare Funktion: Alle linearen Funktionen für u 1, u 2 und u 3. Entscheidend sind nur drei Funktionen. V 2 (b) ist eine stückweise lineare Funktion. Die Linearität rührt aus der Linearität des Erwartungswerts. Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28
3. Das Reinforcement Lernproblem
3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität
MehrReasoning and decision-making under uncertainty
Reasoning and decision-making under uncertainty 9. Vorlesung Actions, interventions and complex decisions Sebastian Ptock AG Sociable Agents Rückblick: Decision-Making A decision leads to states with values,
MehrBayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
MehrLernen von optimalen Strategien
Lernen von optimalen Strategien Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 13.01.2010 Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning 13.01.2010
MehrKlassifikation von Daten Einleitung
Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung
Mehr3. Prozesse mit kontinuierlicher Zeit
3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess
MehrLösungsskizzen zur Präsenzübung 09
Lösungsskizzen zur Präsenzübung 09 Hilfestellung zur Vorlesung Anwendungen der Mathematik im Wintersemester 2015/2016 Fakultät für Mathematik Universität Bielefeld Veröffentlicht am 07. Februar 2016 von:
MehrBayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur
Mehr3 Wahrscheinlichkeitstheorie
Einige mathematische Konzepte 3 Wahrscheinlichkeitstheorie 3.1 Wahrscheinlichkeit Die Wahrscheinlichkeitstheorie modelliert Situationen, in denen Unsicherheit über bestimmte Aspekte der Umwelt vorherrscht.
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
MehrDer diskrete Kalman Filter
Der diskrete Kalman Filter Fachbereich: Informatik Betreuer: Marc Drassler Patrick Winkler 1168954 6. Dezember 2004 Technische Universität Darmstadt Simulation und Systemoptimierung Darmstadt Dribbling
MehrDatenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
Datenanalyse (PHY31) Herbstsemester 015 Olaf Steinkamp 36-J- olafs@physik.uzh.ch 044 63 55763 Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und
MehrProf. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006
Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand
MehrIn einem mathematischen Modell wird dies beschrieben durch einen funktionalen Zusammenhang: x = f (t).
Aktueller Überblick 0 Einführende Worte ( ) 1 Geschichtlicher Überblick ( ) 2 Zufall 3 Perfekte Sicherheit und ihre Grenzen 4 Angriffsszenarien 5 Der komplexitätstheoretische Ansatz 6 Pseudozufallsgeneratoren
MehrÜbersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrErwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung
R. Brinkmann http://brinkmann-du.de Seite 5.05.0 Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung Erwartungswert binomialverteilter Zufallsgrößen Wird ein Bernoulli- Versuch, bei
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrTeil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation
Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit
MehrStatistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II
Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte
Mehr2. Beispiel: n-armiger Bandit
2. Beispiel: n-armiger Bandit 1. Das Problem des n-armigen Banditen 2. Methoden zur Berechung von Wert-Funktionen 3. Softmax-Auswahl von Aktionen 4. Inkrementelle Schätzverfahren 5. Nichtstationärer n-armiger
MehrStochastische dynamische Optimierung
Bisher: Neuer Zustand s 0 auf Stufe n +1istdurchaltenZustands auf Stufe n und Aktion a eindeutig bestimmt. s 0 = z n (s, a) Jetzt: Neuer Zustand s 0 ist zusätzlich vom Zufall abhängig. Genauer: Zufallsvariable,
MehrReinforcement Learning
Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied
MehrZufallsgröße: X : Ω R mit X : ω Anzahl der geworfenen K`s
4. Zufallsgrößen =============================================================== 4.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
MehrStochastik 03 Zufallsgröÿen und Verteilung
29. August 2018 Grundlagen der Stochastik (bis Klasse 10) Grundlagen der Statistik (bis Klasse 10) Zufallsgrößen und Verteilungen Beurteilende Statistik (Testen von Hypothesen) Bernoulli-Experimente Ziele
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
MehrKapitel II - Entscheidungen bei Informationen über den wahren Zustand
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel II - Entscheidungen bei Informationen über den wahren Zustand Induktive Statistik Prof. Dr. W.-D. Heller Hartwig
Mehr8. Reinforcement Learning
8. Reinforcement Learning Einführung 8. Reinforcement Learning Wie können Agenten ohne Trainingsbeispiele lernen? Auch kennt der Agent zu Beginn nicht die Auswirkungen seiner Handlungen. Stattdessen erhält
MehrGibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells
Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren
MehrStochastik 04 Binomialverteilung
03. September 2018 Grundlagen der Stochastik (bis Klasse 10) Grundlagen der Statistik (bis Klasse 10) Zufallsgrößen und Verteilungen Beurteilende Statistik (Testen von Hypothesen) Bernoulli-Experimente
MehrKalmanfiter (1) Typische Situation für den Einsatz von Kalman-Filtern
Kalmanfiter (1) Typische Situation für den Einsatz von Kalman-Filtern Vorlesung Robotik SS 016 Kalmanfiter () Kalman-Filter: optimaler rekursiver Datenverarbeitungsalgorithmus optimal hängt vom gewählten
MehrReinforcement Learning
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte
MehrModellierung- und Simulation Mathis Plewa ( )
Inhaltsverzeichnis Abbildungsverzeichnis... 1 Übungsaufgabe: Zufallsgeneratoren und Histogramme... 2 Standard Gleichverteilung... 2 Gaußverteilung... 3 Exponentialverteilung... 4 Übungsaufgabe: Geometrische
MehrP (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
MehrKapitel 3 Ereignisdiskrete Systeme (III)
Systemmodellierung Teil 1: Ereignisdiskrete Systeme Kapitel 3 Ereignisdiskrete Systeme (III) Modellierung mit E/A-Automaten Modellbildung mit Automaten Verfeinerte Modellbildung Beispiel: Fahrstuhltür
MehrVorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine diskrete reellwertige Zufallsvariable, d.h. eine ZV e mit Wertebereich R (oder einer Teilmenge davon), sodass eine
MehrWAHRSCHEINLICHKEITSRECHNUNG
WAHRSCHEINLICHKEITSRECHNUNG Mathematischer Teil In der Wahrscheinlichkeitsrechnung haben wir es mit Zufallsexperimenten zu tun, d.h. Ausgang nicht vorhersagbar. Grundbegriffe Zufallsexperiment und Ergebnisse
Mehra) Stellen Sie das Diagramm Geschwindigkeits Zeit Diagramm für eine geeignete Kombination von Massen und dar.
Atwood sche Fallmaschine Die kann zum Bestimmen der Erdbeschleunigung und zum Darstellen der Zusammenhänge zwischen Weg, Geschwindigkeit und Beschleunigung verwendet werden. 1) Aufgaben a) Stellen Sie
MehrBayes sche und probabilistische Netze
Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung
Mehr1. Einführung in die induktive Statistik
Wichtige Begriffe 1. Einführung in die induktive Statistik Grundgesamtheit: Statistische Masse, die zu untersuchen ist, bzw. über die Aussagen getroffen werden soll Stichprobe: Teil einer statistischen
MehrÜberblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator
Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrKapitel 3 Ereignisdiskrete Systeme (II)
Modellierung und Simulation mechatronischer Systeme Kaitel Ereignisdisrete Systeme II Modellierung mit autonomen Automaten Deterministische Automaten Bei den bisher betrachteten Beisielen handelte es sich
MehrFehlerrechnung. Bei physikalisch-technischen Messungen können systematische und zufällige Fehler auftreten.
Seite 1 / 6 H.C. iehuus Fehlerrechnung Bei physikalisch-technischen Messungen können systematische und zufällige Fehler auftreten. Systematische Fehler erzeugen systematische Effekte. Falsch kalibrierte
MehrStatistik I für Betriebswirte Vorlesung 2
Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April
MehrKapitel 2 Ereignisdiskrete Systeme (II)
Systemmodellierung Teil : Ereignisdisrete Systeme Kaitel 2 Ereignisdisrete Systeme II Modellierung mit autonomen Automaten Deterministische Automaten SM Bei den bisher betrachteten Beisielen handelte es
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrBeispiel: Positionsschätzung
Das Kalman Filter Beispiel: Positionsschätzung Beispiel: Positionsschätzung. Messung: mit Varianz Daraus abgeleitete Positionsschätzung: mit Varianz ˆX = = f f ( y ) y 3 Beispiel: Positionsschätzung. Messung:
MehrFast-SLAM: Synchrone Lokalisierung und Kartenerstellung mit einem Partikel-Filter
Fast-SLAM: Synchrone Lokalisierung und Kartenerstellung mit einem Partikel-Filter! Landmarkenbasiertes Fast-SLAM! Gitterbasiertes Fast-Slam! Optimierungen Prof. Dr. O. Bittel, HTWG Konstanz Autonome Roboter
MehrMit e 0 für alle x IR ergeben sich aus 2 x+ x = 0 die Nullstellen 0 und 2. 2 b) Ableitung mit der Produktregel und Ausklammern der e-funktion 3
Aufgaben aus dem Aufgabenpool. Analysis A_ Gegeben ist die Funktion f mit x f(x) = e ( x + x ) (x IR). a) Bestimmen Sie die Nullstellen der Funktion f. ( ) x b) Zeigen Sie, dass die Funktion F mit F(x)
MehrHidden Markov Modelle
Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
MehrDie ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist.
.3. Stochastik Grundlagen Die ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist. Die RELATIVE HÄUFIGKEIT einer Merkmalsausprägung gibt an mit welchem Anteil
MehrSeminar zur Energiewirtschaft:
Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable
MehrLösungsskizzen zur Präsenzübung 08
Lösungsskizzen zur Präsenzübung 08 Hilfestellung zur Vorlesung Anwendungen der Mathematik im Wintersemester 015/016 Fakultät für Mathematik Universität Bielefeld Veröffentlicht am 07. Februar 016 von:
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen
MehrIntelligente Roboter
64-424 Intelligente Roboter 64-424 Intelligente Roboter http://tams.informatik.uni-hamburg.de/ lectures/2010ws/vorlesung/ir Jianwei Zhang Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrBestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler
6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation
MehrPraktikum Optische Technologien Anleitung zum Versuch Dicke Linsen
Fachbereich Energietechnik Lehrgebiet für Lasertechnik und Optische Technologien Prof. Dr. F.-M. Rateike Praktikum Optische Technologien Anleitung zum Versuch Dicke Linsen August 204 Praktikum Optische
MehrKinga Szűcs
Kinga Szűcs 25.10.2011 Die Schülerinnen und Schüler werten graphische Darstellungen und Tabellen von statistischen Erhebungen aus, planen statistische Erhebungen, sammeln systematisch Daten, erfassen sie
Mehr73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments
73 Hypothesentests 73.1 Motivation Bei Hypothesentests will man eine gewisse Annahme über eine Zufallsvariable darauf hin überprüfen, ob sie korrekt ist. Beispiele: ( Ist eine Münze fair p = 1 )? 2 Sind
MehrStatistische Sprachmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch
Mehr5 Binomial- und Poissonverteilung
45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1
MehrWahrscheinlichkeit3 Binomialverteilung/Bernoulli-Formel
Wahrscheinlichkeit3 Binomialverteilung/Bernoulli-Formel Aufgaben Lösen Sie A1 und A sowohl mit der Bernoulli-Formel als auch mit dem TR(BV), die anderen Aufgaben lösen sie mit dem TR(BV). A1 Eine Familie
MehrZufallsvariablen. Erwartungswert. Median. Perzentilen
Zufallsvariablen. Erwartungswert. Median. Perzentilen Jörn Loviscach Versionsstand: 22. Januar 2010, 10:46 1 Zufallsvariablen Wenn ein Zufallsexperiment eine Zahl als Ergebnis liefert, nennt man diese
MehrDas Sammler-Problem. Anja Bergdolt. 11. Januar 2018
Das Sammler-Problem Anja Bergdolt 11. Januar 2018 Abbildung: Das Album enthält 640 Bildchen, und wir nehmen an, dass jedes Bildchen 10 Cent kostet. [1] Schätzfrage Wie viel kostet es das Album komplett
Mehr67 Zufallsvariable, Erwartungswert, Varianz
67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In
MehrBiomathematik für Mediziner, Klausur WS 1999/2000 Seite 1
Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1 Aufgabe 1: Wieviele der folgenden Variablen sind quantitativ stetig? Schulnoten, Familienstand, Religion, Steuerklasse, Alter, Reaktionszeit, Fahrzeit,
MehrMathematische und statistische Methoden II
Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2011 / 2012 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrBiostatistik, Sommer 2017
1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017
MehrProbleme lösen mit Hilfe von Ableitungen, Extrem- und Wendepunkten
Kompetenzen und Inhalte des Bildungsplans Unterrichtsinhalte Die Schülerinnen und Schüler können - besondere Eigenschaften von Funktionen rechnerisch und mithilfe des GTR bestimmen; Bestimmung von Extrem-
MehrMathematik für Naturwissenschaften, Teil 2
Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg 2 R. 06-206 (Persike) R. 06-214 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
MehrSequentielle Entscheidungsprobleme. Übersicht. MDP (Markov Decision Process) MDP und POMDP. Beispiel für sequentielles Planungsproblem
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches
MehrAbitur 2013 Mathematik NT Stochastik S II
Seite 1 http://www.abiturloesung.de/ Seite 2 Abitur 2013 Mathematik NT Stochastik S II Eine Agentur vertreibt Tickets für Sportveranstaltungen ( S ), Konzerte ( K ), Musicals ( M ) und Eventreisen ( E
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrÜbungsblatt 7 zur Vorlesung Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker
Aufgabe Aufgabe 2 Übungsblatt 7 zur Vorlesung Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker.2.202 Aufgabe Aufgabe 2 Bei einem Zufallsexperiment werden zwei Würfel geworfen und
MehrAnfänger-Praktikum I WS 11/12. Michael Seidling Timo Raab Enrico Mank. Praktikumsbericht: Galton-Brett
Anfänger-Praktikum I WS 11/12 Michael Seidling Timo Raab Enrico Mank Praktikumsbericht: Galton-Brett Inhaltsverzeichnis Inhaltsverzeichnis I. Theoretische Grundlagen 2 1. Zentraler Grenzwertsatz 2 2. Binomialverteilung
Mehr6.6 Poisson-Verteilung
6.6 Poisson-Verteilung Die Poisson-Verteilung ist eine Wahrscheinlichkeitsverteilung, die zur Modellierung der Anzahl von zufälligen Vorkommnissen in einem bestimmten räumlichen oder zeitlichen Abschnitt
Mehr8 Verteilungsfunktionen und Dichten
8 Verteilungsfunktionen und Dichten 8.1 Satz und Definition (Dichten) Eine Funktion f : R R heißt Dichtefunktion, kurz Dichte, wenn sie (Riemann-) integrierbar ist mit f(t) 0 für alle t R und Setzt man
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
MehrKombinatorische Spiele mit Zufallselementen
Kombinatorische Spiele mit Zufallselementen Die Realität ist nicht so streng determiniert wie rein kombinatorische Spiele. In vielen Situationen spielt der Zufall (Risko) eine nicht zu vernachlässigende
MehrAufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /
Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =
MehrWahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)
Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung
MehrLösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten
Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
MehrWahrscheinlichkeitsverteilungen
Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet
MehrDr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung
Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer 014 Musterlösung 1. 8 Punkte) a) 1 Pt)Für das Komplement gilt PR A) = 1 PR c A) = 0.968. b) 1 Pt)Nach Definition der bedingten Wahrscheinlichkeit
MehrSprechstunde zur Klausurvorbereitung
htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)
MehrPerzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
MehrISBN
1 Zeitraum Ziele / Inhalte (Sach- und Methodenkompetenz) Klassenarbeit Analysis Grenzwerte 1. Die explizite und rekursive Beschreibung von Zahlenfolgen verstehen und Eigenschaften von Zahlenfolgen kennen
MehrBerechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen
Definition Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen Seminar über Algorithmen WS 2005/2006 Vorgetragen von Oliver Rieger und Patrick-Thomas Chmielewski basierend auf der Arbeit
Mehr7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.
7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe
Mehr