Planung von Handlungen bei unsicherer Information

Größe: px
Ab Seite anzeigen:

Download "Planung von Handlungen bei unsicherer Information"

Transkript

1 Planung von Handlungen bei unsicherer Information Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

2 Gliederung 1 Unterschiede zwischen MDP und POMDP 2 Ein Beispiel für den POMDP-Algorithmus 3 Wertiteration in diesem Beispiel 4 Planung im Beispiel des einfachen Roboters Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

3 Mathematische Modellierung verrauschter Messungen MDP: die Effekte einer Aktion sind nichtdeterministisch. Nach Ausführung der optimalen policy ist der neue Zustand eindeutig bestimmt (als Effekt der ausgeführten Aktion). POMDP: der neue Zustand ist nicht eindeutig bekannt, wenn die ausgeführte Aktion bekannt ist. Stattdessen muss er über Messungen geschätzt werden. Über den neuen Zustand herrscht also zu jeder Zeit Unsicherheit. Beispiel Robertino Durch das Ausführen einer Fahrkommandos ist nicht eindeutig bestimmt, ob Robertino tatsächlich an der beabsichtigten Position angekommen ist. Robertino muss eine Messung durchführen, daraus die aktuelle Position schätzen und dann feststellen, ob er die beabsichtigte Position erreicht hat. Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

4 Schema eines Kontrollalgorithmus Robertino muss Planen, Planausführen und Messen verzahnen. Plan-Execute-Sense-Zyklus 1 Starte mit einer initialen Situation! 2 Berechne einen Plan! 3 Führe den ersten Schritt aus! 4 Messe die Umgebung und ermittle eine neue Situation! 5 Fahre bei 2 fort! Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

5 Initiale Situation in einem Markov-Prozess Bewegungsmodell Wie bei einem MDP wird Robertinos Bewegung als nichtdeterministische Funktion P(X t = x t X t 1 = x t 1, U t = u t ) modelliert. Umgebungsmodell Jede Zelle gibt an, mit welcher Wahrscheinlichkeit sich Robertino in ihr aufhalten kann. Je heller die Farbe, desto höher die Wahrscheinlichkeit. Dabei sind X t, X t 1 und U t (den Nichtdeterminismus beschreibende) Zufallsvariable. x t, x t 1 und u t sind zulässige Ergebnisse der Zufallsexperimente, d.h. befahrbare Positionen in der Karte bzw. erlaubte Fahranweisungen. Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

6 Berücksichtigung von Messwerten (Sensormodell) Messergebnisse hängen von Robertinos Position ab. Da Sensoren verrauscht sind, ist die Abbildung Robertino auf Position x gemessener Wert ist z nichtdeterministisch und wird durch eine stochastische Funktion P(Z t = z t X t = x t ) modelliert. Experiment zur Bestimmung des Sensormodells Stelle Robertino auf eine definierte Position ˆx. Führe N Messungen durch mit den Ergebnissen { 1 z,..., N z}. Ermittle P(Z = i z X = ˆx) = #(Z =i z, X = ˆx) #(X = ˆx) Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

7 Modell eines einfachen Roboters u 3 u 3 z 1 z 2 u 3 x 1 x 2 z 1 z 2 u 3 u 1 u 2 u 1 u 2 Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

8 Modell eines einfachen Roboters Wir geben den Zuständen zunächst eine anschauliche Erklärung: Interpretation des Zustandsautomaten Zustände x1 : Hindernis voraus x2 : Hindernis hinten Messungen z 1 : neues Hindernis voraus erkannt z2 : neues Hindernis hinten erkannt Aktionen u1 : fahre vorwärts u 2 : fahre rückwärts u3 : drehe dich um Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

9 Modell eines einfachen Roboters Zustandsübergang des Kontrollautomaten p(x 1 x 1, u 3 ) = 0.2 p(x 2 x 1, u 3 ) = 0.8 p(x 1 x 2, u 3 ) = 0.8 p(x 2 x 2, u 3 ) = 0.2 Sensormodell Payoffs p(z 1 x 1 ) = 0.7 p(z 2 x 1 ) = 0.3 p(z 1 x 2 ) = 0.3 p(z 2 x 2 ) = 0.7 r(x 1, u 1 ) = 100 r(x 2, u 1 ) = 100 r(x 1, u 2 ) = 100 r(x 2, u 2 ) = 50 r(x 1, u 3 ) = 1 r(x 2, u 3 ) = 1 Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

10 Modell eines einfachen Roboters Die Strategie bildet probabilistische Annahmen über Zustände auf Kontrollaktionen ab: π : [0, 1] n {u 1, u 2, u 3 } Bei endlich vielen Zuständen kann eine Annahme als Vektor von Wahrscheinlichkeiten formalisiert werden: b = (P(x 1 ), P(x 2 ),..., P(x n )) = (p 1,..., p N ) Dafür kann man ein Histogramm angeben. Der reward für b und die Aktion u ist der erwartete payoff über alle Zustände: r(b, u) = P(x) r(x, u) x {x 1,...,x n} Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

11 Auswahl der nächsten Steueranweisung In diesem Beispiel wissen wir: p 2 = 1 p 1. Berechnung des payoff für jede Steueranweisung: Graphisch: r(b, u 1 ) = 100p p 2 = 200p r(b, u 2 ) = 100p 1 50p 2 = 150p 1 50 r(b, u 3 ) = p 1 p 2 = 1 Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

12 Auswahl der nächsten Steueranweisung Die Berechnung von V T (b) (Planungshorizont T=1) läuft darauf hinaus, diejenige Steueranweisung zu finden, die den erwarteten payoff maximiert: V T (b) = max r(b, u) = max { 200p 1+100, 150p 1 50} u {u 1,u 2,u 3 } u {u 1,u 2,u 3 } Welche Aktion im ersten Schritt optimal ist, hängt also davon ab, welche Annahme für die Planung initial ist. Für V (b) erhalten wir also die folgende T = 1-optimale Strategie: π 1 (b) = { u1 falls p(x 1 ) 3 7 u 2 falls p(x 1 ) > 3 7 Schlussfolgerung: V 1 (b) ist eine stückweise lineare Funktion. Die Linearität folgt aus der Linearität des Erwartungswerts. Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

13 Effekt der Ausführung der optimalen policy Das Ausführen des besten Aktion ändert den Zustand des Systems. Die Änderung ist abhängig davon, wie wahrscheinlich welcher Zustandsübergang ist. Bei gegebener Annahme b und gegebener Aktion u {u 1, u 2, u 3 } gilt im Beispiel: u = u 1 oder u = u 2 : b P(X = x 1 ) P(X = x 2 ) P(X = e) = X = x 1 X = x 2 X = e x i, u x i, u x i, u b P(X = x 1 ) P(X = x 2 ) P(X = e) Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

14 Effekt der Ausführung der optimalen policy Das ergibt: p 1 p 2 0 = Das System erreicht also sicher den Endzustand. Für u = u 3 : p 1 p 2 0 ( ) p1 = p 1 Die Annahme verschiebt sich von (p 1 p 2 ) zu (p 1 p 2 ). Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

15 Messungen Zur Bestimmung der optimalen Aktion im ersten Schritt wurde der auf Grund einer angenommenen Verteilung für die Wahrscheinlichkeit der Position erwartete Nutzen herangezogen: r(b, u) = x P(x) r(x, u) Der Nutzen der Aktionen im zweiten Schritt hängt von der auf Grund der ersten Aktion zu erwartenden Verteilung für die Position des Robtors ab: V 2 (b) = max r(b, u) + P(b u, b) V 1 (b ) u b Der Nutzen für zwei aufeinanderfolgende Aktionen ist also der Nutzen für die erste Aktion plus dem auf Grund der neuen Annahme b für die zweite Aktion erwarteten Nutzen. Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

16 Messungen Der Suchraum für policies besteht also aus der Menge aller Wahrscheinlichkeitsverteilungen über die Verteilung P(b)! Die Wahrscheinlichkeit P(b u, b) fragt ja danach, wie wahrscheinlich die Verteilung b ist, wenn die letzte Aktion u und die letzte Hypothese b bekannt sind. Suchraum des einfachen Roboters Im Beispiel ist b eine Funktion der Wahrscheinlichkeit p1, mit der Robertino sich im Zustand x 1 befindet. Denn: P(x 2 ) := p 2 = 1 p 1 Nach der ersten Aktion wird P(x 1 ) von der durch u ausgelösten Wahrscheinlichkeit beeinflusst, mit der Robertino in einen anderen Zustand gelangt: z.b.: P(x 1 u, x 1 ) P(x 1 ) wird außerdem durch die Messungen nach u beeinflusst. Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

17 Messungen Beim Planen zukünftiger Aktionen können die Messungen aber nicht bekannt sein, weil sie ja noch gar nicht durchgeführt wurden! Wir müssen uns also auf den Erwartungswert der durchzuführenden Messungen beschränken: Schätzung neuer Annahmen P(b u, b) = z = z = z P(b, u, b, z) P(u, b) P(b z, u, b) P(z, u, b) P(u, b) P(z u, b) P(b z, u, b) = E z u,b (b z, u, b) Wir summieren nicht über u und b, weil beide bekannt sind! Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

18 Berechnung von V T (b) bei T > 1 Wir können jetzt unsere Formel für V 2 (b) aktualisieren: V 2 (b) = max r(b, u) + P(b u, b) V 1 (b ) u b = max r(b, u) + P(z u, b) P(b z, u, b) V 1 (b ) u b z Das Summieren über b bedeutet extrem viel Rechenaufwand. Wenn die Verteilung b kontinuierlich ist, muss die Summe sogar durch ein Integral ersetzt werden. Das ist der allgemeine Fall eines POMDP: ( ) V T (b ) = P(z u, b) P(b z, u, b)dz V 1 (b )db Müssen wir wirklich immer den ganzen Suchraum durchgehen? Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

19 Berechnung von V T (b) bei T > 1 Die Antwort liefert eine Analyse des Plan-Execute-Sense-Zyklus: Welche Wahrscheinlichkeiten benutzt Robertino in einer aktuellen Situation? Robertino wird mit einer initialen Annahme b 0 gestartet. Damit ist eine Wahrscheinlichkeitsverteilung fixiert. Dann führt Robertino eine Aktion u1 aus. Die zu erwartenden Messungen sind durch b0 und u 1 determiniert! Das Modell eines einfachen Roboters gibt an, wie für jede mögliche Position ihre neue Wahrscheinlichkeit bei festem b 0 und u 1 berechnet wird: P( ) = x P( u 1, x) P(x) wird über u 1 von jedem x mit P( u 1, x) erreicht! Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

20 Berechnung von V T (b) bei T > 1 Damit ist eine Wahrscheinlichkeitsverteilung b fixiert: { P(b 1 für genau dieses b z, u, b) = 0 für alle anderen Annahmen Die Formel V 2 (b) = max r(b, u) + u b P(z u, b) P(b z, u, b) V 1 (b ) z vereinfacht sich also zu: V 2 (b) = max r(b, u) + u z P(z u, b) V 1 (b (b, u, z)) Die Annahme über Robertinos Position kann nun nur noch von den Messungen beeinflusst werden. Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

21 Berechnung von V T (b) bei T > 1 Rekursive Berechnung von V 1 (b (b, u, z)): V 1 (b b,u,z ) = max r(b b,u,z, u ) = max P( b, u, z) r(, ) jetzt greift das Modell des einfachen Roboters = max x P(, b, u, z, x) P(b, u, z) r(, ) Jetzt schreiben wir die stochastische Abhängigkeit der Zufallsvariablen so, dass sich das Sensormodell anwenden läßt: max x max x P(, b, u, z, x) P(b, u, z) P(z, b, u, x) P(, b, u, x) P(b, u, z) r(, ) = r(, ) Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

22 Berechnung von V T (b) bei T > 1 max Die Messung nach Ausführung von u hängt nicht von der Position und der Annahme vor der Ausführung ab: max x max max x max x P(z, b, u, x) P(, b, u, x) P(b, u, z) x P(z, u) P(, b, u, x) P(b, u, z) P(z, u) P( b, u, x) P(b, u, x) P(b, u, z) P(z, u) P( b, u, x) P(x b, u) P(b, u) P(z b, u) P(b, u) x P(z, u) P( b, u, x) P(x b, u) P(z b, u) r(, ) = r(, ) = r(, ) = r(, ) = r(, ) Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

23 Berechnung von V T (b) bei T > 1 Der Zustandsübergang von x nach hängt nicht von anderen Positionen als x ab: max max x x P(z, u) P( b, u, x) P(x b, u) P(z b, u) P(z, u) P( u, x) P(x b, u) P(z b, u) x hängt nicht von der nachfolgenden Aktion ab: max x Bei fixiertem b gilt: P(b) = 1: max x P(z, u) P( u, x) P(x b) P(z b, u) P(z, u) P( u, x) P(x) P(z b, u) r(, ) = r(, ) = r(, ) = r(, ) Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

24 Berechnung von V T (b) bei T > 1 Laut Sensormodell hängt z nicht von u ab: max x P(z, u) P( u, x) P(x) P(z b, u) r(, ) = 1 P(z b, u) max P(z ) P( u, x) P(x) r(, ) Insgesamt ergibt sich: V 2 (b) = max r(b, u) + u P(z u, b) z = max r(b, u) + u z x max P(z ) P( u, x) P(x),x max r(, ) P(z b, u) P(z ) P( u, x) P(x) r(, ),x Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

25 Planung von zwei Schritten Zur Berechnung von V 2 (b) muss diejenige Kombination für (u, ) gefunden werden, die den Wert von V 2 (b) maximiert: u = u 1 u = u 2 u = u 3 = u 1 = u 2... V 2 (b u,)... = u 3 In den beiden Fällen u = u 1 und u = u 2 gilt nach dem Modell des einfachen Roboters: Damit ergibt sich: V 2 (b u 1 ) = r(b, u 1 ) = x x, : P( u, x) = 0 P(x) r(x, u 1 ) = 200 p V 2 (b u 2 ) = r(b, u 2 ) = x P(x) r(x, u 2 ) = 150p 1 50 Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

26 Planung von zwei Schritten Komplexer ist der Fall u = u 3 : 60 p 1 50 V 2 (b) = 1+max 51 p z , 24 p 1 0, 62 +max z 2 60 p p , 24 p 1 0, 38 Eine obere Schranke dafür ist: V 2 (b) = 1 + max 120 p p , 76 p 1 50, 38 9 p p , 24 p , 62 60, 24 p 1 10, 62 35, 76 p , 38 1 Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

27 Finden des Maximums Welchen Wert hat V 2 (b) für u 3 in Abhängigkeit von p 1? Alle linearen Funktionen, aus denen das Maximum ermittelt werden soll, in einem Koordinatensystem. Davon sind nicht alle wichtig. Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

28 Finden des Maximums Wir müssen auch die Aktionen u 1 und u 2 berücksichtigen. Jede liefert eine weitere lineare Funktion: Alle linearen Funktionen für u 1, u 2 und u 3. Entscheidend sind nur drei Funktionen. V 2 (b) ist eine stückweise lineare Funktion. Die Linearität rührt aus der Linearität des Erwartungswerts. Dr.-Ing. Bernd Ludwig (FAU ER) POMDP / 28

3. Das Reinforcement Lernproblem

3. Das Reinforcement Lernproblem 3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität

Mehr

Reasoning and decision-making under uncertainty

Reasoning and decision-making under uncertainty Reasoning and decision-making under uncertainty 9. Vorlesung Actions, interventions and complex decisions Sebastian Ptock AG Sociable Agents Rückblick: Decision-Making A decision leads to states with values,

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Lernen von optimalen Strategien

Lernen von optimalen Strategien Lernen von optimalen Strategien Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 13.01.2010 Dr.-Ing. Bernd Ludwig (FAU ER) Q-Learning 13.01.2010

Mehr

Klassifikation von Daten Einleitung

Klassifikation von Daten Einleitung Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung

Mehr

3. Prozesse mit kontinuierlicher Zeit

3. Prozesse mit kontinuierlicher Zeit 3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess

Mehr

Lösungsskizzen zur Präsenzübung 09

Lösungsskizzen zur Präsenzübung 09 Lösungsskizzen zur Präsenzübung 09 Hilfestellung zur Vorlesung Anwendungen der Mathematik im Wintersemester 2015/2016 Fakultät für Mathematik Universität Bielefeld Veröffentlicht am 07. Februar 2016 von:

Mehr

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur

Mehr

3 Wahrscheinlichkeitstheorie

3 Wahrscheinlichkeitstheorie Einige mathematische Konzepte 3 Wahrscheinlichkeitstheorie 3.1 Wahrscheinlichkeit Die Wahrscheinlichkeitstheorie modelliert Situationen, in denen Unsicherheit über bestimmte Aspekte der Umwelt vorherrscht.

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Der diskrete Kalman Filter

Der diskrete Kalman Filter Der diskrete Kalman Filter Fachbereich: Informatik Betreuer: Marc Drassler Patrick Winkler 1168954 6. Dezember 2004 Technische Universität Darmstadt Simulation und Systemoptimierung Darmstadt Dribbling

Mehr

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp Datenanalyse (PHY31) Herbstsemester 015 Olaf Steinkamp 36-J- olafs@physik.uzh.ch 044 63 55763 Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und

Mehr

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand

Mehr

In einem mathematischen Modell wird dies beschrieben durch einen funktionalen Zusammenhang: x = f (t).

In einem mathematischen Modell wird dies beschrieben durch einen funktionalen Zusammenhang: x = f (t). Aktueller Überblick 0 Einführende Worte ( ) 1 Geschichtlicher Überblick ( ) 2 Zufall 3 Perfekte Sicherheit und ihre Grenzen 4 Angriffsszenarien 5 Der komplexitätstheoretische Ansatz 6 Pseudozufallsgeneratoren

Mehr

Übersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1

Übersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung R. Brinkmann http://brinkmann-du.de Seite 5.05.0 Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung Erwartungswert binomialverteilter Zufallsgrößen Wird ein Bernoulli- Versuch, bei

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte

Mehr

2. Beispiel: n-armiger Bandit

2. Beispiel: n-armiger Bandit 2. Beispiel: n-armiger Bandit 1. Das Problem des n-armigen Banditen 2. Methoden zur Berechung von Wert-Funktionen 3. Softmax-Auswahl von Aktionen 4. Inkrementelle Schätzverfahren 5. Nichtstationärer n-armiger

Mehr

Stochastische dynamische Optimierung

Stochastische dynamische Optimierung Bisher: Neuer Zustand s 0 auf Stufe n +1istdurchaltenZustands auf Stufe n und Aktion a eindeutig bestimmt. s 0 = z n (s, a) Jetzt: Neuer Zustand s 0 ist zusätzlich vom Zufall abhängig. Genauer: Zufallsvariable,

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Zufallsgröße: X : Ω R mit X : ω Anzahl der geworfenen K`s

Zufallsgröße: X : Ω R mit X : ω Anzahl der geworfenen K`s 4. Zufallsgrößen =============================================================== 4.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Stochastik 03 Zufallsgröÿen und Verteilung

Stochastik 03 Zufallsgröÿen und Verteilung 29. August 2018 Grundlagen der Stochastik (bis Klasse 10) Grundlagen der Statistik (bis Klasse 10) Zufallsgrößen und Verteilungen Beurteilende Statistik (Testen von Hypothesen) Bernoulli-Experimente Ziele

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Kapitel II - Entscheidungen bei Informationen über den wahren Zustand

Kapitel II - Entscheidungen bei Informationen über den wahren Zustand Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel II - Entscheidungen bei Informationen über den wahren Zustand Induktive Statistik Prof. Dr. W.-D. Heller Hartwig

Mehr

8. Reinforcement Learning

8. Reinforcement Learning 8. Reinforcement Learning Einführung 8. Reinforcement Learning Wie können Agenten ohne Trainingsbeispiele lernen? Auch kennt der Agent zu Beginn nicht die Auswirkungen seiner Handlungen. Stattdessen erhält

Mehr

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren

Mehr

Stochastik 04 Binomialverteilung

Stochastik 04 Binomialverteilung 03. September 2018 Grundlagen der Stochastik (bis Klasse 10) Grundlagen der Statistik (bis Klasse 10) Zufallsgrößen und Verteilungen Beurteilende Statistik (Testen von Hypothesen) Bernoulli-Experimente

Mehr

Kalmanfiter (1) Typische Situation für den Einsatz von Kalman-Filtern

Kalmanfiter (1) Typische Situation für den Einsatz von Kalman-Filtern Kalmanfiter (1) Typische Situation für den Einsatz von Kalman-Filtern Vorlesung Robotik SS 016 Kalmanfiter () Kalman-Filter: optimaler rekursiver Datenverarbeitungsalgorithmus optimal hängt vom gewählten

Mehr

Reinforcement Learning

Reinforcement Learning Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Reinforcement Learning Uwe Dick Inhalt Problemstellungen Beispiele Markov Decision Processes Planen vollständige MDPs Lernen unbekannte

Mehr

Modellierung- und Simulation Mathis Plewa ( )

Modellierung- und Simulation Mathis Plewa ( ) Inhaltsverzeichnis Abbildungsverzeichnis... 1 Übungsaufgabe: Zufallsgeneratoren und Histogramme... 2 Standard Gleichverteilung... 2 Gaußverteilung... 3 Exponentialverteilung... 4 Übungsaufgabe: Geometrische

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Kapitel 3 Ereignisdiskrete Systeme (III)

Kapitel 3 Ereignisdiskrete Systeme (III) Systemmodellierung Teil 1: Ereignisdiskrete Systeme Kapitel 3 Ereignisdiskrete Systeme (III) Modellierung mit E/A-Automaten Modellbildung mit Automaten Verfeinerte Modellbildung Beispiel: Fahrstuhltür

Mehr

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine diskrete reellwertige Zufallsvariable, d.h. eine ZV e mit Wertebereich R (oder einer Teilmenge davon), sodass eine

Mehr

WAHRSCHEINLICHKEITSRECHNUNG

WAHRSCHEINLICHKEITSRECHNUNG WAHRSCHEINLICHKEITSRECHNUNG Mathematischer Teil In der Wahrscheinlichkeitsrechnung haben wir es mit Zufallsexperimenten zu tun, d.h. Ausgang nicht vorhersagbar. Grundbegriffe Zufallsexperiment und Ergebnisse

Mehr

a) Stellen Sie das Diagramm Geschwindigkeits Zeit Diagramm für eine geeignete Kombination von Massen und dar.

a) Stellen Sie das Diagramm Geschwindigkeits Zeit Diagramm für eine geeignete Kombination von Massen und dar. Atwood sche Fallmaschine Die kann zum Bestimmen der Erdbeschleunigung und zum Darstellen der Zusammenhänge zwischen Weg, Geschwindigkeit und Beschleunigung verwendet werden. 1) Aufgaben a) Stellen Sie

Mehr

Bayes sche und probabilistische Netze

Bayes sche und probabilistische Netze Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung

Mehr

1. Einführung in die induktive Statistik

1. Einführung in die induktive Statistik Wichtige Begriffe 1. Einführung in die induktive Statistik Grundgesamtheit: Statistische Masse, die zu untersuchen ist, bzw. über die Aussagen getroffen werden soll Stichprobe: Teil einer statistischen

Mehr

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Kapitel 3 Ereignisdiskrete Systeme (II)

Kapitel 3 Ereignisdiskrete Systeme (II) Modellierung und Simulation mechatronischer Systeme Kaitel Ereignisdisrete Systeme II Modellierung mit autonomen Automaten Deterministische Automaten Bei den bisher betrachteten Beisielen handelte es sich

Mehr

Fehlerrechnung. Bei physikalisch-technischen Messungen können systematische und zufällige Fehler auftreten.

Fehlerrechnung. Bei physikalisch-technischen Messungen können systematische und zufällige Fehler auftreten. Seite 1 / 6 H.C. iehuus Fehlerrechnung Bei physikalisch-technischen Messungen können systematische und zufällige Fehler auftreten. Systematische Fehler erzeugen systematische Effekte. Falsch kalibrierte

Mehr

Statistik I für Betriebswirte Vorlesung 2

Statistik I für Betriebswirte Vorlesung 2 Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April

Mehr

Kapitel 2 Ereignisdiskrete Systeme (II)

Kapitel 2 Ereignisdiskrete Systeme (II) Systemmodellierung Teil : Ereignisdisrete Systeme Kaitel 2 Ereignisdisrete Systeme II Modellierung mit autonomen Automaten Deterministische Automaten SM Bei den bisher betrachteten Beisielen handelte es

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Beispiel: Positionsschätzung

Beispiel: Positionsschätzung Das Kalman Filter Beispiel: Positionsschätzung Beispiel: Positionsschätzung. Messung: mit Varianz Daraus abgeleitete Positionsschätzung: mit Varianz ˆX = = f f ( y ) y 3 Beispiel: Positionsschätzung. Messung:

Mehr

Fast-SLAM: Synchrone Lokalisierung und Kartenerstellung mit einem Partikel-Filter

Fast-SLAM: Synchrone Lokalisierung und Kartenerstellung mit einem Partikel-Filter Fast-SLAM: Synchrone Lokalisierung und Kartenerstellung mit einem Partikel-Filter! Landmarkenbasiertes Fast-SLAM! Gitterbasiertes Fast-Slam! Optimierungen Prof. Dr. O. Bittel, HTWG Konstanz Autonome Roboter

Mehr

Mit e 0 für alle x IR ergeben sich aus 2 x+ x = 0 die Nullstellen 0 und 2. 2 b) Ableitung mit der Produktregel und Ausklammern der e-funktion 3

Mit e 0 für alle x IR ergeben sich aus 2 x+ x = 0 die Nullstellen 0 und 2. 2 b) Ableitung mit der Produktregel und Ausklammern der e-funktion 3 Aufgaben aus dem Aufgabenpool. Analysis A_ Gegeben ist die Funktion f mit x f(x) = e ( x + x ) (x IR). a) Bestimmen Sie die Nullstellen der Funktion f. ( ) x b) Zeigen Sie, dass die Funktion F mit F(x)

Mehr

Hidden Markov Modelle

Hidden Markov Modelle Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Die ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist.

Die ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist. .3. Stochastik Grundlagen Die ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist. Die RELATIVE HÄUFIGKEIT einer Merkmalsausprägung gibt an mit welchem Anteil

Mehr

Seminar zur Energiewirtschaft:

Seminar zur Energiewirtschaft: Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable

Mehr

Lösungsskizzen zur Präsenzübung 08

Lösungsskizzen zur Präsenzübung 08 Lösungsskizzen zur Präsenzübung 08 Hilfestellung zur Vorlesung Anwendungen der Mathematik im Wintersemester 015/016 Fakultät für Mathematik Universität Bielefeld Veröffentlicht am 07. Februar 016 von:

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen

Mehr

Intelligente Roboter

Intelligente Roboter 64-424 Intelligente Roboter 64-424 Intelligente Roboter http://tams.informatik.uni-hamburg.de/ lectures/2010ws/vorlesung/ir Jianwei Zhang Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler 6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation

Mehr

Praktikum Optische Technologien Anleitung zum Versuch Dicke Linsen

Praktikum Optische Technologien Anleitung zum Versuch Dicke Linsen Fachbereich Energietechnik Lehrgebiet für Lasertechnik und Optische Technologien Prof. Dr. F.-M. Rateike Praktikum Optische Technologien Anleitung zum Versuch Dicke Linsen August 204 Praktikum Optische

Mehr

Kinga Szűcs

Kinga Szűcs Kinga Szűcs 25.10.2011 Die Schülerinnen und Schüler werten graphische Darstellungen und Tabellen von statistischen Erhebungen aus, planen statistische Erhebungen, sammeln systematisch Daten, erfassen sie

Mehr

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments 73 Hypothesentests 73.1 Motivation Bei Hypothesentests will man eine gewisse Annahme über eine Zufallsvariable darauf hin überprüfen, ob sie korrekt ist. Beispiele: ( Ist eine Münze fair p = 1 )? 2 Sind

Mehr

Statistische Sprachmodelle

Statistische Sprachmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch

Mehr

5 Binomial- und Poissonverteilung

5 Binomial- und Poissonverteilung 45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1

Mehr

Wahrscheinlichkeit3 Binomialverteilung/Bernoulli-Formel

Wahrscheinlichkeit3 Binomialverteilung/Bernoulli-Formel Wahrscheinlichkeit3 Binomialverteilung/Bernoulli-Formel Aufgaben Lösen Sie A1 und A sowohl mit der Bernoulli-Formel als auch mit dem TR(BV), die anderen Aufgaben lösen sie mit dem TR(BV). A1 Eine Familie

Mehr

Zufallsvariablen. Erwartungswert. Median. Perzentilen

Zufallsvariablen. Erwartungswert. Median. Perzentilen Zufallsvariablen. Erwartungswert. Median. Perzentilen Jörn Loviscach Versionsstand: 22. Januar 2010, 10:46 1 Zufallsvariablen Wenn ein Zufallsexperiment eine Zahl als Ergebnis liefert, nennt man diese

Mehr

Das Sammler-Problem. Anja Bergdolt. 11. Januar 2018

Das Sammler-Problem. Anja Bergdolt. 11. Januar 2018 Das Sammler-Problem Anja Bergdolt 11. Januar 2018 Abbildung: Das Album enthält 640 Bildchen, und wir nehmen an, dass jedes Bildchen 10 Cent kostet. [1] Schätzfrage Wie viel kostet es das Album komplett

Mehr

67 Zufallsvariable, Erwartungswert, Varianz

67 Zufallsvariable, Erwartungswert, Varianz 67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In

Mehr

Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1

Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1 Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1 Aufgabe 1: Wieviele der folgenden Variablen sind quantitativ stetig? Schulnoten, Familienstand, Religion, Steuerklasse, Alter, Reaktionszeit, Fahrzeit,

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2011 / 2012 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017

Mehr

Probleme lösen mit Hilfe von Ableitungen, Extrem- und Wendepunkten

Probleme lösen mit Hilfe von Ableitungen, Extrem- und Wendepunkten Kompetenzen und Inhalte des Bildungsplans Unterrichtsinhalte Die Schülerinnen und Schüler können - besondere Eigenschaften von Funktionen rechnerisch und mithilfe des GTR bestimmen; Bestimmung von Extrem-

Mehr

Mathematik für Naturwissenschaften, Teil 2

Mathematik für Naturwissenschaften, Teil 2 Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg 2 R. 06-206 (Persike) R. 06-214 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Sequentielle Entscheidungsprobleme. Übersicht. MDP (Markov Decision Process) MDP und POMDP. Beispiel für sequentielles Planungsproblem

Sequentielle Entscheidungsprobleme. Übersicht. MDP (Markov Decision Process) MDP und POMDP. Beispiel für sequentielles Planungsproblem Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches

Mehr

Abitur 2013 Mathematik NT Stochastik S II

Abitur 2013 Mathematik NT Stochastik S II Seite 1 http://www.abiturloesung.de/ Seite 2 Abitur 2013 Mathematik NT Stochastik S II Eine Agentur vertreibt Tickets für Sportveranstaltungen ( S ), Konzerte ( K ), Musicals ( M ) und Eventreisen ( E

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Übungsblatt 7 zur Vorlesung Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker

Übungsblatt 7 zur Vorlesung Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker Aufgabe Aufgabe 2 Übungsblatt 7 zur Vorlesung Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker.2.202 Aufgabe Aufgabe 2 Bei einem Zufallsexperiment werden zwei Würfel geworfen und

Mehr

Anfänger-Praktikum I WS 11/12. Michael Seidling Timo Raab Enrico Mank. Praktikumsbericht: Galton-Brett

Anfänger-Praktikum I WS 11/12. Michael Seidling Timo Raab Enrico Mank. Praktikumsbericht: Galton-Brett Anfänger-Praktikum I WS 11/12 Michael Seidling Timo Raab Enrico Mank Praktikumsbericht: Galton-Brett Inhaltsverzeichnis Inhaltsverzeichnis I. Theoretische Grundlagen 2 1. Zentraler Grenzwertsatz 2 2. Binomialverteilung

Mehr

6.6 Poisson-Verteilung

6.6 Poisson-Verteilung 6.6 Poisson-Verteilung Die Poisson-Verteilung ist eine Wahrscheinlichkeitsverteilung, die zur Modellierung der Anzahl von zufälligen Vorkommnissen in einem bestimmten räumlichen oder zeitlichen Abschnitt

Mehr

8 Verteilungsfunktionen und Dichten

8 Verteilungsfunktionen und Dichten 8 Verteilungsfunktionen und Dichten 8.1 Satz und Definition (Dichten) Eine Funktion f : R R heißt Dichtefunktion, kurz Dichte, wenn sie (Riemann-) integrierbar ist mit f(t) 0 für alle t R und Setzt man

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

Kombinatorische Spiele mit Zufallselementen

Kombinatorische Spiele mit Zufallselementen Kombinatorische Spiele mit Zufallselementen Die Realität ist nicht so streng determiniert wie rein kombinatorische Spiele. In vielen Situationen spielt der Zufall (Risko) eine nicht zu vernachlässigende

Mehr

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 / Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =

Mehr

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung

Mehr

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung

Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer 014 Musterlösung 1. 8 Punkte) a) 1 Pt)Für das Komplement gilt PR A) = 1 PR c A) = 0.968. b) 1 Pt)Nach Definition der bedingten Wahrscheinlichkeit

Mehr

Sprechstunde zur Klausurvorbereitung

Sprechstunde zur Klausurvorbereitung htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

ISBN

ISBN 1 Zeitraum Ziele / Inhalte (Sach- und Methodenkompetenz) Klassenarbeit Analysis Grenzwerte 1. Die explizite und rekursive Beschreibung von Zahlenfolgen verstehen und Eigenschaften von Zahlenfolgen kennen

Mehr

Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen

Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen Definition Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen Seminar über Algorithmen WS 2005/2006 Vorgetragen von Oliver Rieger und Patrick-Thomas Chmielewski basierend auf der Arbeit

Mehr

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9. 7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe

Mehr