Grundlagen der Objektmodellierung

Ähnliche Dokumente
Intelligente Roboter

Kalmanfilter und Nichtparametrische Filter. Bayesfilter

Grundlagen der Signalverarbeitung und Robotik

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Modellierung von Unsicherheit in Systemen

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Der Metropolis-Hastings Algorithmus

Einführung und Grundlagen

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

Kalmanfiter (1) Typische Situation für den Einsatz von Kalman-Filtern

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Prof. Dr. Fred Böker

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

SLAM. Simultaneous Localization and Mapping. KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann

1 Multivariate Zufallsvariablen

Wahrscheinlichkeiten

Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Fast-SLAM: Synchrone Lokalisierung und Kartenerstellung mit einem Partikel-Filter

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze

Statistische Datenanalyse

Stochastik für Ingenieure

Ortsbestimmung und Ortsmodelle

Rechnernutzung in der Physik

Unabhängige Zufallsvariablen

Statistik und Wahrscheinlichkeitsrechnung

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Mehrdimensionale Zufallsvariablen

Kalman-Filter und Target Tracking

Unabhängigkeit von Zufallsvariablen

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Zusatzmaterial zur Vorlesung Statistik II

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Wichtige Definitionen und Aussagen

4. Verteilungen von Funktionen von Zufallsvariablen

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

Wahrscheinlichkeitstheorie und Statistik vom

Statistik II. IV. Hypothesentests. Martin Huber

Vorlesung: Statistik II für Wirtschaftswissenschaft

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Mehrdimensionale Verteilungen und Korrelation

Wahrscheinlichkeiten. Verteilungen

Parametrische und nichtparametrische Tests

Lokalisierung. von Matthias Heine, Norbert Müller, Silvia Schreier, Oliver Zöllner

Ü b u n g s b l a t t 13

7.2 Moment und Varianz

A. Grundlagen der Stochastik

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

A. Grundlagen der Stochastik

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Diskrete Zufallsvariablen (Forts.) I

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Wahrscheinlichkeitstheorie 2

Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator

Die n-dimensionale Normalverteilung

Computer Vision: Kalman Filter

Musterlösung. Modulklausur Multivariate Verfahren


Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

SozialwissenschaftlerInnen II

2.Tutorium Multivariate Verfahren

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Wahrscheinlichkeit und Statistik: Zusammenfassung

Einführung in die Statistik

Begriffe aus der Informatik Nachrichten

BZQ II: Stochastikpraktikum

Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

4 Statistik normalverteilter Daten

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

5.Tutorium Multivariate Verfahren

Beispiel 6 (Multivariate Normalverteilung)

Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung

Mathematik für Biologen

Statistics, Data Analysis, and Simulation SS 2017

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Vorlesung: Statistik II für Wirtschaftswissenschaft

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

1 Inhaltsverzeichnis. 1 Einführung...1

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Übungsblätter zu Methoden der Empirischen Sozialforschung III: Inferenzstatistik. Lösungsblatt zu Nr. 2

Varianz und Kovarianz

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Statistik, Datenanalyse und Simulation

Kapitel 12 Erwartungswert und Varianz

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Fit for Abi & Study Stochastik

Forschungsstatistik I

Transkript:

Grundlagen der Objektmodellierung Daniel Göhring 30.10.2006 Gliederung Grundlagen der Wahrscheinlichkeitsrechnung Begriffe zur Umweltmodellierung Bayesfilter Zusammenfassung

Grundlagen der Wahrscheinlichkeitsrechnung In der probabilistischen Robotik werden Objektzustände, Sensor- sowie Kontrolldaten in Form von Zufallsvariablen beschrieben Probabilistische Inferenz: wie kann der Wert einer Zufallsvariable aus einer anderen Zufallsvariable abgeleitet werden? Grundlagen Sei X eine Zufallsvariable mit einem Wert x Beispiel Münzwurf: p(x=kopf) = 0.5, p(x=zahl) = 0.5 Diskrete Wahrscheinlichkeiten summieren sich zu 1 auf: p(x = x) = 1

Grundlagen - PDFs Wahrscheinlichkeiten sind stets positiv oder gleich null Sehr oft werden Zustände im kontinuierlichen Raum abgeschätzt Variablen können dabei alle Werte innerhalb eines Kontinuums annehmen Alle Variablen solchen Var. besitzen eine Wahrscheinlichkeitsdichtefunktion (PDF) Grundlagen - Normalverteilungen Eine gebräuchliche Funktion zur Darstellung der Wahrscheinlichk.-verteilung ist die Gaussfunktion, mit Mittelwert µ und Varianz σ Multivariate Verteilung

Eindimensionale Gaussfunktionen 2D-Gaußfunktionen

Varianzen, Kovarianzen Analog zur Varianz bei eindimensionalen Zustandsräumen können bei mehreren Dimensionen Kovarianzmatrizen S berechnet werden S = 1/n Σ V i *V -1 i 4 Messungen Beispiel zwei Dimensionen: Position: x,y die einzelnen Messungen haben unterschiedliche Werte

Beispielverteilung H 3 = (-1, 1) T H 1 = (2, 2) T 1-1 -1 1 H 4 = (1, -1) T H 2 = (-2, -2) T Mittelwert H M = 1/n * Σ H i H 3 = (-1, 1) T H 1 = (2, 2) T 1 H M = (0, 0) T -1-1 1 H 4 = (1, -1) T H 2 = (-2, -2) T

Kovarianzmatrix S = 1/n * Σ (H M -H i ) * (H M -H i ) T Auf der Hauptdiagonale befinden sich die Varianzen von x und y, auf Nebendiagonale die Kovarianzen. 2.5 1.5 S = ( ) 1.5 2.5 Werte der Kovarianzmatrix können nicht direkt in Werte der Ellipse (Rotation, Halbachsenausdehnung) umgerechnet werden. Kovarianzmatrix ist immer symmetrisch (positiv demindefinite Matrix). Zur Vollständigkeit: Korrelationsmatrix R jedes Element r i,j aus R berechnet sich bei gegebenen Elementen c i,j aus S als: r i,j = c i,j *c i,j / (c i,i * c j,j ) 1 0.36 = ( ) 0.36 1

Bedingte Unabhängigkeiten p(x,y) p(x y) = p(x = x Y = y) p(x y) = p(x,y) / p(y) p(x y) = p(x) * p(y) / p(y) = p(x) Wenn X und Y unabhängig sind, kann man aus Y nichts über X sagen Theorem der Totalen Wahrscheinlichkeiten p(x) = p(x y)p(y) Diskret p(x) = p(x y)p(y) dy Kontinuierlich

Satz von Bayes p(y x) p(x) p(x y) = ---------------------------- p(y) p(y x) p(x) p(x y) = ---------------------------- p(y x) p(x) dx Satz von Bayes Da p(y) für alle Werte von x gleich ist, kan eine verkürzte Schreibweise eingeführt werden, p(x y) = η p(y x) p(x) η besagt, dass das Resultat noch normiert werden muss.

Satz von der bedingten Unabhängigkeit Analog zum Satz der Unabhängigkeit, kann der Satz der Bedingten Unabhängigkeit formuliert werden als: p(x,y z) = p(x z)*p(y z), äquivalent zu p(x z) = p(x z,y) p(y z) = p(y z,x) Begriffe zur Umweltmodellierung Zustand: Umwelt wird als Zustand repräsentiert Zustandsvariablen, die sich nicht über die Zeit ändern werden als statisch, sonst als dynamisch bezeichnet Bezeichnung im allgemeinen als x, Zustand zur Zeit t: x t

Position kann durch bis zu 6 Koordinaten dargestellt werden: 3 für die Position und 3 für die Orientierung im Raum - Bei Bewegung in der Ebene reichen hingegen meist 3 Koordinaten aus, 2 für die Position, 1 für die Ausrichtung Landmarken eine Möglichkeit der Lokalisierung ist die Einführung von Landmarken Stationäre, Unterscheidbare, gut erkennbare Objekte der Umwelt

Vollständiger Zustand Ein Zustand x t wird als vollständig bezeichnet, wenn er die Zukunft maximal genau vorhersagen kann, d.h. Wissen über seine Vergangenheit auch keine zusätzliche Genauigkeit mehr einbringen würde Verwendung bei Markovketten Praktisch unmöglich, weil nie alle Variablen bekannt sind Oft erfolgt Auswahl von Variablen unvollständiger Zustand Diskrete, kontinuierliche Zustände: Beispiele: Kontinuierlich: Roboterposition Diskret: Sensorindikator (funktioniert/defekt)

Interaktion mit der Umwelt Messung: Resultat einer Interaktion/Beobachtung der Umwelt durch Sensoren Sensordaten treffen i.d.r. mit einer gewissen Verzögerung ein Schreibweise z t1:t2 = z t1,..., z t2 Kontrollaktionen: ändern den Zustand der Welt Auch wenn Roboter keine Aktionen intendiert, ändert sich die Welt daher immer mitmodelliert u t1:t2 = u t1,..., u t2 Odometer: Misst den Effekt einer Kontrollaktion, eigentlich Sensordaten, werden aber wie Kontrolldaten behandelt

Bayesnetzwerk/Hidden Markov Modell Zustandsübergangswahrscheinlichkeit p(x t x t-1, u t ) Messungswahrscheinlichkeit p(z t x t )

Beispiel Glaube, Tür Offen: bel(x = open) = 0.5 bel(x = closed) = 0.5 Sensormodell: p(z = sens offen X = ist offen) = 0.6 p(z = sens geschl. X = ist offen) = 0.4 p(z = sens offen X = ist geschl.) = 0.2 p(z = sens geschl. X = ist geschl.) = 0.8 Beispiel Fortsetzung p(x = ist offen U = öffne, X = ist off.) = 1 p(x = ist geschl. U = öffne, X = ist off.) = 0 p(x = ist offen U = öffne, X = ist gesch.)= 0.8 p(x = ist geschl. U = öffne, X = ist gesch.) = 0.2 Oder p(x = ist offen U = Do noth., X = ist off.) = 1 p(x = ist geschl. U = Do noth., X = ist off.) = 0 p(x = ist offen U = Do noth., X = ist off.)= 0 p(x = ist geschl. U = Do noth., X = ist off.) = 1

Beispiel Fortsetz. Wir können nun berechnen, mit welcher Wahrscheinlichkeit die Tür offen ist, wenn wir sie öffnen wollten und der Sensor sagt, Tür geschlossen. Monte Carlo Lokalisierung Iterative Bayesian Updating/Filtering: prior motion model posterior at previous time step posterior sensor model Bel = belief, s = state, p = probability, u = action, z = observation, η = normalization factor, t = discrete time

Taxonomie von Lokalisierungsproblemen Lokale vs. Globale Lokalisierung Frage des Roboterkoordinatensystems Lokal: Keine Lokalisierung/Umrechnung notwendig Global: Kommuniktion mit anderen Robotern möglich Taxonomie von Lokalisierungsproblemen Position Tracking/Lokalisierung Objektverfolgung, wenn Anfangsposition bekannt, Lokalisierung, wenn Anfangsposition unbekannt

Taxonomie von Lokalisierungsproblemen Kidnapped Robot Problem Anfangsposition unbekannt, Roboter muss seine Position in Umgebung ohne Vorwissen ermitteln Taxonomie von Lokalisierungsproblemen Statische Umwelt, Dynamische Umwelt

Taxonomie von Lokalisierungsproblemen Passive Lokalisierung, Aktive Lokalisierung Passiv: Warten auf bestimmte Sensordaten,die der Lokalisierung dienen könnten und dabei andere Aufgaben verfolgen Aktive Lokalisierung: gezieltes Einsetzen der Sensoren zur Erfassung von Lokalisierungsdaten (active Vision) Minimierung des Lokalisierungsfehlers Taxonomie von Lokalisierungsproblemen Single Roboterlokalisierung Weitgehend Untersucht, Alle Daten kommen von derselben Plattform Multiroboterlokalisierung In Gruppen von Robotern, in denen sich die Roboter gegenseitig erkennen können, bietet sich eine interessante Möglichkeit, die Lokalisierungsgenauigkeit zu verbessern Viele interessante Algorithmen für Kommunikation, Inferenz