Grundlagen der Signalverarbeitung und Robotik

Ähnliche Dokumente
Intelligente Roboter

Grundlagen der Objektmodellierung

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Wichtige Definitionen und Aussagen

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

Mehrdimensionale Zufallsvariablen

5. Spezielle stetige Verteilungen

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Kalmanfilter und Nichtparametrische Filter. Bayesfilter

Mathematische Grundlagen Kalman Filter Beispielprogramm. Kalman Filter. Stephan Meyer

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Mathematik für Naturwissenschaften, Teil 2

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

2 Zufallsvariable und Verteilungsfunktionen

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Modellierung von Unsicherheit in Systemen

Wahrscheinlichkeitsverteilungen

Kalmanfiter (1) Typische Situation für den Einsatz von Kalman-Filtern

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Woche 2: Zufallsvariablen

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

SLAM. Simultaneous Localization and Mapping. KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann

Grundbegriffe der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze

Zufallsvariablen [random variable]

Wahrscheinlichkeit und Statistik: Zusammenfassung

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Der diskrete Kalman Filter

Varianz und Kovarianz

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Diskrete Zufallsvariablen (Forts.) I

Fast-SLAM: Synchrone Lokalisierung und Kartenerstellung mit einem Partikel-Filter

WAHRSCHEINLICHKEITSRECHNUNG

Zuverlässigkeitstheorie

K8 Stetige Zufallsvariablen Theorie und Praxis

Wahrscheinlichkeitsrechnung und Quantentheorie

Wirtschaftsmathematik

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm.

Kapitel 12 Erwartungswert und Varianz

Wahrscheinlichkeitsrechnung und Statistik

Zusatzmaterial zur Vorlesung Statistik II

Lösungsskizzen zur Präsenzübung 09

Chi-Quadrat-Verteilung

Kenngrößen von Zufallsvariablen

1 Verteilungsfunktionen, Zufallsvariable etc.

Die Varianz (Streuung) Definition

KAPITEL 5. Erwartungswert

7.2 Moment und Varianz

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

5 Erwartungswerte, Varianzen und Kovarianzen

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen

1. Grundbegri e der Stochastik

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Unabhängigkeit von Zufallsvariablen

Willkommen zur Vorlesung Statistik (Master)

7.5 Erwartungswert, Varianz

Kapitel 8: Zufallsvektoren

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

Wahrscheinlichkeitstheorie und Statistik vom

1. Grundbegri e der Stochastik

Fit for Abi & Study Stochastik

Kalman-Filter und Target Tracking

Prüfungsvorbereitungskurs Höhere Mathematik 3

Statistik und Wahrscheinlichkeitsrechnung

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

Unabhängige Zufallsvariablen

Begriffe aus der Informatik Nachrichten

3.3 Bedingte Wahrscheinlichkeit

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:

Stochastik. 1. Wahrscheinlichkeitsräume

1. Was ist eine Wahrscheinlichkeit P(A)?

4. Verteilungen von Funktionen von Zufallsvariablen

Übungsblatt 9 (25. bis 29. Juni)

P (X = 2) = 1/36, P (X = 3) = 2/36,...

Forschungsstatistik I

Mehrdimensionale Verteilungen und Korrelation

13 Grenzwertsätze Das Gesetz der großen Zahlen

Probeklausur Statistik II

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Prüfungsvorbereitungskurs Höhere Mathematik 3

Biostatistik, Sommer 2017

67 Zufallsvariable, Erwartungswert, Varianz

Statistik für Ingenieure Vorlesung 2

Univariates Datenmaterial

Transkript:

64-544 Grundlagen der Signalverarbeitung und Robotik 64-544 Grundlagen der Signalverarbeitung und Robotik http://tams.informatik.uni-hamburg.de/ lectures/2011ss/vorlesung/gdsr Jianwei Zhang Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Technische Aspekte Multimodaler Systeme Sommersemester 2011 J. Zhang 1

Gliederung 64-544 Grundlagen der Signalverarbeitung und Robotik 1. Einführung 2. Grundlagen der Robotik 3. Grundlagen der Sensorik 4. Scandaten verarbeiten 5. Rekursive Zustandsschätzung 6. Fuzzy-Logik 7. Steuerungsarchitekturen J. Zhang 2

5 Rekursive Zustandsschätzung 64-544 Grundlagen der Signalverarbeitung und Robotik Gliederung 1. Einführung 2. Grundlagen der Robotik 3. Grundlagen der Sensorik 4. Scandaten verarbeiten 5. Rekursive Zustandsschätzung Grundlagen der Wahrscheinlichkeitsrechnung Stochastische Fortpflanzungsgesetze und Belief Bayes-Filter Selbst-Lokalisierung mobiler Roboter Literatur 6. Fuzzy-Logik 7. Steuerungsarchitekturen J. Zhang 206

5 Rekursive Zustandsschätzung 64-544 Grundlagen der Signalverarbeitung und Robotik Rekursive Zustandsschätzung Idee: Schätzung eines Systemzustands, der nicht direkt gemessen werden kann, aber aus den Messungen ableitbar ist Beobachtungen bestimmter Aspekte des Systems Steueraktionen, die das System beeinflussen Unsicherheit in Beobachtungen und Aktionen. Probabilistische Algorithmen zur Zustandsschätzungen berechnen eine belief distribution über die möglichen Zustände Der belief beschreibt das Wissen eines Systems über seinen Zustand J. Zhang 207

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung Sensorwerte, Stellgrößen, der Zustand eines Systems und von dessen Umgebung können als Zufallsvariable modelliert werden Sei X eine Zufallsvariable und ein Wert, den diese annehmen kann Ist der Wertebereich W von X diskret mit W = { 1, 2,..., m }, so schreibt man: p(x = ) um die Wahrscheinlichkeit anzugeben, dass X den Wert hat J. Zhang 208

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung (cont.) Die Summe diskreter Wahrscheinlichkeiten ist 1: p(x = ) = 1 Wahrscheinlichkeiten sind immer nicht-negativ, d.h. p(x = ) 0 Wir schreiben p() anstelle von p(x = ) J. Zhang 209

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung (cont.) Eine Funktion F, die durch die diskrete Zufallsvariable X bestimmt ist, heißt Verteilungsfunktion von X. Beispiel: Wert der Zufallsvariablen als vorgegebener Wert: F () = P(X ), R F () = P(X ) = P(X = i ) i Eine Funktion f : R R, die über eine reellwertige Zufallsvariable X definiert ist, heißt Wahrscheinlichkeitsdichte oder Dichtefunktion Beispiel: Wert der stetigen Zufallsvariablen im Intervall [a, b]: P(a X b) = b a f ()d J. Zhang 210

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung (cont.) Der Erwartungswert einer Zufallsvariablen ist gegeben als: E[X] = µ = p() (diskret) E[X] = µ = p() d (kontinuierlich) Der Erwartungswert ist eine lineare Funktion einer Zufallsvariablen, d.h. es gilt: E[aX + b] = ae[x] + b J. Zhang 211

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung (cont.) Die Varianz σ 2 von X berechnet sich wie folgt: σ 2 = E[X µ] 2 = E[X 2 ] µ 2 Die Varianz misst das erwartete Quadrat der Abweichung vom Erwartungswert Für die Standardabweichung oder Streuung von X gilt: σ = σ 2 = E[X µ] 2 J. Zhang 212

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung (cont.) Für die Kovarianz Cov zweier reeller Zufallsvariablen X, Y gilt: Cov(X, Y ) = E((X E(X)) (Y E(Y ))) unter der Voraussetzung, dass E(X), E(Y ) und E(XY ) eistiert. Cov(X, Y ) > 0, falls monoton wachsender linearer Zusammenhang Cov(X, Y ) = 0, falls kein linearer Zusammenhang zwischen den Variablen; möglicherweise aber ein nichtlinearer Zusammenhang, d. h. die Variablen sind nicht notwendigerweise stochastisch unabhängig. Cov(X, Y ) < 0, falls monoton fallender linearer Zusammenhang keine Aussage über die Stärke des Zusammenhanges Cov(X, X) = Var(X) = σ 2 falls X, Y stochastisch unabhängig, folgt Cov(X, Y ) = 0 J. Zhang 213

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung (cont.) Entropie einer Wahrscheinlichkeitsverteilung Sei P = {p 1,, p n } eine Wahrscheinlichkeitsverteilung, dann gilt für die Entropie von P: H(P) = n p i log 2 p i i=1 was dem Erwartungswert des Informationsgehaltes (E[I()] mit 1 I() = log 2 p() = log 2p() [bit]) entspricht. Die Entropie ist die erwartete Information, die die Werte von tragen J. Zhang 214

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung (cont.) Für P = {p 1,, p n } gelten folgende Schranken: 0 H(p 1,, p n ) log 2 n untere Schranke von H(p1,, p n ) = 0 genau dann, wenn die W-Verteilung entartet ist; also wenn ein i eistiert mit p i = 1 obere Schranke von H(p1,, p n ) = log 2 n genau dann, wenn p i = 1 n, i, 1 i n Im diskreten Fall ist log 2 p() die Anzahl der Bits, die notwendig sind, um optimal zu kodieren, wenn p() die Wahrscheinlichkeit für die Beobachtung von ist J. Zhang 215

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung (cont.) Kann die Zufallsvariable einen kontinuierlichen Wert annehmen, dann wird sie durch eine Dichtefunktion beschrieben (engl. probability density function, PDF) Eine typische Dichtefunktion ist die Normalverteilung mit Mittelwert µ und Varianz σ 2 : { } p() = (2πσ 2 ) 1 2 ep 1 ( µ) 2 2 σ 2 Im mehrdimensionalen Fall mit Mittelwertsvektor µ und Kovarianzmatri Σ: p() = det(2πσ) 1 2 ep { 1 2 ( µ)σ 1 ( µ) T } J. Zhang 216

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung (cont.) Die Kovarianzmatri Σ ist die Matri der paarweisen Kovarianzen eines Zufallsvektors X = (X 1,, X n ) Cov(X 1, X 1 ) Cov(X 1, X n ) Σ =..... Cov(X n, X 1 ) Cov(X n, X n ) Die Kovarianzmatri Σ ist positiv semidefinit und symmetrisch (A T 0, diagonalisierbar, Eigenwerte 0) Für eine PDF gilt: p()d = 1 Der Funktionswert einer PDF ist nicht wie bei diskreten Wahrscheinlichkeiten nach oben durch 1 begrenzt J. Zhang 217

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung (cont.) Für die Wahrscheinlichkeit, dass X den Wert und Y den Wert y hat, schreibt man p(, y) = p(x = und Y = y) Sind die beiden Zufallsvariablen X und Y von einander unabhängig gilt: p(, y) = p()p(y) Die Wahrscheinlichkeit für X unter der Voraussetzung, dass Y den Wert y besitzt (bedingte Wahrscheinlichkeit), wird wie folgt beschrieben p( y) = p(x = Y = y) J. Zhang 218

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung (cont.) Gilt für diese bedingte Wahrscheinlichkeit, dass p(y) > 0 ist, gilt: p(, y) p( y) = p(y) Sind X und Y voneinander unabhängig, gilt: p( y) = p()p(y) p(y) = p() Das bedeutet, wenn X und Y unabhängig voneinander sind, sagt uns Y nichts über X J. Zhang 219

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung (cont.) Gesetz der totalen Wahrscheinlichkeit: p() = y p( y)p(y) (diskret) p() = p( y)p(y)dy (kontinuierlich) Satz von Bayes: (mit p(y) > 0) p( y) p( y) = p(y )p() p(y) = = p(y )p() p(y) = p(y )p() p(y )p( ) p(y )p() p(y )p( )d (diskret) (kontinuierlich) Satz von Bayes beschreibt Umkehrung von Schlussfolgerungen die Berechnung von p(ereignis Ursache) ist oft einfach aber gesucht ist p(ursache Ereignis) J. Zhang 220

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung (cont.) Der Satz von Bayes spielt eine hervorgehobene Rolle Sei die Größe, die wir aus y ableiten wollen, dann bezeichnet man die Grundwahrscheinlichkeit p() als A-Priori-Wahrscheinlichkeit und y als Daten (z.b. Sensormessungen) Die Verteilung der p() beschreibt das Wissen über X, bevor die Messung y berücksichtigt wird Die Verteilung der p( y) wird als A-Posteriori-Wahrscheinlichkeit von X bezeichnet Der Satz von Bayes erlaubt die bedingte Wahrscheinlichkeit p( y) zu berechnen, wenn die Wahrscheinlichkeit für eine Messung y bei einem Zustand (p(y )) und die Grundwahrscheinlichkeiten p() und p(y) bekannt sind J. Zhang 221

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung (cont.) Im Satz von Bayes hängt die Grundwahrscheinlichkeit p(y) nicht von ab Daher ist der Faktor p(y) 1 für jeden Wert in p( y) gleich Dieser Faktor wird meist als Normaliserungsfaktor im Satz von Bayes notiert: p( y) = ηp(y )p() Der Faktor η wird derart gewählt, dass die Normierung der Verteilung auf 1 erhalten bleibt η bezeichnet im Folgenden immer solche Normalisierungsfaktoren, deren eigentliche Werte sich aber unterscheiden können J. Zhang 222

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung (cont.) Alle bisherigen Regeln können durch eine weitere Zufallsvariable Z bedingt sein Dies bedeutet für den Satz von Bayes mit Z = z: p( y, z) = p(y, z)p( z) p(y z) solange p(y z) > 0 Für die Regel zur Kombination unabhängiger Zufallsvariablen (p(a, b) = p(a)p(b)) gilt analog: p(, y z) = p( z)p(y z) J. Zhang 223

5.1 Rekursive Zustandsschätzung - Grundlagen der Wahrscheinlichkeitsrechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Grundlagen der Wahrscheinlichkeitsrechnung (cont.) p(, y z) = p( z)p(y z) besagt, dass y keine Information über trägt, wenn z bekannt ist Obige Formel beschreibt eine bedingte Unabhängigkeit und ist äquivalent zu p( z) = p( z, y) p(y z) = p(y z, ) Die Formel impliziert nicht, dass X unabhängig von Y ist: p(, y z) = p( z)p(y z) p(, y) = p()p(y) und die Umkehrung gilt generell auch nicht: p(, y) = p()p(y) p(, y z) = p( z)p(y z) J. Zhang 224

5.2 Rekursive Zustandsschätzung - Stochastische Fortpflanzungsgesetze und Belief 64-544 Grundlagen der Signalverarbeitung und Robotik Stochastische Fortpflanzunggesetze Der Zustand eines Systems lässt sich durch eine Wahrscheinlichkeitsverteilung p( t 0:t 1, z 1:t 1, u 1:t ) beschreiben, die abhängig ist von den bisherigen Zuständen 0:t 1 allen bisherigen Messungen z1:t 1 und allen bisherigen Stellgrößen (Steuerkommandos) u 1:t J. Zhang 225

5.2 Rekursive Zustandsschätzung - Stochastische Fortpflanzungsgesetze und Belief 64-544 Grundlagen der Signalverarbeitung und Robotik Stochastische Fortpflanzunggesetze (cont.) Ist der Zustand t komplett, dann fasst die Stellgröße u t und der Zustand t 1 alle bisherigen Ereignisse zusammen: p( t 0:t 1, z 1:t 1, u 1:t ) = p( t t 1, u t ) Für die Messungen gilt dann entsprechend: p(z t 0:t, z 1:t 1, u 1:t ) = p(z t t ) Der Zustand t ist ausreichend um die Messung z t vorherzusagen Die bedingte Wahrscheinlichkeit p( t t 1, u t ) wird als Zustandsübergangswahrscheinlichkeit bezeichnet Sie beschreibt wie sich der Zustand der Umgebung abhängig von den Stellgrößen ändert Die Wahrscheinlichkeit p(z t t ) wird Wahrscheinlichkeit der Messung genannt J. Zhang 226

5.2 Rekursive Zustandsschätzung - Stochastische Fortpflanzungsgesetze und Belief 64-544 Grundlagen der Signalverarbeitung und Robotik Stochastische Fortpflanzunggesetze (cont.) Zustandsübergangswahrscheinlichkeit und Wahrscheinlichkeit der Messung beschreiben zusammen ein dynamisches stochastisches System Eine solche Systembeschreibung ist auch bekannt als hidden Markov model (HMM) oder dynamic Bayes network (DBN) t 1 t t+1 ut 1 ut u t+1 z t 1 z t z t+1 J. Zhang 227

5.2 Rekursive Zustandsschätzung - Stochastische Fortpflanzungsgesetze und Belief 64-544 Grundlagen der Signalverarbeitung und Robotik Belief Als belief bezeichnet man das Wissen (Schätzung) eines Systems über seinen Zustand Der wahre Zustand eines Systems ist nicht dasselbe Der belief ist die A-Posteriori-Wahrscheinlichkeit der Zustandsvariablen anhand der bisherigen Daten: bel( t ) = p( t z 1:t, u 1:t ) Diese Definition berechnet den belief (als Wahrscheinlichkeit) nach der aktuellen Messung t J. Zhang 228

5.2 Rekursive Zustandsschätzung - Stochastische Fortpflanzungsgesetze und Belief 64-544 Grundlagen der Signalverarbeitung und Robotik Belief (cont.) Der belief vor der Messung wird als bel( t ) = p( t z 1:t 1, u 1:t ) definiert und meist als Vorhersage (engl. prediction) bezeichnet Der Schritt zur Berechung von bel( t ) aus der Vorhersage bel( t ) wird als Korrektur (engl. correction oder measurement update) bezeichnet J. Zhang 229

5.3 Rekursive Zustandsschätzung - Bayes-Filter 64-544 Grundlagen der Signalverarbeitung und Robotik Bayes-Filter Ein allgemeiner Algorithmus, um beliefs zu berechnen, ist der Bayes-Filter-Algorithmus Der Algorithmus ist rekursiv und berechnet bel( t ) zum Zeitpunkt t aus folgenden Größen bel(t 1 ) zum Zeitpunkt t 1 (alter belief) der Stellgröße ut (aktuelle Stellgröße) der Messung z t (aktuelle Messung) J. Zhang 230

Universität Hamburg 5.3.1 Rekursive Zustandsschätzung - Bayes-Filter - Algorithmus 64-544 Grundlagen der Signalverarbeitung und Robotik Bayes-Filter-Algorithmus Bayes-Filter (bel( t 1 ), u t, z t ): 1. for all t do 2. bel( t ) = p( t u t, t 1 ) bel( t 1 ) d t 1 3. bel( t ) = η p(z t t )bel( t ) 4. endfor 5. return bel( t ) J. Zhang 231

5.3.1 Rekursive Zustandsschätzung - Bayes-Filter - Algorithmus 64-544 Grundlagen der Signalverarbeitung und Robotik Bayes-Filter-Algorithmus (cont.) In Zeile 2 wird die Stellgröße u t verarbeitet bel( t ) ist das Integral des Produktes zweier Wahrscheinlichkeitsverteilungen: die Wahrscheinlichkeit für Zustand t 1 und die Wahrscheinlichkeit das mit u t in den Zustand t gewechselt wird Das ist die Vorhersage In Zeile 3 findet die Korrektur statt Vorhersage (bel(t )) wird mit der Wahrscheinlichkeit multipliziert, dass die Messung z t in diesem Zustand wahrgenommen wird J. Zhang 232

5.3.1 Rekursive Zustandsschätzung - Bayes-Filter - Algorithmus 64-544 Grundlagen der Signalverarbeitung und Robotik Bayes-Filter-Algorithmus (cont.) Der Algorithmus muss mit einem belief zum Zeitpunkt t = 0 initialisiert werden In den meisten Fällen ist der Startzustand 0 bekannt und die Wahrscheinlichkeit kann für alle anderen Zustände gleich 0 gesetzt werden Oder der Zustand ist unbekannt und alle Zustände werden mit der gleichen Wahrscheinlichkeit initialisiert J. Zhang 233

5.3.1 Rekursive Zustandsschätzung - Bayes-Filter - Algorithmus 64-544 Grundlagen der Signalverarbeitung und Robotik Bayes-Filter-Algorithmus (cont.) Der Algorithmus kann in dieser Form nur für sehr einfache Probleme implementiert werden Entweder muss die Integration in Zeile 2 und die Multiplikation in Zeile 3 in geschlossener Form möglich sein oder ein endlicher Zustandsraum muss gegeben sein, so dass das Integral in Zeile 2 zu einer Summe wird J. Zhang 234

5.3.2 Rekursive Zustandsschätzung - Bayes-Filter - Mathematische Herleitung 64-544 Grundlagen der Signalverarbeitung und Robotik Mathematische Herleitung des Bayes-Filter Beweis durch Induktion: Zeige, dass bel( t ) = p( t z 1:t, u 1:t ) aus p( t 1 z 1:t 1, u 1:t 1 ) hergeleitet werden kann Beweis-Basis: Korrekte Initialisierung von bel( o ) zum Zeitpunkt t = 0 Bedingungen: Zustand t ist komplett und die Stellgrößen werden zufällig gewählt Nach dem Satz von Bayes gilt: bel( t ) = p( t z 1:t, u 1:t ) = p(z t t, z 1:t 1, u 1:t )p( t z 1:t 1, u 1:t ) p(z t z 1:t 1, u 1:t ) = ηp(z t t, z 1:t 1, u 1:t )p( t z 1:t 1, u 1:t ) J. Zhang 235

5.3.2 Rekursive Zustandsschätzung - Bayes-Filter - Mathematische Herleitung 64-544 Grundlagen der Signalverarbeitung und Robotik Mathematische Herleitung des Bayes-Filter (cont.) bel( t ) = p( t z 1:t, u 1:t ) = ηp(z t t, z 1:t 1, u 1:t )p( t z 1:t 1, u 1:t ) Da der Zustand komplett ist, gilt (bedingte Unabhängigkeit) p(z t t, z 1:t 1, u 1:t ) = p(z t t ) Daraus folgt: p( t z 1:t, u 1:t ) = ηp(z t t )p( t z 1:t 1, u 1:t ) und damit bel( t ) = ηp(z t t )bel( t ) was Zeile 3 des Bayes-Filter-Algorithmus entspricht J. Zhang 236

5.3.2 Rekursive Zustandsschätzung - Bayes-Filter - Mathematische Herleitung 64-544 Grundlagen der Signalverarbeitung und Robotik Mathematische Herleitung des Bayes-Filter (cont.) Nach dem Gesetz der totalen Wahrscheinlichkeit gilt: bel( t ) = p( t z 1:t 1, u 1:t ) = p( t t 1, z 1:t 1, u 1:t ) p( t 1 z 1:t 1, u 1:t ) d t 1 Wieder gilt, wenn wir t 1 kennen, liefern z 1:t 1 und u 1:t 1 keine zusätzliche Information Daher gilt die Vereinfachung p( t t 1, z 1:t 1, u 1:t ) = p( t t 1, u t ) u t bleibt, da diese Stellgröße erst zum Zustandsübergang führt J. Zhang 237

5.3.2 Rekursive Zustandsschätzung - Bayes-Filter - Mathematische Herleitung 64-544 Grundlagen der Signalverarbeitung und Robotik Mathematische Herleitung des Bayes-Filter (cont.) Bei zufällig gewählten Stellgrößen kann u t daher auch in den Bedingungen für p( t 1 z 1:t 1, u 1:t ) weggelassen werden Es ergibt sich mit bel( t ) = p( t t 1, u t ) p( t 1 z 1:t 1, u 1:t 1 ) d t 1 die 2. Zeile des Bayes-Filter-Algoritmus J. Zhang 238

5.3.2 Rekursive Zustandsschätzung - Bayes-Filter - Mathematische Herleitung 64-544 Grundlagen der Signalverarbeitung und Robotik Mathematische Herleitung des Bayes-Filter (cont.) Für konkrete Implementierungen des Bayes-Filter-Algoritmus werden drei Wahrscheinlichkeitsverteilungen benötigt: der initiale belief p(0 ) die Wahrscheinlichkeit der Messungen p(z t t ) die Zustandsübergangswahrscheinlichkeiten p( t u t, t 1 ) J. Zhang 239

5.3.3 Rekursive Zustandsschätzung - Bayes-Filter - Markov Annahme 64-544 Grundlagen der Signalverarbeitung und Robotik Markov-Annahme Die Annahme, dass ein Zustand komplett ist, wird Markov-Annahme (engl. Markov assumption) genannt Die Annahme fordert, dass vergangene und zukünftige Daten unabhängig sind, wenn man den aktuellen Zustand t kennt J. Zhang 240

5.3.3 Rekursive Zustandsschätzung - Bayes-Filter - Markov Annahme 64-544 Grundlagen der Signalverarbeitung und Robotik Markov-Annahme (cont.) Das folgende Beispiel soll verdeutlichen, wie hart diese Annahme ist: Zur Lokalisierung mobiler Roboter werden Bayes-Filter eingesetzt Dabei ist t die Position im Raum (Pose) des Roboters mit Bezug auf eine feste Karte Es gibt Effekte die die Sensormessungen systematisch verfälschen und damit die Markov-Annahme zunichte machen: Einfluss sich bewegender Personen auf die Sensormessungen Ungenauigkeiten in den probabilistischen Modellen p(z t t) und p( t u t, t 1) Rundungsfehler, wenn Näherungen für die Repräsentation des beliefs verwendet werden Variablen innerhalb der Software, die mehrere Stellgrößen beeinflussen J. Zhang 241

5.3.3 Rekursive Zustandsschätzung - Bayes-Filter - Markov Annahme 64-544 Grundlagen der Signalverarbeitung und Robotik Markov-Annahme (cont.) Einige dieser Variablen könnten im Zustand berücksichtigt werden, werden aber oft fallen gelassen, um den rechnerischen Aufwand zu verringern In der Prais sind Bayes-Filter erstaunlich robust gegen die Verletzung der Markov-Annahme J. Zhang 242

5.3.4 Rekursive Zustandsschätzung - Bayes-Filter - Darstellung und Berechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Darstellung und Berechnung Bayes-Filter können auf unterschiedliche Weise implementiert werden Die Techniken basieren auf unterschiedlichen Annahmen über die Wahrscheinlichkeiten für die Messungen, die Zustandsübergänge und den belief Die Algorithmen besitzen dadurch unterschiedliche rechnerische Eigenschaften In den meisten Fällen müssen die beliefs angenähert werden Dies hat Auswirkungen auf die Kompleität der Algorithmen Keine der verschiedenen Techniken ist generell zu bevorzugen J. Zhang 243

5.3.4 Rekursive Zustandsschätzung - Bayes-Filter - Darstellung und Berechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Beispiele Kalman-Filter Fehlerverteilung der Messfehler durch Gaussverteilung modelliert Veränderung des Zustandes linear und a-priori bekannt Partikelfilter von gitterbasierter Lokalisierung abgeleitet keine Annahme der Normalverteilung des geschätzten Wertes Schätzung wird als Wahrscheinlichkeitsverteilung modelliert Verteilung wird an ausgewählten Stellen, den sog. Partikeln diskretisiert und zwischen diesen wird interpoliert. J. Zhang 244

5.3.4 Rekursive Zustandsschätzung - Bayes-Filter - Darstellung und Berechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Effizienz Einige Näherungen bedingen polynomiale Laufzeiten in Abhängigkeit von der Dimension des Zustands (z.b. Kalman-Filter) Einige haben eponentielle Laufzeiten (z. B. gridbasierte Techniken) Partikel-basierte Verfahren haben eine Laufzeit, die von der gewünschten Genauigkeit abhängt J. Zhang 245

5.3.4 Rekursive Zustandsschätzung - Bayes-Filter - Darstellung und Berechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Genauigkeit Einige Näherungen eignen sich besser, um eine Reihe von Wahrscheinlichkeitsverteilungen anzunähern Beispielsweise eignen sich Normalverteilungen für uni-modale Wahrscheinlichkeitsverteilungen Histogramme können multimodale Verteilungen besser annähern, aber auf Kosten der Genauigkeit Partikel-Techniken können eine Vielzahl von Verteilungen annähern, wodurch allerdings die Anzahl der Partikel sehr groß werden kann J. Zhang 246

5.3.4 Rekursive Zustandsschätzung - Bayes-Filter - Darstellung und Berechnung 64-544 Grundlagen der Signalverarbeitung und Robotik Einfachheit der Implementierung Abhängig von der Form der Verteilungen kann die Implementierung der Verfahren aufwändig sein Weil Partikel-Techniken meist sehr einfach für nicht-lineare Systeme implementiert werden können, sind sie zurzeit sehr populär J. Zhang 247

5.3.5 Rekursive Zustandsschätzung - Bayes-Filter - Zusammenfassung 64-544 Grundlagen der Signalverarbeitung und Robotik Zusammenfassung Die Interaktion zwischen einem Roboter und dessen Umgebung wird modelliert als gekoppeltes dynamisches System. Der Roboter setzt dazu Stellgrößen um die Umgebung zu manipulieren und nimmt die Umgebung über Sensormessungen war. Die Dynamiken werden charakterisiert durch zwei wahrscheinlichkeitstheoretische Gesetze die Wahrscheinlichkeitsverteilungen für den Zustandsübergang die " die Messungen Erstere beschreibt wie der Zustand sich mit der Zeit ändert, die Zweite, wie Messungen wahrgenommen werden. J. Zhang 248

5.3.5 Rekursive Zustandsschätzung - Bayes-Filter - Zusammenfassung 64-544 Grundlagen der Signalverarbeitung und Robotik Zusammenfassung (cont.) Der belief ist die A-Posteriori-Wahrscheinlichkeit des Zustands; gegeben: Alle bisherigen Messungen und Stellgrößen. Der Bayes-Filter ist ein Algorithmus um den belief zu berechnen. Er ist rekursiv, d.h. der belief zum Zeitpunkt t wird aus dem belief zum Zeitpunkt t-1 berechnet. Der Bayes-Filter macht eine Markov-Annahme, d.h. der Zustand ist eine komplette Zusammenfassung der Vergangenheit. Diese Annahme trifft in der Prais meist nicht zu. Bayes-Filter sollten vor ihrm Einsatz in speziellen Anwendungen anhand verschiedener Kriterien wie Genauigkeit, Effizienz und Einfachheit evaluiert werden. J. Zhang 249

5.4.1 Rekursive Zustandsschätzung - Selbst-Lokalisierung mobiler Roboter - Markov-Lokalisierung 64-544 Grundlagen der Signalverarbeitung und Robotik Markov-Lokalisierung Wahrscheinlichkeitstheoretische Lokalisierungsverfahren sind Varianten des Bayes-Filters Die direkte Anwendung des Bayes-Filters wird Markov-Lokalisierung genannt Markov-Lokalisierungen benötigen zusätzlich eine Karte der Umgebung Die Karte spielt eine Rolle im Messmodell (teilweise auch im Bewegungsmodell) Markov-Lokalisierung wird verwendet für globale Lokalisierung Positions-Tracking das Kidnapped-Robot-Problem J. Zhang 250

5.4.1 Rekursive Zustandsschätzung - Selbst-Lokalisierung mobiler Roboter - Markov-Lokalisierung 64-544 Grundlagen der Signalverarbeitung und Robotik Markov-Lokalisierung (cont.) bel() p(z ) bel() bel() p(z ) bel() bel() J. Zhang 251

5.4.2 Rekursive Zustandsschätzung - Selbst-Lokalisierung mobiler Roboter - Etended Kalman Filter Lokalisierung 64-544 Grundlagen der Signalverarbeitung und Robotik Etended Kalman Filter Lokalisierung Ein besonderer Fall der Markov-Lokalisierung ist der etended Kalman filter localisation Algorithmus (oder EKF-Lokalisierung) Die EKF-Lokalisierung repräsentiert den belief bel( t ) durch den Mittelwert µ t und die Kovarianzmatri Σ t Die Karte ist dabei eine Sammlung von Merkmalen Der Roboter misst die Entfernung und Richtung einiger Merkmale in seiner Nähe J. Zhang 252

5.4.2 Rekursive Zustandsschätzung - Selbst-Lokalisierung mobiler Roboter - Etended Kalman Filter Lokalisierung 64-544 Grundlagen der Signalverarbeitung und Robotik Etended Kalman Filter Lokalisierung (cont.) 1 2 3 bel() 1 2 3 bel() 1 2 3 p(z ) bel() 1 2 3 bel() J. Zhang 253

5.4.3 Rekursive Zustandsschätzung - Selbst-Lokalisierung mobiler Roboter - Grid-Lokalisierung 64-544 Grundlagen der Signalverarbeitung und Robotik Grid-Lokalisierung Grid-Lokalisierung approimiert den belief durch einen Histogram-Filter über die Grid-Dekomposition des Zustandsraumes Dieser diskrete Bayes-Filter verwaltet eine Menge diskreter Wahrscheinlichkeitswerte: bel t = {p k,t } wobei jedes p k,t zu einer Grid-Zelle k gehört Typische Wertefür die Zellengröße in der Prais sind 15cm Kantenlänge und 5 Winkelauflösung J. Zhang 254

5.4.3 Rekursive Zustandsschätzung - Selbst-Lokalisierung mobiler Roboter - Grid-Lokalisierung 64-544 Grundlagen der Signalverarbeitung und Robotik Grid-Lokalisierung (cont.) bel() Robot position p(z ) bel() bel() Robot position p(z ) bel() Robot position bel() J. Zhang 255

5.4.4 Rekursive Zustandsschätzung - Selbst-Lokalisierung mobiler Roboter - Monte-Carlo-Lokalisierung 64-544 Grundlagen der Signalverarbeitung und Robotik Monte-Carlo-Lokalisierung Monte-Carlo-Lokalisierung (MCL) approimiert den belief durch eine Menge von Partikeln Sehr populär Mit MCL können nahezu beliebige Verteilungsfunktionen angenähert werden Es können multimodale und unimodale Verteilungen approimiert und übergangslos zwischen ihnen gewechselt werden Eine höhere Anzahl von Partikeln erhöht die Genauigkeit J. Zhang 256

5.4.4 Rekursive Zustandsschätzung - Selbst-Lokalisierung mobiler Roboter - Monte-Carlo-Lokalisierung 64-544 Grundlagen der Signalverarbeitung und Robotik Monte-Carlo-Lokalisierung (cont.) bel() p(z ) bel() bel() p(z ) bel() bel() J. Zhang 257

5.5 Rekursive Zustandsschätzung - Literatur 64-544 Grundlagen der Signalverarbeitung und Robotik [TBF05] Sebastian Thrun, Wolfram Burgard, Dieter Fo, Ronald C. Arkin (Hrsg.): Probabilistic Robotics. MIT Press; Cambridge, Massachusetts, 2005 (Intelligent Robotics and Autonomous Agents). Kapitel 2 J. Zhang 258