Kalman-Filter und Target Tracking
|
|
|
- Nikolas Holtzer
- vor 9 Jahren
- Abrufe
Transkript
1 Kalman-Filter und Target Tracking Peter Poschmann Hochschule für Technik und Wirtschaft Dresden Fakultät Informatik/Mathematik 23. März 2016
2 Inhalt 1 Kalman-Filter Einleitung Eindimensionaler Kalman-Filter Mehrdimensionaler Kalman-Filter 2 Erweiterter Kalman-Filter Linearisierung Extended Kalman Filter 3 Target Tracking Bewegungsmodelle Beobachtungsmodelle Data Association Problem 4 Abschließendes Weitere Informationen Praktikum 1 / 30
3 Kalman-Filter 1 Kalman-Filter Einleitung Eindimensionaler Kalman-Filter Mehrdimensionaler Kalman-Filter 2 Erweiterter Kalman-Filter Linearisierung Extended Kalman Filter 3 Target Tracking Bewegungsmodelle Beobachtungsmodelle Data Association Problem 4 Abschließendes Weitere Informationen Praktikum 2 / 30
4 Motivation Roboter soll sich autonom bewegen Kollision mit Personen und anderen bewegten Objekten vermeiden Ausreichend Abstand zu Personen einhalten (sollen keine Angst haben) Wo sind Personen/Objekte und wohin bewegen sie sich? Interaktion mit Personen Wo sind (interaktionsbereite) Personen? Tracking von Personen/Objekten nötig Messwerte sind fehlerbehaftet Kalman-Filter ist eine Methode zur Lösung dieses Problems Einleitung 3 / 30
5 Kalman-Filter Rekursiver Zustandsschätzer Bayes-Filter kontinuierlicher (Zustands-)raum Modelliert Unsicherheit mittels Normalverteilung bel(x) = N(x; µ, σ2) bzw. bel(x) = N(x; µ, Σ) Zwei Schritte, abwechselnd ausgeführt - analog zu Bayes-Filter Motion update (prediction) Measurement update (correction) Voraussetzung/Einschränkung: Zustandsübergang, Beobachtung und Zustand sind normalverteilt (stochastische Messfehler) Lineare Gleichungen Einleitung 4 / 30
6 Eindimensionale Normalverteilung Oder auch: Gauss-Verteilung, Gauss-Kurve Unimodal (nur ein Maximum) { } p(x) = 1 exp (x µ)2 2πσ 2 2σ 2 µ... Erwartungswert σ... Standardabweichung σ2... Varianz Fläche unter der Kurve ist 1 (wie bei allen Wahrscheinlichkeitsdichtefunktionen) Je größer σ bzw. σ2 (höhere Unsicherheit), desto niedriger und breiter das Maximum Einleitung 5 / 30
7 Measurement update Measurement update / correction Normalverteilung nach Update Weniger Unsicherheit als vor Update Weniger Unsicherheit als Beobachtung Informationsgewinn Update (1D): Zustand (z.b. Position): N(µ, σ 2 ) Beobachtung: N(z, r 2 ) K = σ2 σ 2 +r... Kalman Gain 2 µ = µ + K(z µ) σ 2 = (1 K)σ 2 Eindimensionaler Kalman-Filter 6 / 30
8 Motion update Motion update / prediction Normalverteilung nach Update Mehr Unsicherheit als vor Update Informationsverlust Update (1D): Zustand (z.b. Position): N(µ, σ 2 ) Zustandsänderung (z.b. Bewegung/Geschwindigkeit): N(u, q 2 ) µ = µ + u σ 2 = σ 2 + q 2 Eindimensionaler Kalman-Filter 7 / 30
9 Zusammenfassung 1D Kalman-Filter Satz µ t = µ t 1 + u t σ t 2 = σt q2 t K t = σ2 t σ 2 t +r2 t µ t = µ t + K t (z t µ t ) σ 2 t = (1 K t ) σ 2 t Eindimensionaler Zustandsschätzer mit Modellierung der Unsicherheit Vorraussetzung: Control u (Änderung bzw. Bewegung) muss bekannt sein Beim Tracking typischerweise nicht bekannt Muss mitgeschätzt werden Weitere Dimension(en) Eindimensionaler Kalman-Filter 8 / 30
10 Multivariate Normalverteilung Multivariat = mehrdimensional { } 1 p(x) = exp 1 (2π) k/2 Σ 1/2 2 (x µ)t Σ 1 (x µ) µ R k... Erwartungswertvektor Σ R k k... Kovarianzmatrix k... Anzahl Dimensionen Mehrdimensionaler Kalman-Filter 9 / 30
11 Mehrdimensionaler Kalman-Filter Beobachtbare und versteckte Zustände Interagieren miteinander Beobachtbare Zustände geben Information über versteckte Zustände Kalman-Filter kann versteckte Zustände schätzen (auch andere Filter, wie z.b. Partikelfilter, können das) Prozessmodell mit normalverteiltem Prozessrauschen x t = A t x t 1 + B t u t + ε t with ε t N(0, Q t ) Beim Target Tracking ist Steuervektor u t meist unbekannt, Term B t u t fällt dann raus Messmodell mit normalverteiltem Messrauschen z t = C t x t + δ t with δ t N(0, R t ) Transformiert Zustand in (erwartete) Beobachtung Entfernt im wesentlichen versteckte Zustände (z.b. Geschwindigkeit, nur Position bleibt übrig) Mehrdimensionaler Kalman-Filter 10 / 30
12 Kalman-Filter Algorithmus (1) Satz µ t = A t µ t 1 + B t u t Σ t = A t Σ t 1 A T t + Q t oder Σ t = A t Σ t 1 A T t + B t Q t B T t y t = z t C t µ t S t = C t Σt Ct T + R t K t = Σ t Ct T St 1 µ t = µ t + K t y t Σ t = (I K t C t ) Σ t = Σ t K t S t Kt T Wenn Unsicherheit Q t im Zustandsraum, dann: Σ t = A t Σ t 1 A T t + Q t Wenn Unsicherheit Q t im Steuerraum, dann in Zustandsraum transformieren: Σ t = A t Σ t 1 A T t + B t Q t B T t Mehrdimensionaler Kalman-Filter 11 / 30
13 Kalman-Filter Algorithmus (2) Definitionen µ... Systemvektor (Zustand) Σ... Kovarianzmatrix (Unsicherheit) des Zustands A... Systemmatrix / state transition matrix u... Steuervektor (Änderung von außen) B... Steuermatrix Q... Kovarianzmatrix (Unsicherheit) der Änderung z... Messvektor (Beobachtung) R... Kovarianzmatrix (Unsicherheit) der Beobachtung C... Messmatrix / measurement transformation matrix y... Residuumvektor S... Kovarianzmatrix des Residuums K... Kalmanverstärkungsmatrix / Kalman Gain I... Einheitsmatrix Mehrdimensionaler Kalman-Filter 12 / 30
14 Zusammenhang zwischen Bayes-Filter und Kalman-Filter State transition function with white Gaussian noise: x t = A t x t 1 + B t u t + ε t with ε t N(0, Q t ) Prediction: bel(x t ) = p(x t u t, x t 1 )bel(x t 1 )dx t 1 bel(x t ) = N(x t ; µ t, Σ t )... prior (belief after prediction) bel(x t 1 ) = N(x t 1 ; µ t 1, Σ t 1 )... previous belief p(x t u t, x t 1 ) = N(x t ; A t x t 1 + B t u t, Q t )... state transition probability Measurement function with white Gaussian noise: z t = C t x t + δ t with δ t N(0, R t ) Correction: bel(x t ) = η p(z t x t )bel(x t ) bel(x t ) = N(x t ; µ t, Σ t )... posterior (belief after correction) bel(x t ) = N(x t ; µ t, Σ t )... prior (belief before correction) p(z t x t ) = N(z t ; C t x t, R t )... measurement probability Mehrdimensionaler Kalman-Filter 13 / 30
15 Anwendungen Selbstlokalisierung des Roboters SLAM Personentracking Positions- und Orientierungsbestimmung von Flugzeugen Schätzung von Fahrzeugdynamik und -masse Ganz allgemein Zustandsschätzer für dynamische Systeme Schätzung nicht-beobachtbarer Zustände Mehrdimensionaler Kalman-Filter 14 / 30
16 Erweiterter Kalman-Filter 1 Kalman-Filter Einleitung Eindimensionaler Kalman-Filter Mehrdimensionaler Kalman-Filter 2 Erweiterter Kalman-Filter Linearisierung Extended Kalman Filter 3 Target Tracking Bewegungsmodelle Beobachtungsmodelle Data Association Problem 4 Abschließendes Weitere Informationen Praktikum 15 / 30
17 Nichtlinearität Funktionen sind häufig nichtlinear Transformation von kartesischen Koordinaten (x, y) zu Polarkoordinaten (LRF-Messungen) (ϕ, r) ϕ = tan 1 y x r = x 2 + y 2 Kann nicht in Form z = Cx dargestellt werden Angabe der Bewegung in Form von Richtung θ und Distanz d x = x + d cos θ y = y + d sin θ Kann nicht in Form x = Ax + Bu dargestellt werden Lösung: Linearisierung Finden einer linearen Funktion, die der tatsächlichen Funktion möglichst nahe kommt Linearisierung 16 / 30
18 Taylor-Entwicklung Taylor-Reihe von f an Stelle a: P (x) = f(a)+ f (a) 1! (x a)+ f (a) 2! (x a) f (n) (a) n! (x a) n +... = f (n) (a) n=0 n! (x a) n Nutzung der ersten beiden Terme und Weglassen der Restlichen ergibt lineare Funktion Linearisierung von f an Stelle a T 1 (x) = f(a) + f (a) (x a) An Stelle a stimmen f und T 1 überein An Stelle a stimmen Anstiege von f und T 1 überein Je größer der Abstand zu Stelle a, desto größer der Unterschied zwischen f und T 1 (typischerweise) Extended Kalman-Filter nutzt Taylor-Entwicklung erster Ordnung, um Funktionen zu linearisieren Linearisierung 17 / 30
19 Linearisierung der Funktionen Prozessmodell x t = A t x t 1 + B t u t + ε t wird zu x t = g(u t, x t 1 ) + ε t Linearisierung an u t und µ t 1 g(u t, x t 1 ) g(u t, µ t 1 ) + g (u t, µ t 1 )(x t 1 µ t 1 ) G t = g(ut,xt 1) x t 1... Gegenstück zu A t V t = g(ut,xt 1) u t... Gegenstück zu B t G t / V t enthalten partielle Ableitungen von g nach x t 1 / u t Messmodell z t = C t x t + δ t wird zu z t = h(x t ) + δ t Linearisierung an Stelle µ t h(x t ) h( µ t ) + h ( µ t )(x t µ t ) h ( µ t ) = h( µ) x t = H t... Gegenstück zu C t H t enthält partielle Ableitungen von h nach x t G t, V t, H t... Jacobi-Matritzen Linearisierung 18 / 30
20 Jacobi-Matrix Vektor Funktionen f = f 1 (x) f 2 (x). f m (x) f 1 f 1 x 1 x 2 f 2 f 2 Jacobi-Matrix F x = x 1 x f m f m x 1 x 2 m... Anzahl der Funktionen in f f 1 x n f 2 x n f m x n n... Anzahl der Variablen, nach denen abgeleitet wird Linearisierung 19 / 30
21 Extended Kalman-Filter Satz µ t = g(u t, µ t 1 ) Σ t = G t Σ t 1 G T t + Q t oder Σ t = G t Σ t 1 G T t + V t Q t Vt T y t = z t h( µ t ) S t = H t Σt Ht T + R t K t = Σ t Ht T St 1 µ t = µ t + K t y t Σ t = (I K t H t ) Σ t Wenn Unsicherheit Q t im Zustandsraum, dann: Σ t = G t Σ t 1 G T t + Q t Wenn Unsicherheit Q t im Steuerraum, dann in Zustandsraum transformieren: Σ t = G t Σ t 1 G T t + V t Q t V T t Extended Kalman Filter 20 / 30
22 EKF: Zusammenfassung Nichtlineare Funktionen (Zustandsübergang und/oder Beobachtung) Linearisierung mittels Taylor-Reihe erster Ordnung Gradient im mehrdimensionalen Fall gegeben durch Jacobi-Matrix Je höher die Unsicherheit, desto mehr liegt Linearisierung daneben Extended Kalman Filter 21 / 30
23 Target Tracking 1 Kalman-Filter Einleitung Eindimensionaler Kalman-Filter Mehrdimensionaler Kalman-Filter 2 Erweiterter Kalman-Filter Linearisierung Extended Kalman Filter 3 Target Tracking Bewegungsmodelle Beobachtungsmodelle Data Association Problem 4 Abschließendes Weitere Informationen Praktikum 22 / 30
24 Bewegungsmodelle Im Target Tracking ist Control u nicht bekannt Kompensation durch Bewegungsmodelle Brownian Motion Wenn Bewegung kaum vorhersagbar, stark zufällig/chaotisch Nur Position wird geschätzt Positions-Erwartungswert bleibt konstant in Vorhersage Vorhersage erhöht lediglich die Unsicherheit Constant Velocity Geschwindigkeit wird mitgeschätzt Vorhersage ändert Position anhand Geschwindigkeit Geschwindigkeits-Erwartungswert bleibt konstant in Vorhersage Constant Acceleration Geschwindigkeit und Beschleunigung wird mitgeschätzt Vorhersage ändert Position anhand Geschw. und Beschl. Vorhersage ändert Geschwindigkeit anhand Beschleunigung Beschleunigungs-Erwartungswert bleibt konstant in Vorhersage Bewegungsmodelle 23 / 30
25 Beobachtungsmodelle Am Beispiel Personentracking Background subtraction LRF: Umgebung statisch, Karte vorhanden Kamera: Hintergrund statisch, Bild ohne Personen vorhanden Mustererkennung LRF: z.b. Minima im Scan, Clustering & Analyse Kamera: z.b. mit Klassifikation auf extrahierten Features (Gesichtsdetektion,...) Beobachtungsmodelle 24 / 30
26 Zuordnungsprobleme Data Association Problem Mehrere Tracking Targets, mehrere Beobachtungen Welche Beobachtung wurde von welchem Target generiert? Zusätzliche Probleme Sensor Noise Falsche Detektionen Fehlende Detektionen Lösungsansätze Gutes Bewegungsmodell Merkmale, die Identifikation/Unterscheidung ermöglichen Mehrere Varianten berücksichtigen Data Association Problem 25 / 30
27 Abschließendes 1 Kalman-Filter Einleitung Eindimensionaler Kalman-Filter Mehrdimensionaler Kalman-Filter 2 Erweiterter Kalman-Filter Linearisierung Extended Kalman Filter 3 Target Tracking Bewegungsmodelle Beobachtungsmodelle Data Association Problem 4 Abschließendes Weitere Informationen Praktikum 26 / 30
28 Weitere Informationen Kurs Programming a Robotic Car von Udacity playlist?list=plawxtw4syapkcsyxw6-a_aaoxvkldwnhk (ab Video Nummer 77 - Tracking Intro ) Vorlesungsfolien der Arbeitsgruppe Autonome Intelligente Systeme der Universität Freiburg (Kalman Filter und Extended Kalman Filter) (Target Tracking) Weitere Informationen 27 / 30
29 Praktikumsaufgabe Kalman-Filter Tracking eines einzelnen Objekts mittels LRF Constant velocity model Zustand x = (x, y, ẋ, ẏ) T Beobachtung z = (x, y) T Vanilla Kalman-Filter Im Wesentlichen: Implementierung des Algorithmus, Aufstellen der Matritzen Praktikum 28 / 30
30 Praktikumsaufgabe Partikel-Filter Lokalisierung des Roboters Partikelfilter Vorgegebene Startposition Gridkarte der Umgebung LRF Im Wesentlichen: Implementierung von Algorithmus, Bewegungsmodell, Beobachtungsmodell (Partikel bewerten) Praktikum 29 / 30
31 Das wars. Fragen? Praktikum 30 / 30
Kalmanfilter und Nichtparametrische Filter. Bayesfilter
Kalmanfilter und Nichtparametrische Filter Daniel Göhring 06.11.2006 Bayesfilter Zustand zur Zeit t ist Zufallvariable x t Wahrscheinlichkeitsfunktion Bel (Belief) über x t : Bel(x t ) repräsentiert die
9 SLAM Simultaneous Localization and Mapping
9 SLAM Simultaneous Localization and Mapping Einleitung eines der aktivsten Forschungsgebiete innerhalb der Robotik Roboterlokalisierung bei gegebener Karte (Kap. 8 und Karte aus Sensordaten bei bekannter
Grundlagen der Objektmodellierung
Grundlagen der Objektmodellierung Daniel Göhring 30.10.2006 Gliederung Grundlagen der Wahrscheinlichkeitsrechnung Begriffe zur Umweltmodellierung Bayesfilter Zusammenfassung Grundlagen der Wahrscheinlichkeitsrechnung
Computer Vision: Kalman Filter
Computer Vision: Kalman Filter D. Schlesinger TUD/INF/KI/IS D. Schlesinger () Computer Vision: Kalman Filter 1 / 8 Bayesscher Filter Ein Objekt kann sich in einem Zustand x X befinden. Zum Zeitpunkt i
Modellierung von Unsicherheit in Systemen
Modellierung von Unsicherheit in Systemen Motivation Systeme Zeitdiskrete, lineare und nicht-lineare Systeme, Beispiele Wahrscheinlichkeiten Zufallsvariablen, Wahrscheinlichkeitsdichten, mehrdimensionale
Der diskrete Kalman Filter
Der diskrete Kalman Filter Fachbereich: Informatik Betreuer: Marc Drassler Patrick Winkler 1168954 6. Dezember 2004 Technische Universität Darmstadt Simulation und Systemoptimierung Darmstadt Dribbling
Mathematische Grundlagen Kalman Filter Beispielprogramm. Kalman Filter. Stephan Meyer
Kalman Filter Stephan Meyer FWPF Ortsbezogene Anwendungen und Dienste Georg-Simon-Ohm-Hochschule Nürnberg 07.12.2007 Outline 1 Mathematische Grundlagen 2 Kalman Filter 3 Beispielprogramm Mathematische
Beispiel: Positionsschätzung
Das Kalman Filter Beispiel: Positionsschätzung Beispiel: Positionsschätzung. Messung: mit Varianz Daraus abgeleitete Positionsschätzung: mit Varianz ˆX = = f f ( y ) y 3 Beispiel: Positionsschätzung. Messung:
SLAM. Simultaneous Localization and Mapping. KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann
SLAM Simultaneous Localization and Mapping KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann Simultaneous Localization And Mapping SLAM Problematik SLAM Arten SLAM Methoden: (E)KF SLAM GraphSLAM Fast
Intelligente Roboter
64-424 Intelligente Roboter 64-424 Intelligente Roboter http://tams.informatik.uni-hamburg.de/ lectures/2010ws/vorlesung/ir Jianwei Zhang Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften
Fast-SLAM: Synchrone Lokalisierung und Kartenerstellung mit einem Partikel-Filter
Fast-SLAM: Synchrone Lokalisierung und Kartenerstellung mit einem Partikel-Filter! Landmarkenbasiertes Fast-SLAM! Gitterbasiertes Fast-Slam! Optimierungen Prof. Dr. O. Bittel, HTWG Konstanz Autonome Roboter
HAW Hamburg Anwendung 1 - Vortrag Andrej Rull
HAW Hamburg Anwendung 1 - Vortrag Andrej Rull 02122008 1 Gliederung o Motivation o Der Anwendungsfall o Das SLAM Problem o Lösungsansätze und Algorithmen o Zusammenfassung o Ausblick auf AW2 2 Motivation
Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Kalmanfiter (1) Typische Situation für den Einsatz von Kalman-Filtern
Kalmanfiter (1) Typische Situation für den Einsatz von Kalman-Filtern Vorlesung Robotik SS 016 Kalmanfiter () Kalman-Filter: optimaler rekursiver Datenverarbeitungsalgorithmus optimal hängt vom gewählten
Grundlagen der Signalverarbeitung und Robotik
64-544 Grundlagen der Signalverarbeitung und Robotik 64-544 Grundlagen der Signalverarbeitung und Robotik http://tams.informatik.uni-hamburg.de/ lectures/2011ss/vorlesung/gdsr Jianwei Zhang Universität
Numerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum
Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt
Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt 9 19.12.2012 Aufgabe 35: Thema: Differenzierbarkeit a) Was bedeutet für eine Funktion f : R n R, dass f an der Stelle x 0 R n differenzierbar ist?
Multi-Modell Kalman Filter zur Lokalisierung im Roboterfussball
Multi-Modell Kalman Filter zur Lokalisierung im Roboterfussball Florian Wilmshöver 1. September 2009 1 Einleitung In der Standard Platform League 1 des RoboCup spielen auf einem 6m 4m großen Spielfeld
DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
Konzepte der Statistik für die Messdatenanalyse
Konzepte der Statistik für die Messdatenanalyse Modelle Beispiel: optische Abbildung im Fernfeld (Fraunhoferbeugung) indirekte Messgröße: Abstand der beiden Spalte D Modell inverses Problem direkte Messgrößen:
Varianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
Bayessche Lineare Regression
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.
2.Tutorium Multivariate Verfahren
2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung
Multivariate Verteilungen. Gerhard Tutz LMU München
Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS
Implementierung und Evaluation verschiedener Bayes-Filter für das Personentracking. Robert Arenknecht
Technische Universität Ilmenau Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik und Kognitive Robotik Implementierung und Evaluation verschiedener Bayes-Filter für das Personentracking
(1) Problemstellung. (2) Kalman Filter
Inhaltsverzeichnis (1) Problemstellung...2 (2) Kalman Filter...2 Funktionsweise... 2 Gleichungen im mehrdimensionalen Fall...3 Schätzung des Systemzustands...3 Vermuteter Schätzfehler... 3 Aktualisierung
Regressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/
Regressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/2018 06.12.2018 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN Nachname:...................................................................
Wahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste
1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
Stochastik-Praktikum
Stochastik-Praktikum Zufallszahlen und Monte Carlo Peter Frentrup Humboldt-Universität zu Berlin 17. Oktober 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 17. Oktober 2017 1 / 23
Tracking. Einführung. Allgemeiner Systemaufbau. Objektlokalisation: Template-Matching. Prädiktionsfilter: Kalman
Tracking Einführung Allgemeiner Systemaufbau Objektlokalisation: Template-Matching Prädiktionsfilter: Kalman Birgit Möller & Denis Williams AG Bioinformatik & Mustererkennung Institut für Informatik Martin-Luther-Universität
1. Grundlagen der ebenen Kinematik
Lage: Die Lage eines starren Körpers in der Ebene ist durch die Angabe von zwei Punkten A und P eindeutig festgelegt. Die Lage eines beliebigen Punktes P wird durch Polarkoordinaten bezüglich des Bezugspunktes
2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau
SLAM-Verfahren Synchrone Lokalisierung und Kartenerstellung
SLAM-Verfahren Synchrone Lokalisierung und Kartenerstellung EKF-SLAM: Landmarkenbasiertes SLAM-Verfahren mit einem erweiterten Kalmanfilter Fast-Slam: Gitterbasiertes SLAM-Verfahren mit einem Partikelfilter
Lineare Klassifikationsmethoden
Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung
Übung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
Aufgabe 4.1 Robotermodell (1)
Aufgabe 4.1 Robotermodell (1)! Erstellen Sie ein Simulationsmodell für einen mobilen Roboter (z.b. Pioneer 3DX), der sich über Geschwindigkeit v und Rotationsgeschwindigkeit ω steuern lässt. v ω Pioneer
Wahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:
Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche
Die n-dimensionale Normalverteilung
U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung
Einführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran [email protected] Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models
Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models Korbinian Schwinger 3. November 003 Inhaltsverzeichnis Inhaltsverzeichnis Exponential Family 3. Definition...............................
5 Fehlerfortpflanzung
5 Fehlerfortpflanzung Diese Lektion folgt D.S. Sivia, Data Analysis: A Bayesian Tutorial, Oxford University Press, Chapter 3.6. Lernziele Lektion 5 Sie wissen, wie man Wahrscheinlichkeitsverteilungen von
Totale Ableitung und Jacobi-Matrix
Totale Ableitung und Jacobi-Matrix Eine reelle Funktion f : R n R m ist in einem Punkt x differenzierbar, wenn f (x + h) = f (x) + f (x)h + o( h ) für h 0. Totale Ableitung 1-1 Totale Ableitung und Jacobi-Matrix
Dynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle und Kalman Filter 15 p.2/??
Dynamische Systeme und Zeitreihenanalyse Zustandsraummodelle und Kalman Filter Kapitel 15 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle
Richtungsableitungen.
Richtungsableitungen. Definition: Sei f : D R, D R n offen, x 0 D, und v R n \ {0} ein Vektor. Dann heißt D v f(x 0 f(x 0 + tv) f(x 0 ) ) := lim t 0 t die Richtungsableitung (Gateaux-Ableitung) von f(x)
Lokalisierung. von Matthias Heine, Norbert Müller, Silvia Schreier, Oliver Zöllner
Lokalisierung von Matthias Heine, Norbert Müller, Silvia Schreier, Oliver Zöllner Was ist Lokalisierung? Fähigkeit eines autonomen Roboters seine Position in Bezug auf ein festes (Koordinaten-)System zu
Box-Plots. Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.rechnung. Beschreibende Statistik 174 / 258
174 / 258 Box-Plots Ziel: übersichtliche Darstellung der Daten. Boxplot zu dem Eingangsbeispiel mit n=5: Descr_Boxplot0.sas Prozeduren: UNIVARIATE, GPLOT, BOXPLOT 174 / 258 Box-Plots Ziel: übersichtliche
Gauß-Prozess-Regression
Bayessche Regression und Gaußprozesse Dr. rer. nat. Johannes Riesterer Motivation Kriging Der südafrikanische Bergbauingenieur Danie Krige versuchte 1951, eine optimale Interpolationsmethode für den Bergbau
Übungsaufgaben zu den mathematischen Grundlagen von KM
TUM, Institut für Informatik WS 2003/2004 Prof Dr Thomas Huckle Andreas Krahnke, MSc Dipl-Inf Markus Pögl Übungsaufgaben zu den mathematischen Grundlagen von KM 1 Bestimmen Sie die Darstellung von 1 4
Multivariate Verteilungen
Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig
Ausgleichungsrechnung - nach der Methode der kleinsten Quadrate -
Computer Vision Ausgleichungsrechnung - nach der Methode der kleinsten Quadrate -.6.5 Problem Beispiel: Bestimmung der Parameter einer Gerade bei gegebenen x und fehlerhaften y y = ax+ b Beschreibung der
6.1 Definition der multivariaten Normalverteilung
Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
Brownsche Bewegung Seminar - Weiche Materie
Brownsche Bewegung Seminar - Weiche Materie Simon Schnyder 11. Februar 2008 Übersicht Abbildung: 3 Realisationen des Weges eines Brownschen Teilchens mit gl. Startort Struktur des Vortrags Brownsches Teilchen
Implizite Funktionen. Ist für eine stetig differenzierbare Funktion f : R n R m R n. so lässt sich das Gleichungssystem
Implizite Funktionen Ist für eine stetig differenzierbare Funktion f : R n R m R n f (x, y ) = (0,..., 0) t, det f x (x, y ) 0, so lässt sich das Gleichungssystem f k (x 1,..., x n, y 1,..., y m ) = 0,
Fehlerfortpflanzung. M. Schlup. 27. Mai 2011
Fehlerfortpflanzung M. Schlup 7. Mai 0 Wird eine nicht direkt messbare physikalische Grösse durch das Messen anderer Grössen ermittelt, so stellt sich die Frage, wie die Unsicherheitsschranke dieser nicht-messbaren
Umkehrfunktion. g (y) = f (x) 1, x = g(y), Umkehrfunktion 1-1
Umkehrfunktion Ist für eine stetig differenzierbare n-variate Funktion f : D R n die Jacobi-Matrix f (x ) für einen Punkt x im Innern des Definitionsbereiches D R n nicht singulär, so ist f lokal invertierbar,
Autonom-Explorierender Hexapod-Roboter
Fachbereich 4: Informatik Autonom-Explorierender Hexapod-Roboter Bachelorarbeit zur Erlangung des Grades Bachelor of Science im Studiengang Computervisualistik vorgelegt von Christian Schlöffel Betreuer:
Kleine Formelsammlung zu Mathematik für Ingenieure IIA
Kleine Formelsammlung zu Mathematik für Ingenieure IIA Florian Franzmann 5. Oktober 004 Inhaltsverzeichnis Additionstheoreme Reihen und Folgen 3. Reihen...................................... 3. Potenzreihen..................................
H.J. Oberle Analysis III WS 2012/ Differentiation
H.J. Oberle Analysis III WS 2012/13 13. Differentiation 13.1 Das Differential einer Abbildung Gegeben: f : R n D R m, also eine vektorwertige Funktion von n Variablen x = (x 1,..., x n ) T, wobei D wiederum
1.5 Mehrdimensionale Verteilungen
Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4
Klassifikation von Daten Einleitung
Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung
Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.
Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient
Nichtlineare Ausgleichsrechnung
10. Großübung Nichtlineare Ausgleichsrechnung Allgemeines Problem: Wir betrachten ein nichtlineares System F : R n R m mit (m > n, d.h. das System ist überbestimmt und F i (x g(t i ; x g i! 0 i 1,.., m.
Blatt 10. Hamilton-Formalismus- Lösungsvorschlag
Fakultät für Physik der LMU München Lehrstuhl für Kosmologie, Prof. Dr. V. Mukhanov Übungen zu Klassischer Mechanik T) im SoSe 20 Blatt 0. Hamilton-Formalismus- Lösungsvorschlag Aufgabe 0.. Hamilton-Formalismus
Serie 4: Gradient und Linearisierung
D-ERDW, D-HEST, D-USYS Mathematik II FS 5 Dr. Ana Cannas Serie 4: Gradient und Linearisierung Bemerkungen: Die Aufgaben der Serie 4 bilden den Fokus der Übungsgruppen vom 7./9. März.. Wir betrachten die
Alterungsbestimmung bei Lithium-IonenBatterien auf Basis des Kalmanfilters in
Alterungsbestimmung bei Lithium-IonenBatterien auf Basis des Kalmanfilters in EV- und PV-Anwendungen Nils Armbruster Fraunhofer ISE 18. DESIGN&ELEKTRONIK - Entwicklerforum München, 16. Februar 2011 Gliederung
Übungsrunde 10, Gruppe 2 LVA , Übungsrunde 10, Gruppe 2, Markus Nemetz, TU Wien,
Übungsrunde, Gruppe 2 LVA 7.369, Übungsrunde, Gruppe 2, 9..27 Markus Nemetz, [email protected], TU Wien, 9..27 Anmerkung: Viele dieser Lösungsvorschläge stammen aus dem Informatik-Forum, Subforum
Differential- und Integralrechnung
Brückenkurs Mathematik TU Dresden 2016 Differential- und Integralrechnung Schwerpunkte: Differentiation Integration Eigenschaften und Anwendungen Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik
1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 3 Maschinelles Lernen und Klassifikation
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester M. Sperber ([email protected]) S. Nguyen ([email protected]) Lösungsblatt 3 Maschinelles Lernen und Klassifikation Aufgabe : Zufallsexperiment
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Hauptseminar - Methoden der experimentellen Teilchenphysik WS 2011/2012 Fabian Hoffmann 2. Dezember 2011 Inhaltsverzeichnis 1 Einleitung
5. Numerische Differentiation. und Integration
5. Numerische Differentiation und Integration 1 Numerische Differentiation Problemstellung: Gegeben ist eine differenzierbare Funktion f : [a,b] R und x (a,b). Gesucht sind Näherungen für die Ableitungen
y (t) Wie berechnet sich die Ableitung von F aus den Ableitungen von x (t) und y (t)? Die Antwort gibt die erste Kettenregel
103 Differenzialrechnung 553 1035 Kettenregeln Die Kettenregel bei Funktionen einer Variablen erlaubt die Berechnung der Ableitung von verketteten Funktionen Je nach Verkettung gibt es bei Funktionen von
Statistik - Fehlerrechnung - Auswertung von Messungen
Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler
Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle
Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators
DSGE-Modelle. Linearisierung und Lösung. Institut für Ökonometrie und Wirtschaftsstatistik Münster
DSGE-Modelle Linearisierung und Lösung Dr. Andrea Beccarini Willi Mutschler, M.Sc. Institut für Ökonometrie und Wirtschaftsstatistik Münster [email protected] Sommersemester 2012 Willi Mutschler
Gaußsche Felder und Simulation
3 2 data_2d_1.dat data_2d_2.dat data_2d_64.dat data_2d_128.dat 1-1 -2-3 1 2 3 4 5 6 7 Gaußsche Felder und Simulation Benedikt Jahn, Aaron Spettl 4. November 28 Institut für Stochastik, Seminar Zufällige
ε δ Definition der Stetigkeit.
ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x
