Kalman-Filter und Target Tracking

Größe: px
Ab Seite anzeigen:

Download "Kalman-Filter und Target Tracking"

Transkript

1 Kalman-Filter und Target Tracking Peter Poschmann Hochschule für Technik und Wirtschaft Dresden Fakultät Informatik/Mathematik 23. März 2016

2 Inhalt 1 Kalman-Filter Einleitung Eindimensionaler Kalman-Filter Mehrdimensionaler Kalman-Filter 2 Erweiterter Kalman-Filter Linearisierung Extended Kalman Filter 3 Target Tracking Bewegungsmodelle Beobachtungsmodelle Data Association Problem 4 Abschließendes Weitere Informationen Praktikum 1 / 30

3 Kalman-Filter 1 Kalman-Filter Einleitung Eindimensionaler Kalman-Filter Mehrdimensionaler Kalman-Filter 2 Erweiterter Kalman-Filter Linearisierung Extended Kalman Filter 3 Target Tracking Bewegungsmodelle Beobachtungsmodelle Data Association Problem 4 Abschließendes Weitere Informationen Praktikum 2 / 30

4 Motivation Roboter soll sich autonom bewegen Kollision mit Personen und anderen bewegten Objekten vermeiden Ausreichend Abstand zu Personen einhalten (sollen keine Angst haben) Wo sind Personen/Objekte und wohin bewegen sie sich? Interaktion mit Personen Wo sind (interaktionsbereite) Personen? Tracking von Personen/Objekten nötig Messwerte sind fehlerbehaftet Kalman-Filter ist eine Methode zur Lösung dieses Problems Einleitung 3 / 30

5 Kalman-Filter Rekursiver Zustandsschätzer Bayes-Filter kontinuierlicher (Zustands-)raum Modelliert Unsicherheit mittels Normalverteilung bel(x) = N(x; µ, σ2) bzw. bel(x) = N(x; µ, Σ) Zwei Schritte, abwechselnd ausgeführt - analog zu Bayes-Filter Motion update (prediction) Measurement update (correction) Voraussetzung/Einschränkung: Zustandsübergang, Beobachtung und Zustand sind normalverteilt (stochastische Messfehler) Lineare Gleichungen Einleitung 4 / 30

6 Eindimensionale Normalverteilung Oder auch: Gauss-Verteilung, Gauss-Kurve Unimodal (nur ein Maximum) { } p(x) = 1 exp (x µ)2 2πσ 2 2σ 2 µ... Erwartungswert σ... Standardabweichung σ2... Varianz Fläche unter der Kurve ist 1 (wie bei allen Wahrscheinlichkeitsdichtefunktionen) Je größer σ bzw. σ2 (höhere Unsicherheit), desto niedriger und breiter das Maximum Einleitung 5 / 30

7 Measurement update Measurement update / correction Normalverteilung nach Update Weniger Unsicherheit als vor Update Weniger Unsicherheit als Beobachtung Informationsgewinn Update (1D): Zustand (z.b. Position): N(µ, σ 2 ) Beobachtung: N(z, r 2 ) K = σ2 σ 2 +r... Kalman Gain 2 µ = µ + K(z µ) σ 2 = (1 K)σ 2 Eindimensionaler Kalman-Filter 6 / 30

8 Motion update Motion update / prediction Normalverteilung nach Update Mehr Unsicherheit als vor Update Informationsverlust Update (1D): Zustand (z.b. Position): N(µ, σ 2 ) Zustandsänderung (z.b. Bewegung/Geschwindigkeit): N(u, q 2 ) µ = µ + u σ 2 = σ 2 + q 2 Eindimensionaler Kalman-Filter 7 / 30

9 Zusammenfassung 1D Kalman-Filter Satz µ t = µ t 1 + u t σ t 2 = σt q2 t K t = σ2 t σ 2 t +r2 t µ t = µ t + K t (z t µ t ) σ 2 t = (1 K t ) σ 2 t Eindimensionaler Zustandsschätzer mit Modellierung der Unsicherheit Vorraussetzung: Control u (Änderung bzw. Bewegung) muss bekannt sein Beim Tracking typischerweise nicht bekannt Muss mitgeschätzt werden Weitere Dimension(en) Eindimensionaler Kalman-Filter 8 / 30

10 Multivariate Normalverteilung Multivariat = mehrdimensional { } 1 p(x) = exp 1 (2π) k/2 Σ 1/2 2 (x µ)t Σ 1 (x µ) µ R k... Erwartungswertvektor Σ R k k... Kovarianzmatrix k... Anzahl Dimensionen Mehrdimensionaler Kalman-Filter 9 / 30

11 Mehrdimensionaler Kalman-Filter Beobachtbare und versteckte Zustände Interagieren miteinander Beobachtbare Zustände geben Information über versteckte Zustände Kalman-Filter kann versteckte Zustände schätzen (auch andere Filter, wie z.b. Partikelfilter, können das) Prozessmodell mit normalverteiltem Prozessrauschen x t = A t x t 1 + B t u t + ε t with ε t N(0, Q t ) Beim Target Tracking ist Steuervektor u t meist unbekannt, Term B t u t fällt dann raus Messmodell mit normalverteiltem Messrauschen z t = C t x t + δ t with δ t N(0, R t ) Transformiert Zustand in (erwartete) Beobachtung Entfernt im wesentlichen versteckte Zustände (z.b. Geschwindigkeit, nur Position bleibt übrig) Mehrdimensionaler Kalman-Filter 10 / 30

12 Kalman-Filter Algorithmus (1) Satz µ t = A t µ t 1 + B t u t Σ t = A t Σ t 1 A T t + Q t oder Σ t = A t Σ t 1 A T t + B t Q t B T t y t = z t C t µ t S t = C t Σt Ct T + R t K t = Σ t Ct T St 1 µ t = µ t + K t y t Σ t = (I K t C t ) Σ t = Σ t K t S t Kt T Wenn Unsicherheit Q t im Zustandsraum, dann: Σ t = A t Σ t 1 A T t + Q t Wenn Unsicherheit Q t im Steuerraum, dann in Zustandsraum transformieren: Σ t = A t Σ t 1 A T t + B t Q t B T t Mehrdimensionaler Kalman-Filter 11 / 30

13 Kalman-Filter Algorithmus (2) Definitionen µ... Systemvektor (Zustand) Σ... Kovarianzmatrix (Unsicherheit) des Zustands A... Systemmatrix / state transition matrix u... Steuervektor (Änderung von außen) B... Steuermatrix Q... Kovarianzmatrix (Unsicherheit) der Änderung z... Messvektor (Beobachtung) R... Kovarianzmatrix (Unsicherheit) der Beobachtung C... Messmatrix / measurement transformation matrix y... Residuumvektor S... Kovarianzmatrix des Residuums K... Kalmanverstärkungsmatrix / Kalman Gain I... Einheitsmatrix Mehrdimensionaler Kalman-Filter 12 / 30

14 Zusammenhang zwischen Bayes-Filter und Kalman-Filter State transition function with white Gaussian noise: x t = A t x t 1 + B t u t + ε t with ε t N(0, Q t ) Prediction: bel(x t ) = p(x t u t, x t 1 )bel(x t 1 )dx t 1 bel(x t ) = N(x t ; µ t, Σ t )... prior (belief after prediction) bel(x t 1 ) = N(x t 1 ; µ t 1, Σ t 1 )... previous belief p(x t u t, x t 1 ) = N(x t ; A t x t 1 + B t u t, Q t )... state transition probability Measurement function with white Gaussian noise: z t = C t x t + δ t with δ t N(0, R t ) Correction: bel(x t ) = η p(z t x t )bel(x t ) bel(x t ) = N(x t ; µ t, Σ t )... posterior (belief after correction) bel(x t ) = N(x t ; µ t, Σ t )... prior (belief before correction) p(z t x t ) = N(z t ; C t x t, R t )... measurement probability Mehrdimensionaler Kalman-Filter 13 / 30

15 Anwendungen Selbstlokalisierung des Roboters SLAM Personentracking Positions- und Orientierungsbestimmung von Flugzeugen Schätzung von Fahrzeugdynamik und -masse Ganz allgemein Zustandsschätzer für dynamische Systeme Schätzung nicht-beobachtbarer Zustände Mehrdimensionaler Kalman-Filter 14 / 30

16 Erweiterter Kalman-Filter 1 Kalman-Filter Einleitung Eindimensionaler Kalman-Filter Mehrdimensionaler Kalman-Filter 2 Erweiterter Kalman-Filter Linearisierung Extended Kalman Filter 3 Target Tracking Bewegungsmodelle Beobachtungsmodelle Data Association Problem 4 Abschließendes Weitere Informationen Praktikum 15 / 30

17 Nichtlinearität Funktionen sind häufig nichtlinear Transformation von kartesischen Koordinaten (x, y) zu Polarkoordinaten (LRF-Messungen) (ϕ, r) ϕ = tan 1 y x r = x 2 + y 2 Kann nicht in Form z = Cx dargestellt werden Angabe der Bewegung in Form von Richtung θ und Distanz d x = x + d cos θ y = y + d sin θ Kann nicht in Form x = Ax + Bu dargestellt werden Lösung: Linearisierung Finden einer linearen Funktion, die der tatsächlichen Funktion möglichst nahe kommt Linearisierung 16 / 30

18 Taylor-Entwicklung Taylor-Reihe von f an Stelle a: P (x) = f(a)+ f (a) 1! (x a)+ f (a) 2! (x a) f (n) (a) n! (x a) n +... = f (n) (a) n=0 n! (x a) n Nutzung der ersten beiden Terme und Weglassen der Restlichen ergibt lineare Funktion Linearisierung von f an Stelle a T 1 (x) = f(a) + f (a) (x a) An Stelle a stimmen f und T 1 überein An Stelle a stimmen Anstiege von f und T 1 überein Je größer der Abstand zu Stelle a, desto größer der Unterschied zwischen f und T 1 (typischerweise) Extended Kalman-Filter nutzt Taylor-Entwicklung erster Ordnung, um Funktionen zu linearisieren Linearisierung 17 / 30

19 Linearisierung der Funktionen Prozessmodell x t = A t x t 1 + B t u t + ε t wird zu x t = g(u t, x t 1 ) + ε t Linearisierung an u t und µ t 1 g(u t, x t 1 ) g(u t, µ t 1 ) + g (u t, µ t 1 )(x t 1 µ t 1 ) G t = g(ut,xt 1) x t 1... Gegenstück zu A t V t = g(ut,xt 1) u t... Gegenstück zu B t G t / V t enthalten partielle Ableitungen von g nach x t 1 / u t Messmodell z t = C t x t + δ t wird zu z t = h(x t ) + δ t Linearisierung an Stelle µ t h(x t ) h( µ t ) + h ( µ t )(x t µ t ) h ( µ t ) = h( µ) x t = H t... Gegenstück zu C t H t enthält partielle Ableitungen von h nach x t G t, V t, H t... Jacobi-Matritzen Linearisierung 18 / 30

20 Jacobi-Matrix Vektor Funktionen f = f 1 (x) f 2 (x). f m (x) f 1 f 1 x 1 x 2 f 2 f 2 Jacobi-Matrix F x = x 1 x f m f m x 1 x 2 m... Anzahl der Funktionen in f f 1 x n f 2 x n f m x n n... Anzahl der Variablen, nach denen abgeleitet wird Linearisierung 19 / 30

21 Extended Kalman-Filter Satz µ t = g(u t, µ t 1 ) Σ t = G t Σ t 1 G T t + Q t oder Σ t = G t Σ t 1 G T t + V t Q t Vt T y t = z t h( µ t ) S t = H t Σt Ht T + R t K t = Σ t Ht T St 1 µ t = µ t + K t y t Σ t = (I K t H t ) Σ t Wenn Unsicherheit Q t im Zustandsraum, dann: Σ t = G t Σ t 1 G T t + Q t Wenn Unsicherheit Q t im Steuerraum, dann in Zustandsraum transformieren: Σ t = G t Σ t 1 G T t + V t Q t V T t Extended Kalman Filter 20 / 30

22 EKF: Zusammenfassung Nichtlineare Funktionen (Zustandsübergang und/oder Beobachtung) Linearisierung mittels Taylor-Reihe erster Ordnung Gradient im mehrdimensionalen Fall gegeben durch Jacobi-Matrix Je höher die Unsicherheit, desto mehr liegt Linearisierung daneben Extended Kalman Filter 21 / 30

23 Target Tracking 1 Kalman-Filter Einleitung Eindimensionaler Kalman-Filter Mehrdimensionaler Kalman-Filter 2 Erweiterter Kalman-Filter Linearisierung Extended Kalman Filter 3 Target Tracking Bewegungsmodelle Beobachtungsmodelle Data Association Problem 4 Abschließendes Weitere Informationen Praktikum 22 / 30

24 Bewegungsmodelle Im Target Tracking ist Control u nicht bekannt Kompensation durch Bewegungsmodelle Brownian Motion Wenn Bewegung kaum vorhersagbar, stark zufällig/chaotisch Nur Position wird geschätzt Positions-Erwartungswert bleibt konstant in Vorhersage Vorhersage erhöht lediglich die Unsicherheit Constant Velocity Geschwindigkeit wird mitgeschätzt Vorhersage ändert Position anhand Geschwindigkeit Geschwindigkeits-Erwartungswert bleibt konstant in Vorhersage Constant Acceleration Geschwindigkeit und Beschleunigung wird mitgeschätzt Vorhersage ändert Position anhand Geschw. und Beschl. Vorhersage ändert Geschwindigkeit anhand Beschleunigung Beschleunigungs-Erwartungswert bleibt konstant in Vorhersage Bewegungsmodelle 23 / 30

25 Beobachtungsmodelle Am Beispiel Personentracking Background subtraction LRF: Umgebung statisch, Karte vorhanden Kamera: Hintergrund statisch, Bild ohne Personen vorhanden Mustererkennung LRF: z.b. Minima im Scan, Clustering & Analyse Kamera: z.b. mit Klassifikation auf extrahierten Features (Gesichtsdetektion,...) Beobachtungsmodelle 24 / 30

26 Zuordnungsprobleme Data Association Problem Mehrere Tracking Targets, mehrere Beobachtungen Welche Beobachtung wurde von welchem Target generiert? Zusätzliche Probleme Sensor Noise Falsche Detektionen Fehlende Detektionen Lösungsansätze Gutes Bewegungsmodell Merkmale, die Identifikation/Unterscheidung ermöglichen Mehrere Varianten berücksichtigen Data Association Problem 25 / 30

27 Abschließendes 1 Kalman-Filter Einleitung Eindimensionaler Kalman-Filter Mehrdimensionaler Kalman-Filter 2 Erweiterter Kalman-Filter Linearisierung Extended Kalman Filter 3 Target Tracking Bewegungsmodelle Beobachtungsmodelle Data Association Problem 4 Abschließendes Weitere Informationen Praktikum 26 / 30

28 Weitere Informationen Kurs Programming a Robotic Car von Udacity playlist?list=plawxtw4syapkcsyxw6-a_aaoxvkldwnhk (ab Video Nummer 77 - Tracking Intro ) Vorlesungsfolien der Arbeitsgruppe Autonome Intelligente Systeme der Universität Freiburg (Kalman Filter und Extended Kalman Filter) (Target Tracking) Weitere Informationen 27 / 30

29 Praktikumsaufgabe Kalman-Filter Tracking eines einzelnen Objekts mittels LRF Constant velocity model Zustand x = (x, y, ẋ, ẏ) T Beobachtung z = (x, y) T Vanilla Kalman-Filter Im Wesentlichen: Implementierung des Algorithmus, Aufstellen der Matritzen Praktikum 28 / 30

30 Praktikumsaufgabe Partikel-Filter Lokalisierung des Roboters Partikelfilter Vorgegebene Startposition Gridkarte der Umgebung LRF Im Wesentlichen: Implementierung von Algorithmus, Bewegungsmodell, Beobachtungsmodell (Partikel bewerten) Praktikum 29 / 30

31 Das wars. Fragen? Praktikum 30 / 30

Kalmanfilter und Nichtparametrische Filter. Bayesfilter

Kalmanfilter und Nichtparametrische Filter. Bayesfilter Kalmanfilter und Nichtparametrische Filter Daniel Göhring 06.11.2006 Bayesfilter Zustand zur Zeit t ist Zufallvariable x t Wahrscheinlichkeitsfunktion Bel (Belief) über x t : Bel(x t ) repräsentiert die

Mehr

9 SLAM Simultaneous Localization and Mapping

9 SLAM Simultaneous Localization and Mapping 9 SLAM Simultaneous Localization and Mapping Einleitung eines der aktivsten Forschungsgebiete innerhalb der Robotik Roboterlokalisierung bei gegebener Karte (Kap. 8 und Karte aus Sensordaten bei bekannter

Mehr

Grundlagen der Objektmodellierung

Grundlagen der Objektmodellierung Grundlagen der Objektmodellierung Daniel Göhring 30.10.2006 Gliederung Grundlagen der Wahrscheinlichkeitsrechnung Begriffe zur Umweltmodellierung Bayesfilter Zusammenfassung Grundlagen der Wahrscheinlichkeitsrechnung

Mehr

Computer Vision: Kalman Filter

Computer Vision: Kalman Filter Computer Vision: Kalman Filter D. Schlesinger TUD/INF/KI/IS D. Schlesinger () Computer Vision: Kalman Filter 1 / 8 Bayesscher Filter Ein Objekt kann sich in einem Zustand x X befinden. Zum Zeitpunkt i

Mehr

Modellierung von Unsicherheit in Systemen

Modellierung von Unsicherheit in Systemen Modellierung von Unsicherheit in Systemen Motivation Systeme Zeitdiskrete, lineare und nicht-lineare Systeme, Beispiele Wahrscheinlichkeiten Zufallsvariablen, Wahrscheinlichkeitsdichten, mehrdimensionale

Mehr

Der diskrete Kalman Filter

Der diskrete Kalman Filter Der diskrete Kalman Filter Fachbereich: Informatik Betreuer: Marc Drassler Patrick Winkler 1168954 6. Dezember 2004 Technische Universität Darmstadt Simulation und Systemoptimierung Darmstadt Dribbling

Mehr

Mathematische Grundlagen Kalman Filter Beispielprogramm. Kalman Filter. Stephan Meyer

Mathematische Grundlagen Kalman Filter Beispielprogramm. Kalman Filter. Stephan Meyer Kalman Filter Stephan Meyer FWPF Ortsbezogene Anwendungen und Dienste Georg-Simon-Ohm-Hochschule Nürnberg 07.12.2007 Outline 1 Mathematische Grundlagen 2 Kalman Filter 3 Beispielprogramm Mathematische

Mehr

Beispiel: Positionsschätzung

Beispiel: Positionsschätzung Das Kalman Filter Beispiel: Positionsschätzung Beispiel: Positionsschätzung. Messung: mit Varianz Daraus abgeleitete Positionsschätzung: mit Varianz ˆX = = f f ( y ) y 3 Beispiel: Positionsschätzung. Messung:

Mehr

SLAM. Simultaneous Localization and Mapping. KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann

SLAM. Simultaneous Localization and Mapping. KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann SLAM Simultaneous Localization and Mapping KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann Simultaneous Localization And Mapping SLAM Problematik SLAM Arten SLAM Methoden: (E)KF SLAM GraphSLAM Fast

Mehr

Intelligente Roboter

Intelligente Roboter 64-424 Intelligente Roboter 64-424 Intelligente Roboter http://tams.informatik.uni-hamburg.de/ lectures/2010ws/vorlesung/ir Jianwei Zhang Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften

Mehr

Fast-SLAM: Synchrone Lokalisierung und Kartenerstellung mit einem Partikel-Filter

Fast-SLAM: Synchrone Lokalisierung und Kartenerstellung mit einem Partikel-Filter Fast-SLAM: Synchrone Lokalisierung und Kartenerstellung mit einem Partikel-Filter! Landmarkenbasiertes Fast-SLAM! Gitterbasiertes Fast-Slam! Optimierungen Prof. Dr. O. Bittel, HTWG Konstanz Autonome Roboter

Mehr

HAW Hamburg Anwendung 1 - Vortrag Andrej Rull

HAW Hamburg Anwendung 1 - Vortrag Andrej Rull HAW Hamburg Anwendung 1 - Vortrag Andrej Rull 02122008 1 Gliederung o Motivation o Der Anwendungsfall o Das SLAM Problem o Lösungsansätze und Algorithmen o Zusammenfassung o Ausblick auf AW2 2 Motivation

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Kalmanfiter (1) Typische Situation für den Einsatz von Kalman-Filtern

Kalmanfiter (1) Typische Situation für den Einsatz von Kalman-Filtern Kalmanfiter (1) Typische Situation für den Einsatz von Kalman-Filtern Vorlesung Robotik SS 016 Kalmanfiter () Kalman-Filter: optimaler rekursiver Datenverarbeitungsalgorithmus optimal hängt vom gewählten

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr 1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand

Mehr

Grundlagen der Signalverarbeitung und Robotik

Grundlagen der Signalverarbeitung und Robotik 64-544 Grundlagen der Signalverarbeitung und Robotik 64-544 Grundlagen der Signalverarbeitung und Robotik http://tams.informatik.uni-hamburg.de/ lectures/2011ss/vorlesung/gdsr Jianwei Zhang Universität

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum

Mehr

Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt

Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt Übungen zur Ingenieur-Mathematik III WS 2012/13 Blatt 9 19.12.2012 Aufgabe 35: Thema: Differenzierbarkeit a) Was bedeutet für eine Funktion f : R n R, dass f an der Stelle x 0 R n differenzierbar ist?

Mehr

Multi-Modell Kalman Filter zur Lokalisierung im Roboterfussball

Multi-Modell Kalman Filter zur Lokalisierung im Roboterfussball Multi-Modell Kalman Filter zur Lokalisierung im Roboterfussball Florian Wilmshöver 1. September 2009 1 Einleitung In der Standard Platform League 1 des RoboCup spielen auf einem 6m 4m großen Spielfeld

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Konzepte der Statistik für die Messdatenanalyse

Konzepte der Statistik für die Messdatenanalyse Konzepte der Statistik für die Messdatenanalyse Modelle Beispiel: optische Abbildung im Fernfeld (Fraunhoferbeugung) indirekte Messgröße: Abstand der beiden Spalte D Modell inverses Problem direkte Messgrößen:

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

Bayessche Lineare Regression

Bayessche Lineare Regression Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.

Mehr

2.Tutorium Multivariate Verfahren

2.Tutorium Multivariate Verfahren 2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung

Mehr

Verteilungen mehrerer Variablen

Verteilungen mehrerer Variablen Kapitel 3 Verteilungen mehrerer Variablen 3. Eigenschaften von Verteilungen mehrerer Variablen Im allgemeinen muss man Wahrscheinlichkeiten für mehrere Variable, die häufig auch voneinander abhängen, gleichzeitig

Mehr

Multivariate Verteilungen. Gerhard Tutz LMU München

Multivariate Verteilungen. Gerhard Tutz LMU München Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS

Mehr

Implementierung und Evaluation verschiedener Bayes-Filter für das Personentracking. Robert Arenknecht

Implementierung und Evaluation verschiedener Bayes-Filter für das Personentracking. Robert Arenknecht Technische Universität Ilmenau Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik und Kognitive Robotik Implementierung und Evaluation verschiedener Bayes-Filter für das Personentracking

Mehr

x p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren!

x p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren! Aufgabe T- Gegeben seien zwei normalverteilte Zufallsvariablen X N(µ, σ) 2 und X 2 N(µ 2, σ2) 2 mit pdf p (x) bzw. p 2 (x). Bestimmen Sie x (als Funktion der µ i, σ i, sodass x p (x )dx = + x p 2 (x )dx,

Mehr

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta Multivariate Lineare Regression Christian Herta Oktober, 2013 1 von 34 Christian Herta Multivariate Lineare Regression Lernziele Multivariate Lineare Regression Konzepte des Maschinellen Lernens: Kostenfunktion

Mehr

Planung von Handlungen bei unsicherer Information

Planung von Handlungen bei unsicherer Information Planung von Handlungen bei unsicherer Information Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 20.01.2010 Dr.-Ing. Bernd Ludwig (FAU ER)

Mehr

(1) Problemstellung. (2) Kalman Filter

(1) Problemstellung. (2) Kalman Filter Inhaltsverzeichnis (1) Problemstellung...2 (2) Kalman Filter...2 Funktionsweise... 2 Gleichungen im mehrdimensionalen Fall...3 Schätzung des Systemzustands...3 Vermuteter Schätzfehler... 3 Aktualisierung

Mehr

Regressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/

Regressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/ Regressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/2018 06.12.2018 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN Nachname:...................................................................

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

Stochastik-Praktikum

Stochastik-Praktikum Stochastik-Praktikum Zufallszahlen und Monte Carlo Peter Frentrup Humboldt-Universität zu Berlin 17. Oktober 2017 (Humboldt-Universität zu Berlin) Zufallszahlen und Monte Carlo 17. Oktober 2017 1 / 23

Mehr

Tracking. Einführung. Allgemeiner Systemaufbau. Objektlokalisation: Template-Matching. Prädiktionsfilter: Kalman

Tracking. Einführung. Allgemeiner Systemaufbau. Objektlokalisation: Template-Matching. Prädiktionsfilter: Kalman Tracking Einführung Allgemeiner Systemaufbau Objektlokalisation: Template-Matching Prädiktionsfilter: Kalman Birgit Möller & Denis Williams AG Bioinformatik & Mustererkennung Institut für Informatik Martin-Luther-Universität

Mehr

1. Grundlagen der ebenen Kinematik

1. Grundlagen der ebenen Kinematik Lage: Die Lage eines starren Körpers in der Ebene ist durch die Angabe von zwei Punkten A und P eindeutig festgelegt. Die Lage eines beliebigen Punktes P wird durch Polarkoordinaten bezüglich des Bezugspunktes

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

SLAM-Verfahren Synchrone Lokalisierung und Kartenerstellung

SLAM-Verfahren Synchrone Lokalisierung und Kartenerstellung SLAM-Verfahren Synchrone Lokalisierung und Kartenerstellung EKF-SLAM: Landmarkenbasiertes SLAM-Verfahren mit einem erweiterten Kalmanfilter Fast-Slam: Gitterbasiertes SLAM-Verfahren mit einem Partikelfilter

Mehr

Lineare Klassifikationsmethoden

Lineare Klassifikationsmethoden Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

Aufgabe 4.1 Robotermodell (1)

Aufgabe 4.1 Robotermodell (1) Aufgabe 4.1 Robotermodell (1)! Erstellen Sie ein Simulationsmodell für einen mobilen Roboter (z.b. Pioneer 3DX), der sich über Geschwindigkeit v und Rotationsgeschwindigkeit ω steuern lässt. v ω Pioneer

Mehr

Real Time Tracking of the Human Body. Hauptseminar Bildverstehen: Videobasierte Erkennung und Analyse menschlicher Aktionen. Thomas Endres SS 2006

Real Time Tracking of the Human Body. Hauptseminar Bildverstehen: Videobasierte Erkennung und Analyse menschlicher Aktionen. Thomas Endres SS 2006 Real Time Tracking of the Human Body Hauptseminar Bildverstehen: Videobasierte Erkennung und Analyse menschlicher Aktionen Thomas Endres SS 2006 Echtzeit-Erkennung Erkennung Anwendungsmöglichkeiten: Interfaces

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist: Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche

Mehr

Die n-dimensionale Normalverteilung

Die n-dimensionale Normalverteilung U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models

Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models Korbinian Schwinger 3. November 003 Inhaltsverzeichnis Inhaltsverzeichnis Exponential Family 3. Definition...............................

Mehr

5 Fehlerfortpflanzung

5 Fehlerfortpflanzung 5 Fehlerfortpflanzung Diese Lektion folgt D.S. Sivia, Data Analysis: A Bayesian Tutorial, Oxford University Press, Chapter 3.6. Lernziele Lektion 5 Sie wissen, wie man Wahrscheinlichkeitsverteilungen von

Mehr

Totale Ableitung und Jacobi-Matrix

Totale Ableitung und Jacobi-Matrix Totale Ableitung und Jacobi-Matrix Eine reelle Funktion f : R n R m ist in einem Punkt x differenzierbar, wenn f (x + h) = f (x) + f (x)h + o( h ) für h 0. Totale Ableitung 1-1 Totale Ableitung und Jacobi-Matrix

Mehr

Dynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle und Kalman Filter 15 p.2/??

Dynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle und Kalman Filter 15 p.2/?? Dynamische Systeme und Zeitreihenanalyse Zustandsraummodelle und Kalman Filter Kapitel 15 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle

Mehr

Richtungsableitungen.

Richtungsableitungen. Richtungsableitungen. Definition: Sei f : D R, D R n offen, x 0 D, und v R n \ {0} ein Vektor. Dann heißt D v f(x 0 f(x 0 + tv) f(x 0 ) ) := lim t 0 t die Richtungsableitung (Gateaux-Ableitung) von f(x)

Mehr

Lokalisierung. von Matthias Heine, Norbert Müller, Silvia Schreier, Oliver Zöllner

Lokalisierung. von Matthias Heine, Norbert Müller, Silvia Schreier, Oliver Zöllner Lokalisierung von Matthias Heine, Norbert Müller, Silvia Schreier, Oliver Zöllner Was ist Lokalisierung? Fähigkeit eines autonomen Roboters seine Position in Bezug auf ein festes (Koordinaten-)System zu

Mehr

Box-Plots. Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.rechnung. Beschreibende Statistik 174 / 258

Box-Plots. Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.rechnung. Beschreibende Statistik 174 / 258 174 / 258 Box-Plots Ziel: übersichtliche Darstellung der Daten. Boxplot zu dem Eingangsbeispiel mit n=5: Descr_Boxplot0.sas Prozeduren: UNIVARIATE, GPLOT, BOXPLOT 174 / 258 Box-Plots Ziel: übersichtliche

Mehr

Gauß-Prozess-Regression

Gauß-Prozess-Regression Bayessche Regression und Gaußprozesse Dr. rer. nat. Johannes Riesterer Motivation Kriging Der südafrikanische Bergbauingenieur Danie Krige versuchte 1951, eine optimale Interpolationsmethode für den Bergbau

Mehr

Übungsaufgaben zu den mathematischen Grundlagen von KM

Übungsaufgaben zu den mathematischen Grundlagen von KM TUM, Institut für Informatik WS 2003/2004 Prof Dr Thomas Huckle Andreas Krahnke, MSc Dipl-Inf Markus Pögl Übungsaufgaben zu den mathematischen Grundlagen von KM 1 Bestimmen Sie die Darstellung von 1 4

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

Ausgleichungsrechnung - nach der Methode der kleinsten Quadrate -

Ausgleichungsrechnung - nach der Methode der kleinsten Quadrate - Computer Vision Ausgleichungsrechnung - nach der Methode der kleinsten Quadrate -.6.5 Problem Beispiel: Bestimmung der Parameter einer Gerade bei gegebenen x und fehlerhaften y y = ax+ b Beschreibung der

Mehr

6.1 Definition der multivariaten Normalverteilung

6.1 Definition der multivariaten Normalverteilung Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Brownsche Bewegung Seminar - Weiche Materie

Brownsche Bewegung Seminar - Weiche Materie Brownsche Bewegung Seminar - Weiche Materie Simon Schnyder 11. Februar 2008 Übersicht Abbildung: 3 Realisationen des Weges eines Brownschen Teilchens mit gl. Startort Struktur des Vortrags Brownsches Teilchen

Mehr

Implizite Funktionen. Ist für eine stetig differenzierbare Funktion f : R n R m R n. so lässt sich das Gleichungssystem

Implizite Funktionen. Ist für eine stetig differenzierbare Funktion f : R n R m R n. so lässt sich das Gleichungssystem Implizite Funktionen Ist für eine stetig differenzierbare Funktion f : R n R m R n f (x, y ) = (0,..., 0) t, det f x (x, y ) 0, so lässt sich das Gleichungssystem f k (x 1,..., x n, y 1,..., y m ) = 0,

Mehr

Fehlerfortpflanzung. M. Schlup. 27. Mai 2011

Fehlerfortpflanzung. M. Schlup. 27. Mai 2011 Fehlerfortpflanzung M. Schlup 7. Mai 0 Wird eine nicht direkt messbare physikalische Grösse durch das Messen anderer Grössen ermittelt, so stellt sich die Frage, wie die Unsicherheitsschranke dieser nicht-messbaren

Mehr

Umkehrfunktion. g (y) = f (x) 1, x = g(y), Umkehrfunktion 1-1

Umkehrfunktion. g (y) = f (x) 1, x = g(y), Umkehrfunktion 1-1 Umkehrfunktion Ist für eine stetig differenzierbare n-variate Funktion f : D R n die Jacobi-Matrix f (x ) für einen Punkt x im Innern des Definitionsbereiches D R n nicht singulär, so ist f lokal invertierbar,

Mehr

Autonom-Explorierender Hexapod-Roboter

Autonom-Explorierender Hexapod-Roboter Fachbereich 4: Informatik Autonom-Explorierender Hexapod-Roboter Bachelorarbeit zur Erlangung des Grades Bachelor of Science im Studiengang Computervisualistik vorgelegt von Christian Schlöffel Betreuer:

Mehr

Kleine Formelsammlung zu Mathematik für Ingenieure IIA

Kleine Formelsammlung zu Mathematik für Ingenieure IIA Kleine Formelsammlung zu Mathematik für Ingenieure IIA Florian Franzmann 5. Oktober 004 Inhaltsverzeichnis Additionstheoreme Reihen und Folgen 3. Reihen...................................... 3. Potenzreihen..................................

Mehr

H.J. Oberle Analysis III WS 2012/ Differentiation

H.J. Oberle Analysis III WS 2012/ Differentiation H.J. Oberle Analysis III WS 2012/13 13. Differentiation 13.1 Das Differential einer Abbildung Gegeben: f : R n D R m, also eine vektorwertige Funktion von n Variablen x = (x 1,..., x n ) T, wobei D wiederum

Mehr

1.5 Mehrdimensionale Verteilungen

1.5 Mehrdimensionale Verteilungen Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4

Mehr

Klassifikation von Daten Einleitung

Klassifikation von Daten Einleitung Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung

Mehr

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient

Mehr

Nichtlineare Ausgleichsrechnung

Nichtlineare Ausgleichsrechnung 10. Großübung Nichtlineare Ausgleichsrechnung Allgemeines Problem: Wir betrachten ein nichtlineares System F : R n R m mit (m > n, d.h. das System ist überbestimmt und F i (x g(t i ; x g i! 0 i 1,.., m.

Mehr

Blatt 10. Hamilton-Formalismus- Lösungsvorschlag

Blatt 10. Hamilton-Formalismus- Lösungsvorschlag Fakultät für Physik der LMU München Lehrstuhl für Kosmologie, Prof. Dr. V. Mukhanov Übungen zu Klassischer Mechanik T) im SoSe 20 Blatt 0. Hamilton-Formalismus- Lösungsvorschlag Aufgabe 0.. Hamilton-Formalismus

Mehr

Serie 4: Gradient und Linearisierung

Serie 4: Gradient und Linearisierung D-ERDW, D-HEST, D-USYS Mathematik II FS 5 Dr. Ana Cannas Serie 4: Gradient und Linearisierung Bemerkungen: Die Aufgaben der Serie 4 bilden den Fokus der Übungsgruppen vom 7./9. März.. Wir betrachten die

Mehr

Alterungsbestimmung bei Lithium-IonenBatterien auf Basis des Kalmanfilters in

Alterungsbestimmung bei Lithium-IonenBatterien auf Basis des Kalmanfilters in Alterungsbestimmung bei Lithium-IonenBatterien auf Basis des Kalmanfilters in EV- und PV-Anwendungen Nils Armbruster Fraunhofer ISE 18. DESIGN&ELEKTRONIK - Entwicklerforum München, 16. Februar 2011 Gliederung

Mehr

Übungsrunde 10, Gruppe 2 LVA , Übungsrunde 10, Gruppe 2, Markus Nemetz, TU Wien,

Übungsrunde 10, Gruppe 2 LVA , Übungsrunde 10, Gruppe 2, Markus Nemetz, TU Wien, Übungsrunde, Gruppe 2 LVA 7.369, Übungsrunde, Gruppe 2, 9..27 Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 9..27 Anmerkung: Viele dieser Lösungsvorschläge stammen aus dem Informatik-Forum, Subforum

Mehr

Differential- und Integralrechnung

Differential- und Integralrechnung Brückenkurs Mathematik TU Dresden 2016 Differential- und Integralrechnung Schwerpunkte: Differentiation Integration Eigenschaften und Anwendungen Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik

Mehr

Seminar stabile Zufallsprozesse

Seminar stabile Zufallsprozesse Definitionen und Eigenschaften stabiler Verteilungen 2. November 2011 Inhalt 1 Definitionen Definitionen Beweis der Äquivalenz Beispiele 2 Eigenschaften 3 Charakteristische Funktion 4 Laplace Transformation

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 3 Maschinelles Lernen und Klassifikation

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 3 Maschinelles Lernen und Klassifikation Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Lösungsblatt 3 Maschinelles Lernen und Klassifikation Aufgabe : Zufallsexperiment

Mehr

Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood

Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Hauptseminar - Methoden der experimentellen Teilchenphysik WS 2011/2012 Fabian Hoffmann 2. Dezember 2011 Inhaltsverzeichnis 1 Einleitung

Mehr

5. Numerische Differentiation. und Integration

5. Numerische Differentiation. und Integration 5. Numerische Differentiation und Integration 1 Numerische Differentiation Problemstellung: Gegeben ist eine differenzierbare Funktion f : [a,b] R und x (a,b). Gesucht sind Näherungen für die Ableitungen

Mehr

Solutions I Publication:

Solutions I Publication: WS 215/16 Solutions I Publication: 28.1.15 1 Vektor I 4 2 Ein Objekt A befindet sich bei a = 5. Das zweite Objekt B befindet sich bei b = 4. 2 3 (a) Die Entfernung von Objekt A zum Ursprung ist die Länge

Mehr

y (t) Wie berechnet sich die Ableitung von F aus den Ableitungen von x (t) und y (t)? Die Antwort gibt die erste Kettenregel

y (t) Wie berechnet sich die Ableitung von F aus den Ableitungen von x (t) und y (t)? Die Antwort gibt die erste Kettenregel 103 Differenzialrechnung 553 1035 Kettenregeln Die Kettenregel bei Funktionen einer Variablen erlaubt die Berechnung der Ableitung von verketteten Funktionen Je nach Verkettung gibt es bei Funktionen von

Mehr

Statistik - Fehlerrechnung - Auswertung von Messungen

Statistik - Fehlerrechnung - Auswertung von Messungen Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler

Mehr

Verfahren zur Datenanalyse gemessener Signale

Verfahren zur Datenanalyse gemessener Signale Verfahren zur Datenanalyse gemessener Signale Dr. rer. nat. Axel Hutt Vorlesung 4 zum Übungsblatt Aufgabe 1: sin( (f 3Hz)5s) sin( (f +3Hz)5s) X T (f) 1 i f 3Hz f +3Hz Nullstellen: T=5s: T=1s: f=3hz+2/5s,

Mehr

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators

Mehr

DSGE-Modelle. Linearisierung und Lösung. Institut für Ökonometrie und Wirtschaftsstatistik Münster

DSGE-Modelle. Linearisierung und Lösung. Institut für Ökonometrie und Wirtschaftsstatistik Münster DSGE-Modelle Linearisierung und Lösung Dr. Andrea Beccarini Willi Mutschler, M.Sc. Institut für Ökonometrie und Wirtschaftsstatistik Münster willi.mutschler@uni-muenster.de Sommersemester 2012 Willi Mutschler

Mehr

Gaußsche Felder und Simulation

Gaußsche Felder und Simulation 3 2 data_2d_1.dat data_2d_2.dat data_2d_64.dat data_2d_128.dat 1-1 -2-3 1 2 3 4 5 6 7 Gaußsche Felder und Simulation Benedikt Jahn, Aaron Spettl 4. November 28 Institut für Stochastik, Seminar Zufällige

Mehr

Nichtlineare und adaptive Filter für die Flugzeugverfolgung

Nichtlineare und adaptive Filter für die Flugzeugverfolgung Research Collection Doctoral Thesis Nichtlineare und adaptive Filter für die Flugzeugverfolgung Author(s): Früh, Peter T. Publication Date: 1984 Permanent Link: https://doi.org/10.3929/ethz-a-000311033

Mehr

ε δ Definition der Stetigkeit.

ε δ Definition der Stetigkeit. ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II Statistik II 1. Ergänzungen zur Wahrscheinlichkeitstheorie Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 1. Ergänzungen zur

Mehr