Computer Vision: Kalman Filter
|
|
- Charlotte Fürst
- vor 7 Jahren
- Abrufe
Transkript
1 Computer Vision: Kalman Filter D. Schlesinger TUD/INF/KI/IS D. Schlesinger () Computer Vision: Kalman Filter 1 / 8
2 Bayesscher Filter Ein Objekt kann sich in einem Zustand x X befinden. Zum Zeitpunkt i sei die Wahrscheinlichkeitsverteilung pi (xi ) bekannt (Achtung!!! Nicht der Zustand xi, sondern Wahrscheinlichkeitsverteilung). Gegeben sei ein statistisches Bewegungsmodell p(xi+1 xi ) Daraus ergibtp sich die (a-priori) Wahrscheinlichkeitsverteilung der Zustände xi+i als pi+1 (xi+1 ) = p (x ) p(xi+1 xi ) Prediction x i i i Gegeben sei ein Beobachtungsmodell p(oi+1 xi+1 ), o O Die Wahrscheinlichkeitsverteilung im i+1 Zeitpunkt ergibt sich als pi+1 (xi+1 ) pi+1 (xi+1 oi+1 ) pi+1 (xi+1 ) p(oi+1 xi+1 ) Correction dient als a-priori Wahrscheinlichkeitsverteilung für den nächsten Schritt. D. Schlesinger () Computer Vision: Kalman Filter 2 / 8
3 Markovsche Ketten Die Zustandsmenge X ist diskret. + ziemlich allgemein, da beliebige diskrete Modelle repräsentiert werden können für große Zustandsräume meist nicht geeignet (wegen Zeitkomplexität) Markovsche Ketten mit kontinuierlicher Zustandsmenge... D. Schlesinger () Computer Vision: Kalman Filter 3 / 8
4 Kalman Filter [Kalman, 1960] Zustände und Beobachtungen sind Vektoren x R n bzw. o R m Bewegungsmodell und Beobachtungsmodell sind linear x i+1 = A x i + ɛ, o i = B x i + δ A und B sind n n bzw. n m Matrizen ɛ R n und δ R m sind Gaussch verteilte Störungen, d.h. p(ɛ) = N (0, Σ ɛ) exp( ɛ T Σ 1 ɛ ɛ), p(δ) = N (0, Σ δ ) exp( δ T Σ 1 δ δ) mit Mittelwerten = 0 und Kovarianzmatrizen Σ ɛ und Σ δ Beispiel: Zustand x = [x, y, v x, v y] beschreibt die Lage (x, y) und die Geschwindigkeit (v x, v y) eines Objektes im R 2. Es gilt für fast gleichförmige Bewegung ( t ist der Zeitschritt): x i+1 = x i + t v x,i + O( t 2 ) y i+1 = y i + t v y,i + O( t 2 ) v x,i+1 = v x,i + O( t) v y,i+1 = v y,i + O( t) Der Zustand im i + 1 Zeitpunkt ist eine lineare Kombination mit Störungen O( ) D. Schlesinger () Computer Vision: Kalman Filter 4 / 8
5 Kalman Filter In der Matrixform: x i+1 y i+1 v x,i+1 v y,i+1 Für die Beobachtung analog: (nur die Lage wird beobachtet). = 1 0 t t [ ] [ ox,i = o y,i ] x i y i v x,i v y,i x i y i v x,i v y,i + ɛ + δ 2D 3D (R 6 ) 6D (mit Winkeln) (R 12 )... D. Schlesinger () Computer Vision: Kalman Filter 5 / 8
6 Kalman Filter Annahme: im ersten Zeitpunkt p(x 0 ) = N ( x 0, Σ 0 ) 1) Prediction ist die Faltung zweier Gaussiane p i+1 (x i+1 ) = p i (x i ) p(x i+1 x i ) dx i exp [ (x i x i ) T Σ 1 i (x i x i ) ] [ ] exp (x i+1 Ax i ) T Σ 1 ɛ (x i+1 Ax i ) dx i Ergebnis wieder ein Gaussian N ( x i+1, Σ i+1 ). 2) Correction ist komponentenweise Multiplikation zweier Gaussiane p i+1 (x i+1 o i+1 ) = p i+1 (x i+1 ) p(o i+1 x i+1 ) [ exp (x i+1 x i+1 )T Σ 1 i+1 (x i+1 x i+1 [ )] ] exp (o i+1 Bx i+1 ) T Σ 1 δ (o i+1 Bx i+1 ) Ergebnis wieder ein Gaussian N ( x i+1, Σ i+1 ). Die Wahrscheinlichkeitsverteilungen werden nicht explizit neu berechnet, sondern die Parameter (Mittelwerte und Kovarianzmatrizen) werden propagiert. D. Schlesinger () Computer Vision: Kalman Filter 6 / 8
7 Kalman Filter Anwendungsbeispiel [Yedidya, Hartley, 2008] Verfolgung von Blutgefäßen: Gesucht wird eine Trajektorie Ein Objekt bewegt sich entlang einer Bahn (Blutgefäß) und wird dabei verfolgt Zustand beschreibt Position, Geschwindigkeit, Dicke, unterwegs gesehene Grauwerte usw. D. Schlesinger () Computer Vision: Kalman Filter 7 / 8
8 Partikel Filter Nachteil des Kalman Filters: nur Gaussiane für komplizierte Zustandsräume ungeeignet. (i) Besser Mischungen von Gaussianen, z.b. p(ɛ) = k w kn (µ k, Σ ɛk ). Das Problem die Anzahl der Komponenten wächst (selbst bei linearen Modellen). i j = ij kann nicht parametrisch propagiert werden. i Ausweg: man approximiere ständig durch Mischung mit konstanter Anzahl der Komponenten (nach χ 2, Likelihood etc.). (ii) Allgemeinere Fälle nicht lineare Bewegungsmodelle, d.h. Ax wird zu a(x) und Bx wird zu b(x) z.b. lokal linearisieren... Zu (i) und (ii) man approximiere die Berechnungen durch Sampling: würfele x entsprechend p i (x i ) propagiere x = a(x ) berechne p(o i+1 x ) (vergleiche o i+1 mit b(x )) entscheide, ob x in die Lernstichprobe aufgenommen wird (accept/reject) so generierte Lernstichprobe von x gehorcht p i+1 (x i+1 ) Manchmal ist es gar nicht nötig, die Wahrscheinlichkeitsverteilung zu spezifizieren gearbeitet wird immer mit den Samples. CONDENSATION (Conditional Density Propagation) eine bestimmte Art davon. D. Schlesinger () Computer Vision: Kalman Filter 8 / 8
Bildverarbeitung: Filterung. D. Schlesinger () Bildverarbeitung: Filterung 1 / 17
Bildverarbeitung: Filterung D. Schlesinger () Bildverarbeitung: Filterung 1 / 17 Allgemeines Klassische Anwendung: Entrauschung (Fast) jeder Filter basiert auf einem Modell (Annahme): Signal + Rauschen
MehrMustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12
Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1
MehrStochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrComputer Vision: Optische Flüsse
Computer Vision: Optische Flüsse D. Schlesinger TUD/INF/KI/IS Bewegungsanalyse Optischer Fluss Lokale Verfahren (Lukas-Kanade) Globale Verfahren (Horn-Schunck) (+ kontinuierliche Ansätze: mathematische
MehrBeispiel: Positionsschätzung
Das Kalman Filter Beispiel: Positionsschätzung Beispiel: Positionsschätzung. Messung: mit Varianz Daraus abgeleitete Positionsschätzung: mit Varianz ˆX = = f f ( y ) y 3 Beispiel: Positionsschätzung. Messung:
MehrMethoden der Statistik Markov Chain Monte Carlo Methoden
Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrDynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle und Kalman Filter 15 p.2/??
Dynamische Systeme und Zeitreihenanalyse Zustandsraummodelle und Kalman Filter Kapitel 15 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation
MehrMustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10
Mustererkennung: Wahrscheinlichkeitstheorie D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10 Definitionen (axiomatisch) Wahrscheinlichkeitsraum (Ω, σ, P), mit Ω Die Grundmenge, die Menge der elementaren
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrDer diskrete Kalman Filter
Der diskrete Kalman Filter Fachbereich: Informatik Betreuer: Marc Drassler Patrick Winkler 1168954 6. Dezember 2004 Technische Universität Darmstadt Simulation und Systemoptimierung Darmstadt Dribbling
MehrStatistik für Ingenieure Vorlesung 3
Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind
MehrWahrscheinlichkeitsrechnung und Statistik
5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrÜberblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression
Überblic Grundonepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münwürfe Lineare Regression Logistische Regression Bayes sche Vorhersage Münwürfe Lineare Regression 14 Modell für Münwürfe
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrKalman-Filter und Target Tracking
Kalman-Filter und Target Tracking Peter Poschmann Hochschule für Technik und Wirtschaft Dresden Fakultät Informatik/Mathematik 23. März 2016 Inhalt 1 Kalman-Filter Einleitung Eindimensionaler Kalman-Filter
MehrWahrscheinlichkeitstheorie 2
Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrSeminar zur Energiewirtschaft:
Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable
Mehri =1 i =2 i =3 x i y i 4 0 1
Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x
MehrÜberblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator
Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
Mehr10.5 Maximum-Likelihood Klassifikation (I)
Klassifikation (I) Idee Für die Klassifikation sind wir interessiert an den bedingten Wahrscheinlichkeiten p(c i (x,y) D(x,y)). y Wenn man diese bedingten Wahrscheinlichkeiten kennt, dann ordnet man einem
MehrIntelligente Roboter
64-424 Intelligente Roboter 64-424 Intelligente Roboter http://tams.informatik.uni-hamburg.de/ lectures/2010ws/vorlesung/ir Jianwei Zhang Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften
MehrTechnische Universität. Fakultät für Informatik
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik IX Particle-Filter / Condensation algorithm Hauptseminar Thomas Auckenthaler Betreuer: Abgabetermin: 13. Mai
MehrHMMs und der Viterbi-Algorithmus
July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,
MehrBildverarbeitung: RANSAC. D. Schlesinger () Bildverarbeitung: RANSAC 1 / 11
Bildverarbeitung: RANSAC D. Schlesinger () Bildverarbeitung: RANSAC 1 / 11 Beispielaufgaben Man suche eine Gerade ax + by = 1 d.h. die unbekannten Parameter a und b anhand einer Lernstichprobe der Punkte
MehrMathematik für Naturwissenschaften, Teil 2
Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrProbabilistisches Tracking mit dem Condensation Algorithmus
Probabilistisches Tracking mit dem Condensation Algorithmus Seminar Medizinische Bildverarbeitung Axel Janßen Condensation - Conditional Density Propagation for Visual Tracking Michael Isard, Andrew Blake
MehrStrukturelle Modelle in der Bildverarbeitung Markovsche Ketten II
Strukturelle Modelle i der Bildverarbeitug Markovsche Kette II D. Schlesiger TUD/INF/KI/IS Statioäre Verteilug Verborgee Markovsche Kette (HMM) Erkeug stochastisches Automate D. Schlesiger SMBV: Markovsche
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrMathematische und statistische Methoden II
Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike
MehrLineare Klassifikationsmethoden
Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
Mehr4 Funktionenfolgen und normierte Räume
$Id: norm.tex,v 1.57 2018/06/08 16:27:08 hk Exp $ $Id: jordan.tex,v 1.34 2018/07/12 20:08:29 hk Exp $ 4 Funktionenfolgen und normierte Räume 4.7 Kompakte Mengen Am Ende der letzten Sitzung hatten wir zwei
MehrKalmanfilter und Nichtparametrische Filter. Bayesfilter
Kalmanfilter und Nichtparametrische Filter Daniel Göhring 06.11.2006 Bayesfilter Zustand zur Zeit t ist Zufallvariable x t Wahrscheinlichkeitsfunktion Bel (Belief) über x t : Bel(x t ) repräsentiert die
MehrStarrer Körper: Drehimpuls und Drehmoment
Starrer Körper: Drehimpuls und Drehmoment Weitere Schreibweise für Rotationsenergie: wobei "Dyade" "Dyadisches Produkt" Def.: "Dyadisches Produkt", liefert bei Skalarmultiplikation mit einem Vektor : und
Mehr5 Lineare Algebra (Teil 3): Skalarprodukt
5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale
MehrMatrizen. Spezialfälle. Eine m nmatrix ist ein rechteckiges Zahlenschema mit. m Zeilen und n Spalten der Form. A = (a ij ) =
Matrizen Eine m nmatrix ist ein rechteckiges Zahlenschema mit m Zeilen und n Spalten der Form a 11 a 12 a 1n A = a ij = a 21 a 22 a 2n a m1 a m2 a mn Dabei sind m und n natürliche und die Koezienten a
MehrHochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann. 8. Übungsblatt zur Vorlesung Ökonometrie
Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann 8. Übungsblatt zur Vorlesung Ökonometrie Aufgabe 1: In der Vorlesung haben wir das lineare Regressionsproblem als statistisches Problem formuliert:
MehrLösbarkeit linearer Gleichungssysteme
Lösbarkeit linearer Gleichungssysteme Lineares Gleichungssystem: Ax b, A R m n, x R n, b R m L R m R n Lx Ax Bemerkung b 0 R m Das Gleichungssystem heißt homogen a A0 0 Das LGS ist stets lösbar b Wenn
MehrStatistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler
MehrEinführung in die Hauptkomponentenanalyse
Einführung in die Hauptkomponentenanalyse Florian Steinke 6. Juni 009 Vorbereitung: Einige Aspekte der multivariaten Gaußverteilung Definition.. Die -D Gaußverteilung für x R ist ( p(x exp (x µ σ. ( Notation:
Mehr1.4 Stabilität der Gauß-Elimination
KAPIEL 1. LINEARE GLEICHUNGSSYSEME 18 1.4 Stabilität der Gauß-Elimination Bezeichne x die exakte Lösung von Ax = b bzw. ˆx die mit einem (zunächst beliebigen Algorithmus berechnete Näherungslösung (inklusive
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
MehrMathematische Grundlagen Kalman Filter Beispielprogramm. Kalman Filter. Stephan Meyer
Kalman Filter Stephan Meyer FWPF Ortsbezogene Anwendungen und Dienste Georg-Simon-Ohm-Hochschule Nürnberg 07.12.2007 Outline 1 Mathematische Grundlagen 2 Kalman Filter 3 Beispielprogramm Mathematische
MehrStatistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler
MehrWie liest man Konfidenzintervalle? Teil II. Premiu m
Wie liest man Konfidenzintervalle? Teil II Premiu m - Hintergrund Anderer Wahrscheinlichkeitsbegriff subjektiver Wahrscheinlichkeitsbegriff Beispiel: Was ist die Wahrscheinlichkeit dafür, dass ein Patient
MehrBeispiel 6 (Multivariate Normalverteilung)
Beispiel 6 (Multivariate Normalverteilung) Sei X N(µ,Σ). Es existiert eine Matrix A IR d k, sodass X d = µ+az wobei Z N k (0,I) und AA T = Σ. Weiters gilt Z = RS wobei S ein gleichmäßig verteilter Zufallsvektor
MehrZusatzmaterial zur Vorlesung Statistik II
Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November
MehrAbb. 5.10: Funktion und Tangentialebene im Punkt ( ) ( ) ( ) 3.) Die Zahlenwerte und in Gleichung (Def. 5.11) berechnen sich durch ( ) ( )
Abb. 5.0: Funktion und Tangentialebene im Punkt Aus der totalen Differenzierbarkeit folgt sowohl die partielle Differenzierbarkeit als auch die Stetigkeit von : Satz 5.2: Folgerungen der totalen Differenzierbarkeit
Mehr5 Binomial- und Poissonverteilung
45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1
MehrLösungen zu den Hausaufgaben zur Analysis II
Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin
MehrStatistische Methoden
Modeling of Data / Maximum Likelyhood methods Institut für Experimentelle und Angewandte Physik Christian-Albrechts-Universität zu Kiel 22.05.2006 Datenmodellierung Messung vs Modell Optimierungsproblem:
MehrKapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrKapitel III Ringe und Körper
Kapitel III Ringe und Körper 1. Definitionen und Beispiele Definition 117 Eine Algebra A = S,,, 0, 1 mit zwei zweistelligen Operatoren und heißt ein Ring, falls R1. S,, 0 eine abelsche Gruppe mit neutralem
MehrSeminar in Statistik - FS Nonparametric Bayes. Handout verfasst von. Ivo Francioni und Philippe Muller
Seminar in Statistik - FS 2008 Nonparametric Bayes Handout verfasst von Ivo Francioni und Philippe Muller Zürich, 17. März 2008 1 EINLEITUNG 1 1 Einleitung Bis jetzt haben wir in der Bayes schen Statistik
MehrVerfahren zur Datenanalyse gemessener Signale
Verfahren zur Datenanalyse gemessener Signale Dr. rer. nat. Axel Hutt Vorlesung 4 zum Übungsblatt Aufgabe 1: sin( (f 3Hz)5s) sin( (f +3Hz)5s) X T (f) 1 i f 3Hz f +3Hz Nullstellen: T=5s: T=1s: f=3hz+2/5s,
MehrBildverarbeitung: Diffusion Filters. D. Schlesinger ()Bildverarbeitung: Diffusion Filters 1 / 10
Bildverarbeitung: Diffusion Filters D. Schlesinger ()Bildverarbeitung: Diffusion Filters 1 / 10 Diffusion Idee Motiviert durch physikalische Prozesse Ausgleich der Konzentration eines Stoffes. Konzentration
MehrLEHRBERUFE IM HANDEL
i i i i i i i i ii i i i i i i i i i J i i i i i J i i i i i i i i i i i i i i? i i fi i C i i i i i i i 01 i 02 i i 03 y i 04 i i 05 06 i 07 i 08 09 i 10 i 11 i 12 J 13 ii 14 15 i i i i i i ii i i - ii
MehrLEHRBERUFE IM HANDEL
i i i i i i i i ii i i i i i i i i i J i i i i i J i i i i i i i i i i i i i i? i i fi i C i i i i i i i 01 i 02 i i 03 y i 04 i i 05 06 i 07 i 08 09 i 10 i 11 i 12 J 13 ii 14 15 i i i i i i ii i i - ii
MehrMathematische und statistische Methoden II
Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrIn der Praxis werden wir häufig mit relativ komplexen Funktionen konfrontiert. y
Approximationen In der Praxis werden wir häufig mit relativ komplexen Funktionen konfrontiert. y y = f (x) x Um das Arbeiten mit einer komplizierten Funktion zu vermeiden, können wir versuchen, diese Funktion
MehrStatistische Physik - Theorie der Wärme (PD Dr. M. Falcke)
Freie Universität Berlin WS 2006/2007 Fachbereich Physik 0..2006 Statistische Physik - Theorie der Wärme (PD Dr. M. Falcke) Übungsblatt 3: Zentraler Grenzwertsatz, Mikrokanonisches Ensemble, Entropie Aufgabe
Mehr5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
Mehr2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:
Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche
MehrMultivariate Verteilungen. Gerhard Tutz LMU München
Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS
MehrIngenieurmathematik I Lernstandserhebung 2 24./
Ingenieurmathematik I Lernstandserhebung 4./5..7 Bitte Namen, Vornamen und Matrikel-Nr. einsetzen. Name:............................................................................ Vorname:.........................................................................
MehrSeminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung
M.Sc. Brice Hakwa hakwa@uni-wuppertal.de Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung - Zusammenfassung zum Thema: Berechnung von Value-at-Risk
MehrComputer Vision: Segmentierung I
Computer Vision: Segmentierung I D. Schlesinger TUD/INF/KI/IS Der Plan: D. Schlesinger () CV: Segmentierung I 1 / 13 Segmentierung Man hat das... Man braucht das. D. Schlesinger () CV: Segmentierung I
MehrLineare Algebra. 5. Übungsstunde. Steven Battilana. battilana.uk/teaching
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch battilana.uk/teaching October 2, 207 Erinnerung Definition. Ein Skalarprodukt ist eine Abbildung, : E n E n E, v, w v, w = n k= v
Mehrc i u i. (10.2) x = i
Kapitel 0 Von Mises Wielandt Verfahren Im Folgenden wollen wir uns ausschließlich auf reelle, symmetrischen Matrizen der Ordnung n beschränken. Wie im letzten Kapitel diskutiert, sind für solche Matrizen
MehrBayessche Lineare Regression
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.
MehrLineare Regression. Kapitel Regressionsgerade
Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell
MehrWahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Prof. Dr. Michael Havbro Faber 8.04.009 1 Inhalt der heutigen Vorlesung Zusammenfassung der letzten Vorlesung Übersicht über Schätzung und Modellbildung Modellevaluation
MehrKapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:
MehrMustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle
Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators
MehrKapitel XI - Die n-fache unabhängige Wiederholung eines Experiments
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XI - Die n-fache unabhängige Wiederholung eines Experiments Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig
Mehr73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments
73 Hypothesentests 73.1 Motivation Bei Hypothesentests will man eine gewisse Annahme über eine Zufallsvariable darauf hin überprüfen, ob sie korrekt ist. Beispiele: ( Ist eine Münze fair p = 1 )? 2 Sind
MehrBeispiel für eine periodische Spline-Interpolationsfunktion: Wir betrachten f(x) = sin(πx) und geben die folgenden Stützstellen und Stützwerte vor:
5 Splineinterpolation Beispiel für eine periodische Spline-Interpolationsfunktion: Wir betrachten f(x) sin(πx) und geben die folgenden Stützstellen und Stützwerte vor: x i 3 f i Damit ist n 5, h Forderung
MehrÜbung 1: Wiederholung Wahrscheinlichkeitstheorie
Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrAbhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.
Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient
MehrKapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Gleichmäßig beste unverfälschte Tests und Tests zur Normalverteilung Induktive Statistik Prof. Dr. W.-D.
MehrKapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
MehrKapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte
Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte
Mehr