Systemidentikation und Regelung in der Medizin Rekursives Verfahren der kleinsten Fehlerquadrate - Recursive Least Squares (RLS)

Größe: px
Ab Seite anzeigen:

Download "Systemidentikation und Regelung in der Medizin Rekursives Verfahren der kleinsten Fehlerquadrate - Recursive Least Squares (RLS)"

Transkript

1 Systemidentikation und Regelung in der Medizin Rekursives Verfahren der kleinsten Fehlerquadrate - Recursive Least Squares (RLS) LS: Schätzung der Modellparameter basierend auf einer Anzahl von Beobachtungen RLS: Update der alten geschätzten Modellparameter nach Eintreen einer neuen Beobachtung; Alte Beobachtungen können weggeworfen werden. Denition: Rekursiver Algorithmus neue Schätzung = alte Schätzung + Korrekturfaktor neue Beobachtung Prädiktion mit alter Schätzung (1)

2 Systemidentikation und Regelung in der Medizin Herleitung LS Schätzung zum Abtastzeitpunkt k 1: [ k 1 ] 1 k 1 ˆΘ(k 1) = α i ϕ(i)ϕ T (i) α i ϕ(i)y(i) (2) i=1 i=1 Neue Beobachtung zum Abtastpunkt k liefert [ k 1 1 ˆΘ(k) = α i ϕ(i)ϕ T (i) + a k ϕ(k)ϕ (k)] T (3) i=1 Denition von R(k): ( k 1 i=1 α i ϕ(i)y(i) + α k ϕ(k)y(k) ) R(k) = k α i ϕ(i)ϕ T (i) i=1 (4)

3 Rekursive Denition von R(k): Systemidentikation und Regelung in der Medizin 3 R(k) = R(k 1) + α k ϕ(k)ϕ T (k) (5) Umformulierung der LS-Schätzung (3): ( k 1 ) ˆΘ(k) = R 1 (k) α i ϕ(i)y(i) + α k ϕ(k)y(k) i=1 ˆΘ(k 1) = R 1 (k 1) k 1 i=1 k 1 i=1 (6) α i ϕ(i)y(i) (7) α i ϕ(i)y(i) = R(k 1) ˆΘ(k 1) (8) Dies liefert nun eine rekursive Formel für die Schätzung: [ ˆΘ(k) = R 1 (k) R(k 1) ˆΘ(k ] 1) + α k ϕ(k)y(k) (9) Einsetzen von (5) ergibt: [ [R(k) ˆΘ(k) = R 1 (k) αk ϕ(k)ϕ T (k) ] ] ˆΘ(k 1) + αk ϕ(k)y(k) (10)

4 Systemidentikation und Regelung in der Medizin 4 Umsortieren der Terme liefert: ˆΘ(k) = ˆΘ(k 1) + R 1 (k)α k ϕ(k) [ y(k) ϕ T (k) ˆΘ(k ] 1) (11) Die Gleichungen (11) und (5) beschreiben eine rekursive Form der LS-Schätzung. Problematisch ist, dass in jedem Schritt die Matrix R(k) invertiert werden muss! Um dies zu vermeiden wird eingeführt: P (k) = R 1 (k) (12) Die Rekursion von R(k) (Gleichung (5)) wird dann zu P 1 (k) = P 1 (k 1) + α k ϕ(k)ϕ T (k) (13) Nutzung eines Matrixinversions-Lemmas um P (k) direkt zu updaten ohne Anwendung einer Matrixinversion.

5 Systemidentikation und Regelung in der Medizin 5 Matrixinversions-Lemma: A, B, C und D seien Matrizen kompatibler Gröÿe so dass A + BCD existiert. Dann gilt: [A + BCD] 1 = A 1 A 1 B [ DA 1 B + C 1] 1 DA 1 (14) Die folgenden Ersetzungen P 1 (k 1) A, ϕ(k) B, α k C, ϕ T (k) D (15) liefern P (k) = [ P 1 (k 1) + ϕ(k)α k ϕ T (k) ] 1 = P (k 1) P (k 1)ϕ(k)ϕT (k)p (k 1) + ϕ T (k)p (k 1)ϕ(k) 1 α k Die Inversion der quadratischen Matrix wurde durch die Inverse eines Skalars ersetzt! (16) (17)

6 Systemidentikation und Regelung in der Medizin 6 Denition des Verstärkungsvektors L zur Vereinfachung der Schreibweise des Algorithmus: L(k) = P (k 1)ϕ(k) 1 α k + ϕ T (k)p (k 1)ϕ(k) = α kp (k)ϕ(k) (18) Initialwerte Anfangswerte ˆΘ(k 0 ) für die Parameterschätzung und die Kovarianzmatrix P (k 0 ) können mittels LS aus den ersten I = dim Θ Beobachtungen ermittelt werden. Ein anderer häuger Ansatz ist ˆΘ(k 0 ) = 0 und P (k 0 ) = CI, wobei C eine Konstante und I die Einheitsmatrix ist. Ein groÿer Wert von C impliziert, dass das Vertrauen in ˆΘ(k 0 ) = 0 schlecht ist und führt zu einem hohen Grad der Korrektur (Anpassung).

7 Systemidentikation und Regelung in der Medizin Algorithmus P (k 1)ϕ(k) L(k) = 1 α k + ϕ T (k)p (k 1)ϕ(k) ˆΘ(k) = ˆΘ(k [ 1) + L(k) y(k) ϕ T (k) ˆΘ(k ] 1) (19) (20) P (k) = P (k 1) L(k)ϕ T (k)p (k 1) (21) mit k = k 0 + 1, k 0 + 2, k 0 + 3,... Die Initialwerte ˆΘ(k 0 ) und P (k 0 ) werden ermittelt durch Anwendung von LS auf die ersten k 0 > I = dim Θ Beobachtungen: [ k0 1 k 0 P (k 0 ) = α i ϕ(i)ϕ (i)] T, ˆΘ(k0 ) = P (k 0 ) α i ϕ(i)y(i) (22) i=1 Bemerkung: Die Kovarianzmatrix P muss immer positiv denit bleiben. Aber sogar wenn P (k 0 ) diese Bedingung erfüllt, kann die positiv Denitheit von P (k) verloren gehen z.b. durch numerische Rundungsfehler wenn der Algorithmus sehr lange läuft. In der Praxis gibt es spezielle RLS Formen, die dies verhindern (UD Faktorisierung von P (k)). i=1

8 Systemidentikation und Regelung in der Medizin RLS mit exponentiellem Vergessen Der normale RLS-Algorithmus liefert eine Schätzung basierend auf dem gemittelten Verhalten des Systems. Problem: zeitvariante Systeme und nichlineare Systeme mit Arbeitspunktwechsel Gewichtung der Schätzung sollte stärker sein für aktuelle Messwerte Gütekriterium, das ältere Messwerte vernachlässigt: J k (Θ) = 1 k k β(k, i) i=1 [ y(i) Θ T ϕ(i)] 2 (23) β(k, i) muss gröÿer werden in i für ein gegebenes k. Das Kriterium ist quadratisch und die o-line Schätzung für die Parameter lautet: [ k ] 1 k ˆΘ(k) = β(k, i)ϕ(i)ϕ T (i) β(k, i)ϕ(i)y(i) (24) i=1 i=1

9 Struktuelle Annahme für β(k, i): Systemidentikation und Regelung in der Medizin 9 β(k, i) = λ k i α i (25) wobei λ(k) eine Konstante ist und β(k, k) = α k. 1.0 λ = 1.00, H = 0.8 β(k, i) λ = 0.99, H = λ = 0.95, H = i Abb.: Der Eekt von λ (α i = 1 for all i); λ im Bereich entspricht ungefähr der Berücksichtigung der letzten Messwerte.

10 Systemidentikation und Regelung in der Medizin Algorithmus P (k 1)ϕ(k) L(k) = λ α k + ϕ T (k)p (k 1)ϕ(k) ˆΘ(k) = ˆΘ(k [ 1) + L(k) y(k) ϕ T (k) ˆΘ(k ] 1) (26) (27) P (k) = 1 λ [ P (k 1) L(k)ϕ T (k)p (k 1) ] (28) mit 0 < λ 1. Der Fall λ = 1 liefert den normalen RLS-Algorithmus. Der Eekt des Vergessensfaktors λ ist, dass die Kovarianzmatrix P (k) und damit die L(k) groÿ gehalten werden. Mit λ < 1 wird die Kovarianzmatrix P (k) nicht Null werden. Der Algorithmus bleibt somit sensitiv zu Änderungen im Parametervektor Θ des zu identizierenden Systems.

11 Systemidentikation und Regelung in der Medizin 11 Problem der Zustandsschätzung! 2.5 Kalmanlter Nicht direkt messbarer Zustandsvektor ist mit dem Systemausgang korreliert. Schätzung des Zustandsvektors anhand der Beobachtungen des Ein- und Ausgangs Parameter können ggf. als Zustände betrachtet und geschätzt werden. Stochastisches Vektorsignal {x}, beschrieben durch den Prozess: x(k + 1) = Ax(k) + v(k) (29) Messgleichung: y(k) = Cx(k) + e(k) (30) x(k): S 1-dimens. Zustandsvektor, v(k): S 1-dimens. Spaltenvektor des Systemrauschens, y(k) (messbarer Ausgang) und e(k) (Messrauschen): Dim. O 1, A(k) S S Systemzustandstransitionsmatrix, C(k) O S Ausgangsmatrix

12 Systemidentikation und Regelung in der Medizin 12 Ziel: Schätzung ˆx(k + 1 k) des Zustandsvektors x(k + 1) basierend auf den verrauschten Ausgangsmessungen bis zum Zeitpunkt k. Das Systemmodell (A, C) sei als bekannt angenommen: Die Prozesse {v(k)} und {e(k)} sind unabhängige Gaussische Prozesse mit bekanntem Erwartungswert (Null) und Kovarianzen: E{v(k)} = 0; E{v(k)v T (j)} = V δ kj (31) E{e(k)} = 0; E{e(k)e T (j)} = Y δ kj (32) E{e(k)v T (j)} = 0 Kronecker-Delta-Funktion: 1 für i = j δ ij = 0 für i j (33) (34)

13 Systemidentikation und Regelung in der Medizin Herleitung Prädiktor für den Zustand x zum Zeitpunkt k + 1: ˆx(k + 1 k) = Aˆx(k) + K(k) [y(k) C ˆx(k)] (35) Der Prädiktor besteht aus einem Prädiktionsterm und einem Korrekturterm. Die Verstärkungsmatrix K(k) muss bestimmt werden. Zu minimierendes Gütefunktional: J(k + 1) = E { x(k + 1) x T (k + 1) } (36) mit dem Prädiktionsfehler x(k + 1) = ˆx(k + 1) x(k + 1). (37) Optimale Lösung: K(k) = AP (k)c T [ Y + CP (k)c T ] 1 (38) P (k + 1) = AP (k)a T + V K(k)CP (k)a T (39)

14 Beweis: Einsetzen von (35) in (37) Systemidentikation und Regelung in der Medizin 14 x(k + 1) = Aˆx(k) + K(k) [y(k) C ˆx(k)] x(k + 1) (40) = [A K(k)C] ˆx(k) + K(k)y(k) x(k + 1) (41) Ersetzen von y(k) (30) und x(k + 1) (29) x(k + 1) = [A KC] ˆx(k) + K(k)Cx(k) +K(k)e(k) Ax(k) v(k) (42) Umsortieren und Verwendung von (37) liefert die Prädiktionsfehlerdynamik: x(k + 1) = [A K(k)C] x(k) + K(k)e(k) v(k). (43) J(k + 1) = E {[[A K(k)C] x(k) + K(k)e(k) v(k)] (44) [[A K(k)C] x(k) + K(k)e(k) v(k)] T } = [A K(k)C] E { x(k) x T (k) } (45) [A K(k)C] T +V + K(k)Y K(k) T

15 Systemidentikation und Regelung in der Medizin 15 Gleichung (45) ist gültig, da e(k), v(k) und x(k) statistisch unabhängig sind. Einführung folgender Notationen: P (k) = E { x(k) x T (k) } Q(k) = Y + CP (k)c T (46) (47) Umschreiben von (45): P (k + 1) = AP (k)a T K(k)CP (k)a T AP (k)c T K T (k) + V + K(k)Q(k)K T (k) (48) Vervollständigen der Quadrate bei Termen, die K(k) beinhalten: P (k + 1) = AP (k)a T + V (49) AP (k)c T Q 1 (k)cp (k)a T [ ] + K(k) AP (k)c T Q 1 (k) Q(k) [ ] T K(k) AP (k)c T Q 1 (k)

16 Systemidentikation und Regelung in der Medizin 16 Nur der letzte Term der Summe hängt von K(k) ab. Minimierung von J kann erreicht werden, indem K(k) so gewählt wird, dass der letzte Term in (49) verschwindet. K(k) = AP (k)c T [ Y + CP (k)c T ] 1 (50) Mit dieser Wahl von K(k) ergibt sich für (49) folgendes: P (k + 1) = AP (k)a T + V K(k)CP (k)a T. (51) Wenn die Rauschgröÿen {e(k)} und {v(k)} sowie der Anfangszustand x(0) normalverteilt sind (mit Erwartungswerten 0, 0, x 0 und Kovarianzen V, Y und P (0)), dann ist die Schätzung ˆx(k + 1 k) der Erwartungswert der bedingten Verteilung von x(k + 1), ˆx(k + 1 k) = E {x(k + 1) y(0), y(1),..., y(k)}. P (k + 1) ist die Kovarianz der bedingten Verteilung von x(k + 1).

17 Systemidentikation und Regelung in der Medizin Algorithmus Die Schätzung (35) basiert auf allen Informationen bis zum Zeitpunkt k: ˆx(k + 1 k). Ein Kalmanlter kann jedoch auch hergeleitet werden für die Schätzung des Zustandes x(k + 1) unter der Annahme, dass die Messung y(k + 1) schon verfügbar ist: ˆx(k + 1 k + 1) = E {x(k + 1), [y(0), y(1),..., y(k + 1)]} (52) Betrachtung des folgenden Filters: ˆx(k + 1 k + 1) = ˆx(k + 1 k) (53) +K(k + 1)[y(k + 1) C(k)ˆx(k + 1 k)] Kalmanlter - Algorithmus: Schätzung des Zustandes x für folgendes System: x(k + 1) = Ax(k) + Bu(k) + v(k) (54) y(k) = Cx(k) + e(k) (55)

18 Systemidentikation und Regelung in der Medizin 18 x(k): S 1-dimens. Zustandsvektor, u(k): I 1-dimens. Eingangsgröÿenvektor, v(k): I 1-dimens. Spaltenvektor des Systemrauschens, y(k) (messbarer Ausgang) und e(k) (Messrauschen): Dim. O 1, A(k) S S dim. Systemzustandstransitionsmatrix, C(k) O S dim. Ausgangsmatrix, B(k) S I dim. Eingangsgröÿentransitionsmatrix Folgendes ist bekannt für k = k 0, k 0 + 1, k 0 + 2,..., j k: A, B, C, D (56) E{v(k)} = 0; E{v(k)v T (j)} = V δ kj (57) E{e(k)} = 0; E{e(k)e T (j)} = Y δ kj (58) E{e(k)v T (j)} = 0 (59) x(k 0 ) = x k0 ; cov{x(k 0 )} = P k0 (60) 1. Setze k = k 0. Initialisierung: ˆx(k 0 k 0 ) = x k0, P k0 k 0 = P k0

19 Systemidentikation und Regelung in der Medizin Zeitupdate: Berechnung der Zustandsschätzung zum Zeitpunkt k + 1 basierend auf allen Informationen bis zum Zeitpunkt k: ˆx(k + 1 k) = Aˆx(k k) + Bu(k) (61) sowie Update der Kovarianzmatrix P des Fehlers in ˆx(k + 1 k): P (k + 1 k) = AP (k k)a T + V (62) 3. Beobachtungsupdate: Beobachtung der neuen Messung y(k + 1) zur Abtastpunkt k + 1; Berechnung der Kalmanlter-Verstärkungsmatrix K(k + 1) = P (k + 1 k)c T [ Y + CP (k + 1 k)c T ] 1 (63) und Korrektur der Zustandsschätzung: ˆx(k + 1 k + 1) = ˆx(k + 1 k) + K(k + 1)[y(k + 1) C ˆx(k + 1 k)] (64) Update der neuen Kovarianzmatrix: P (k + 1 k + 1) = P (k + 1 k) K(k + 1)CP (k + 1 k). (65) 4. Erhöhung des Index k = k + 1 und Rückkehr zum Schritt 2

20 Systemidentikation und Regelung in der Medizin Parameterschätzung mit dem Kalmanlter am Beispiel linearer Regressionsmodelle Angenommenes System: y(k) = ϕ T (k)θ + ζ(k), (66) wobei {ζ(k)} eine Sequenz von unabhängigen normalverteilten Gröÿen ist mit Erwartungswert Null und Varianz σζ 2. Die vorausgehende Verteilung der Schätzung von Θ ist normalverteilt mit Erwartungswert ˆΘ 0 und Kovarianz P 0. Das Modell (66) kann als lineares Zustandsraummodell betrachtet werden: Θ(k + 1) = Θ(k) (67) y(k) = ϕ T (k)θ(k) + ζ(k) (68) Ein Vergleich mit (54)-(60) zeigt, dass die Gleichungen identisch sind für folgende

21 Systemidentikation und Regelung in der Medizin 21 Ersetzungen: A I; x(k) Θ(k) (69) B 0; u(k) 0 (70) v(k) 0; V 0 (71) C ϕ T (k); y(k) y(k) (72) e(k) ζ(k); Y σζ 2 (73) ˆx(0 0) Θ 0 ; P (0 0) P 0 (74)

22 Systemidentikation und Regelung in der Medizin 22 Der Kalmanlter ist den gegeben wie folgt (man beachte: P (k) P (k + 1 k) = P (k k); ˆΘ(k) ˆΘ(k + 1 k) = ˆΘ(k k)): P (k)ϕ(k + 1) K(k + 1) = σ 2 + ϕ T (k + 1)P (k)ϕ(k + 1) ˆΘ(k + 1) = ˆΘ(k) [ + K(k + 1) y(k + 1) ˆΘ ] T (k)ϕ(k + 1) (75) (76) P (k + 1) = P (k) K(k + 1)ϕ T (k + 1)P (k) (77) Der Kalmanlter beinhaltet RLS als speziellen Fall. Die Initialwerte des RLS-Algorithmus haben nun eine klare Interpretation. Der Kalmanlteransatz liefert auch den optimalen Wichtungsfaktor: α k = 1 σ 2 ζ. (78) Bei zeitvarianten Systemen (Parameter ändern sich mit der Zeit) wird folgendes Modell für die Systemparameter angenommen: Θ(k + 1) = Θ(k) + v(k) (79)

23 Systemidentikation und Regelung in der Medizin 23 Mit V 0 ergibt sich für das Update der Kovarianzmatrix: P (k + 1) = P (k) K(k + 1)ϕ T (k + 1)P (k) + V (80) Der Term V verhindert, dass P (k) gegen Null geht (P (k) V )). Der Algorithmus bleibt somit sensitiv gegenüber Änderungen der Systemparameter Θ.

24 Systemidentikation und Regelung in der Medizin Erweiterter Kalman Filter (EKF) Problem der Zustandsschätzung nichtlinearer zeitdiskreter Systeme. Idee: Anwendung der zuvor hergeleiteten Kalmanlter-Gleichungen mit zeitvarianten A(k), B(k) und C(k), welche durch fortlaufende Taylorreihen-Linearisierung des nichtlinearen Systems am derzeit geschätzten Zustand erhalten werden. Ein EKF liefert in der Regel gute Ergebnisse, auch wenn Optimalität wie beim Standard-Kalmanlter keinesfalls garantiert ist. Nichtlineares Zustandsraummodell (Denition von x, u, y, v, e wie zuvor) x(k + 1) = f(x(k), u(k)) + v(k) (81) y(k) = h(x(k)) + e(k) (82) mit den nichtlinearen Vektorfunktionen f und h. Die fortlaufende Linearisierung

25 Systemidentikation und Regelung in der Medizin 25 liefert: f(x(k), u(k)) A(k) = x(k) f(x(k), u(k)) B(k) = u(k) C(K) = h(x(k)) x(k) Algorithmus: ˆx(k k),u(k) ˆx(k k),u(k) (83) (84) ˆx(k k) (85) 1. Setze k = k 0. Initialisierung: ˆx(k 0 k 0 ) = x k0, P k0 k 0 = P k0 2. Zeitupdate: Berechnung der Zustandsschätzung zum Zeitpunkt k + 1 basierend auf allen Informationen bis zum Zeitpunkt k: ˆx(k + 1 k) = f(ˆx(k k), u(k)) (86)

26 Systemidentikation und Regelung in der Medizin 26 sowie Update der Kovarianzmatrix P des Fehlers in ˆx(k + 1 k): P (k + 1 k) = A(k)P (k k)a(k) T + V (87) 3. Beobachtungsupdate: Beobachtung der neuen Messung y(k + 1) zur Abtastpunkt k + 1; Berechnung der Kalmanlter-Verstärkungsmatrix K(k + 1) = P (k + 1 k)c(k) T [ Y + C(k)P (k + 1 k)c T ] 1 und Korrektur der Zustandsschätzung: (88) ˆx(k + 1 k + 1) = ˆx(k + 1 k) + K(k + 1)[y(k + 1) h(ˆx(k + 1 k))](89) Update der neuen Kovarianzmatrix: P (k + 1 k + 1) = P (k + 1 k) K(k + 1)C(k)P (k + 1 k). (90) 4. Erhöhung des Index k = k + 1 und Rückkehr zum Schritt 2

Beispiel: Positionsschätzung

Beispiel: Positionsschätzung Das Kalman Filter Beispiel: Positionsschätzung Beispiel: Positionsschätzung. Messung: mit Varianz Daraus abgeleitete Positionsschätzung: mit Varianz ˆX = = f f ( y ) y 3 Beispiel: Positionsschätzung. Messung:

Mehr

Tracking. Einführung. Allgemeiner Systemaufbau. Objektlokalisation: Template-Matching. Prädiktionsfilter: Kalman

Tracking. Einführung. Allgemeiner Systemaufbau. Objektlokalisation: Template-Matching. Prädiktionsfilter: Kalman Tracking Einführung Allgemeiner Systemaufbau Objektlokalisation: Template-Matching Prädiktionsfilter: Kalman Birgit Möller & Denis Williams AG Bioinformatik & Mustererkennung Institut für Informatik Martin-Luther-Universität

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

Dierentialgleichungen 2. Ordnung

Dierentialgleichungen 2. Ordnung Dierentialgleichungen 2. Ordnung haben die allgemeine Form x = F (x, x, t. Wir beschränken uns hier auf zwei Spezialfälle, in denen sich eine Lösung analytisch bestimmen lässt: 1. reduzible Dierentialgleichungen:

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Zeitreihenökonometrie

Zeitreihenökonometrie Zeitreihenökonometrie Kapitel 8 Impuls-Antwort-Funktionen Interpretation eines VAR-Prozesses 2 Fall eines bivariaten Var(p)-Prozess mit 2 Variablen und ohne Konstante 1 1 p p 1,t α11 α 12 1,t-1 α11 α 12

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Übungsskript Regelungstechnik 2

Übungsskript Regelungstechnik 2 Seite 1 von 11 Universität Ulm, Institut für Mess-, Regel- und Mikrotechnik Prof. Dr.-Ing. Klaus Dietmayer / Seite 2 von 11 Aufgabe 1 : In dieser Aufgabe sollen zeitdiskrete Systeme untersucht werden.

Mehr

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Methode der kleinsten Quadrate

Methode der kleinsten Quadrate Kapitel 6 Methode der kleinsten Quadrate In den einführenden Worten zur Maximum-Likelihood-Methode im vorigen Kapitel wurde darauf hingewiesen, dass die Parameteroptimierung mit Hilfe des χ -Tests bei

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

Inhaltsverzeichnis. 1 Einleitung 1 Struktur und Einsatz von Optimierungsmethoden 2 Einsatz der Optimierung in der Steuerungs- und Regelungstechnik 6

Inhaltsverzeichnis. 1 Einleitung 1 Struktur und Einsatz von Optimierungsmethoden 2 Einsatz der Optimierung in der Steuerungs- und Regelungstechnik 6 1 Einleitung 1 Struktur und Einsatz von Optimierungsmethoden 2 Einsatz der Optimierung in der Steuerungs- und Regelungstechnik 6 Teil I Statische Optimierung 2 Allgemeine Problemstellung der statischen

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte

Lineare Ausgleichsprobleme. Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Lineare Ausgleichsprobleme Bisher: Lösung linearer GS Ax = b, A R n,n, A regulär, b R n Jetzt: Lösung überbestimmter linearer GS, d.h. mehr Gleichungen als Unbekannte Ax = b mit A R m,n, b R m, m n, rg(a)

Mehr

Zeitreihenanalyse. Seminar Finanzmathematik. Andreas Dienst SS Einleitung - Begrüßung - Motivation - Inhaltsangabe. 2.

Zeitreihenanalyse. Seminar Finanzmathematik. Andreas Dienst SS Einleitung - Begrüßung - Motivation - Inhaltsangabe. 2. Seminar Finanzmathematik - Begrüßung - Motivation - Inhaltsangabe 3. Zusammen - fassung Zeitreihenanalyse Andreas Dienst SS 2006 Zeitreihen: Definition und Motivation - Begrüßung - Motivation - Inhaltsangabe

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Überbestimmte Gleichungssysteme

Überbestimmte Gleichungssysteme Siebente Vorlesung, 8. Mai 2008, Inhalt Überbestimmte Gleichungssysteme Kleinste Quadrate: einfaches Beispiel, elementare Herleitung Normalengleichungen Transformation mit QR-Zerlegung und SVD Nichtlineare

Mehr

Zusammenfassung der 6. Vorlesung

Zusammenfassung der 6. Vorlesung Zusammenfassung der 6. Vorlesung w-transformation Die w-transformationbildet das Innere des Einheitskreises der z-ebene in die linke w-ebene ab. z 1 w= z+1, bzw. z= 1+w 1 w Nach Anwendung der w-transformationist

Mehr

6.1 Definition der multivariaten Normalverteilung

6.1 Definition der multivariaten Normalverteilung Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer

Mehr

Die Maximum-Likelihood-Methode

Die Maximum-Likelihood-Methode Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung

Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung M.Sc. Brice Hakwa hakwa@uni-wuppertal.de Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung - Zusammenfassung zum Thema: Berechnung von Value-at-Risk

Mehr

8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten

8. Elemente der linearen Algebra 8.5 Quadratische Matrizen und Determinanten Einheitsmatrix Die quadratische Einheitsmatrix I n M n,n ist definiert durch I n = 1 0 0 0 1 0 0 0 1 (Auf der Hauptdiagonalen stehen Einsen, außerhalb Nullen Durch Ausmultiplizieren sieht man I n A = A

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

Substitutionsverfahren vs. Lagrange-Methode

Substitutionsverfahren vs. Lagrange-Methode Substitutionsverfahren vs. Lagrange-Methode 1 Motivation Substitutionsverfahren und Lagrange-Methode sind Verfahren, die es ermöglichen, Optimierungen unter Nebenbedingungen durchzuführen. Die folgende

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

Variablen und Parameter in LISREL

Variablen und Parameter in LISREL Variablen und Parameter in LISREL 1 Konfirmatorische Faktorenanalyse: Pfaddiagramm Dieses Diagramm stellt den denkbar einfachsten Fall einer konfirmatorischen Faktorenanalyse dar. Empirisch sind Modelle

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der

Mehr

+ z -1 z z -1 + z -1 + z -1 + z -1 + z -1

+ z -1 z z -1 + z -1 + z -1 + z -1 + z -1 Formelsammlung Systemtheorie II 06.02.12 C.Pieper (keine Gewähr auf Richtigkeit! Korrekturen an christoph.pieper@rwth-aachen.de) Regelungsnormalform steuerbar Existiert nur für erreichbare Systeme (->

Mehr

ein stationärer Prozeß (AR(0)). Etwas allgemeiner nimmt man an, daß die d-te Differenz ARMA(p, q) ist, also ist die Differenz

ein stationärer Prozeß (AR(0)). Etwas allgemeiner nimmt man an, daß die d-te Differenz ARMA(p, q) ist, also ist die Differenz Kapitel 4 Nichtstationäre Zeitreihen 4.1 ARIMA-Modelle Die bisher diskutierten ARMA-Modelle sind bei bei geeigneter Wahl der Parameter stationär, d.h. wenn alle Wurzeln der Gleichung φ(λ 1 )=0betragsmäßig

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Lineare Abbildungen und Matrizen

Lineare Abbildungen und Matrizen Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 31. Mai 2016 Stefan Ruzika 9: Lineare Abbildungen und Matrizen 31. Mai 2016 1 / 16 Gliederung 1 Schulstoff 2 Körper 3 Vektorräume

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

Principal Component Analysis (PCA)

Principal Component Analysis (PCA) Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen

Mehr

6 Lineare Gleichungssysteme

6 Lineare Gleichungssysteme 6 LINEARE GLEICHUNGSSYSTEME 3 6 Lineare Gleichungssysteme Unter einem linearen Gleichungssystem verstehen wir ein System von Gleichungen α ξ + + α n ξ n = β α m ξ + + α mn ξ n = β m mit Koeffizienten α

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

8 Extremwerte reellwertiger Funktionen

8 Extremwerte reellwertiger Funktionen 8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für

Mehr

Lineare Gleichungssysteme und Matrizen

Lineare Gleichungssysteme und Matrizen Kapitel 11 Lineare Gleichungssysteme und Matrizen Ein lineares Gleichungssystem (lgs) mit m linearen Gleichungen in den n Unbekannten x 1, x 2,..., x n hat die Gestalt: Mit a 11 x 1 + a 12 x 2 + a 13 x

Mehr

Hoffmann (HAW Hamburg) Automatentheorie und formale Sprachen

Hoffmann (HAW Hamburg) Automatentheorie und formale Sprachen Hoffmann (HAW Hamburg) Automatentheorie und formale Sprachen 18.4. 2012 176 Automatentheorie und formale Sprachen VL 5 Reguläre und nichtreguläre Sprachen Kathrin Hoffmann 18. Aptil 2012 Hoffmann (HAW

Mehr

Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr.

Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr. Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof Dr Enno Mammen 0 Exkurs: Orthogonaltransformationen, Projektionen im R n In diesem

Mehr

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)

Mehr

Sparse Hauptkomponentenanalyse

Sparse Hauptkomponentenanalyse Sparse Referent: Thomas Klein-Heßling LMU München 20. Januar 2017 1 / 36 1 Einführung 2 3 4 5 2 / 36 Einführung Ziel: vorhandene Datenmenge verstehen Daten komprimieren Bei der Sparse (SPCA) handelt es

Mehr

Fehlerfortpflanzung. M. Schlup. 27. Mai 2011

Fehlerfortpflanzung. M. Schlup. 27. Mai 2011 Fehlerfortpflanzung M. Schlup 7. Mai 0 Wird eine nicht direkt messbare physikalische Grösse durch das Messen anderer Grössen ermittelt, so stellt sich die Frage, wie die Unsicherheitsschranke dieser nicht-messbaren

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

4 Statistik der Extremwertverteilungen

4 Statistik der Extremwertverteilungen In diesem Kapitel beschäftigen wir uns mit statistischen Anwendungen der Extremwerttheorie. Wir werden zwei verschiedene Zugänge zur Modellierung von Extremwerten betrachten. Der erste Zugang basiert auf

Mehr

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben

Kapitel 16. Aufgaben. Verständnisfragen. Rechenaufgaben Kapitel 16 Aufgaben Verständnisfragen Aufgabe 16.1 Ist das Produkt quadratischer oberer bzw. unterer Dreiecksmatrizen wieder eine obere bzw. untere Dreiecksmatrix? Aufgabe 16.2 Bekanntlich gilt im Allgemeinen

Mehr

Differenzengleichungen

Differenzengleichungen Universität Basel Wirtschaftswissenschaftliches Zentrum Differenzengleichungen Dr. Thomas Zehrt Inhalt: 1. Einführungsbeispiele 2. Definition 3. Lineare Differenzengleichungen 1. Ordnung (Wiederholung)

Mehr

[5], [0] v 4 = + λ 3

[5], [0] v 4 = + λ 3 Aufgabe 9. Basen von Untervektorräumen. Bestimmen Sie Basen von den folgenden Untervektorräumen U K des K :. K = R und U R = span,,,,,.. K = C und U C = span + i, 6, i. i i + 0. K = Z/7Z und U Z/7Z = span

Mehr

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009

Übung zu Empirische Ökonomie für Fortgeschrittene SS 2009 Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr

Lösungen zum 9. Übungsblatt zur Vorlesung Höhere Mathematik II für biw/ciw/mach/mage/vt

Lösungen zum 9. Übungsblatt zur Vorlesung Höhere Mathematik II für biw/ciw/mach/mage/vt Karlsruher Institut für Technologie Institut für Algebra und Geometrie PD Dr. F. Hettlich Dr. S. Schmitt Dipl.-Math. J. Kusch Karlsruhe, den 09.06.20 Lösungen zum 9. Übungsblatt zur Vorlesung Höhere Mathematik

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Die Kalibrierung von Sterbetafeln für Altersrentner mit Hilfe der mehrdimensionalen Kredibilitätstheorie. Winterthur, den 06.

Die Kalibrierung von Sterbetafeln für Altersrentner mit Hilfe der mehrdimensionalen Kredibilitätstheorie. Winterthur, den 06. Die Kalibrierung von Sterbetafeln für Altersrentner mit Hilfe der mehrdimensionalen Kredibilitätstheorie Frank Weber (AXA Winterthur) Alois Gisler (ETH Zürich) Winterthur, den 06. September 2013 Daten

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Brownsche Bewegung Seminar - Weiche Materie

Brownsche Bewegung Seminar - Weiche Materie Brownsche Bewegung Seminar - Weiche Materie Simon Schnyder 11. Februar 2008 Übersicht Abbildung: 3 Realisationen des Weges eines Brownschen Teilchens mit gl. Startort Struktur des Vortrags Brownsches Teilchen

Mehr

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0. Mehrdimensionale Dierenzialrechnung 9 Optimierung 9 Optimierung Definition Seien U R n oen, f : U R, x U x heiÿt lokales Maximum, falls eine Umgebung V U von x existiert mit y V : fx fy x heiÿt lokales

Mehr

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme

6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6 Iterationsverfahren für lineare und nichtlineare Gleichungssysteme 6.1 Nullstellen reeller Funktionen Bemerkung 6.1 (Problemstellung) geg.: f C[a, b] ges.: x [a, b] mit f(x ) = 0 Lösungstheorie f linear

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

Kalman-Filter und Target Tracking

Kalman-Filter und Target Tracking Kalman-Filter und Target Tracking Peter Poschmann Hochschule für Technik und Wirtschaft Dresden Fakultät Informatik/Mathematik 23. März 2016 Inhalt 1 Kalman-Filter Einleitung Eindimensionaler Kalman-Filter

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale

Mehr

Konfirmatorische Faktorenanalyse

Konfirmatorische Faktorenanalyse Konfirmatorische Faktorenanalyse Regressionsmodelle für Politikwissenschaftler Was ist ein Faktor? Faktor oder latente Variable nicht direkt beobachtbare Größe die beobachtbare Variablen ( Indikatoren

Mehr

Mathematik IT 2 (Lineare Algebra)

Mathematik IT 2 (Lineare Algebra) Lehrstuhl Mathematik, insbesondere Numerische und Angewandte Mathematik Prof Dr L Cromme Mathematik IT (Lineare Algebra für die Studiengänge Informatik, IMT und ebusiness im Sommersemester 3 Lineare Gleichungssysteme

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester

Mehr

Übungsaufgaben Lösungen

Übungsaufgaben Lösungen Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Grundlagen der Mathematik II (LVA U)

Grundlagen der Mathematik II (LVA U) Dr. Marcel Dettling 21.05.2010 Dr. Daniel Haase FS 2010 daniel.haase@math.ethz.ch Grundlagen der Mathematik II (LVA 401-0622-00 U 11 Zur Übungsstunde vom 21.05.2010 Aufgabe 31 (Rechnen mit der Normalverteilung

Mehr

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden

Mehr

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, (

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, ( Kapitel 4 Konfidenzbereiche Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden Teil-Parameter

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG. Serie 6

Lineare Algebra und Numerische Mathematik für D-BAUG. Serie 6 R. Hiptmair S. Pintarelli E. Spindler Herbstsemester 2014 Lineare Algebra und Numerische Mathematik für D-BAUG Serie 6 ETH Zürich D-MATH Einleitung. Diese Serie behandelt nochmals das Rechnen mit Vektoren

Mehr

Rechenaufwand der LR- und LDL T - Zerlegung

Rechenaufwand der LR- und LDL T - Zerlegung 6. Großübung Rechenaufwand der LR- und LDL T - Zerlegung Rückwärtseinsetzen Der Algorithmus kann der Folie 3.0 entnommen werden. Dieser kann in die folgenden Rechenoperationen aufgesplittet werden: Für

Mehr

2. Spezielle anwendungsrelevante Funktionen

2. Spezielle anwendungsrelevante Funktionen 2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für

Mehr

Zu zwei Matrizen A R m n und B R p q existiert das Matrizenprodukt A B n = p und es gilt dann. A B = (a ij ) (b jk ) = (c ik ) = C R m q mit c ik =

Zu zwei Matrizen A R m n und B R p q existiert das Matrizenprodukt A B n = p und es gilt dann. A B = (a ij ) (b jk ) = (c ik ) = C R m q mit c ik = H 6. Die Matrizen A, B, C und D seien gegeben durch 5 A =, B =, C = 4 5 4, D =. 5 7 5 4 4 Berechnen Sie (sofern möglich) alle Matrizenprodukte X Y mit X, Y {A, B, C, D}. Zu zwei Matrizen A R m n und B

Mehr

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen. Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf

Mehr

1 Messfehler. 1.1 Systematischer Fehler. 1.2 Statistische Fehler

1 Messfehler. 1.1 Systematischer Fehler. 1.2 Statistische Fehler 1 Messfehler Jede Messung ist ungenau, hat einen Fehler. Wenn Sie zum Beispiel die Schwingungsdauer eines Pendels messen, werden Sie - trotz gleicher experimenteller Anordnungen - unterschiedliche Messwerte

Mehr

Technische Universität Wien Institut für Automatisierungs- und Regelungstechnik. SCHRIFTLICHE PRÜFUNG zur VU Automatisierung am

Technische Universität Wien Institut für Automatisierungs- und Regelungstechnik. SCHRIFTLICHE PRÜFUNG zur VU Automatisierung am Technische Universität Wien Institut für Automatisierungs- und Regelungstechnik SCHRIFTLICHE PRÜFUNG zur VU Automatisierung am 8.6.13 Arbeitszeit: 1 min Name: Vorname(n): Matrikelnummer: Note: Aufgabe

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 9. Dezember 2010 1 Konfidenzintervalle Idee Schätzung eines Konfidenzintervalls mit der 3-sigma-Regel Grundlagen

Mehr

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:

Spezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden: Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es

Mehr

mit "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor"

mit Skalarprodukt aus i-tem Zeilenvektor und j-tem Spaltenvektor Zusammenfassung Matrizen Transponierte: Addition: mit Skalare Multiplikation: Matrixmultiplikation: m x p m x n n x p mit ES "Skalarprodukt" aus i-tem "Zeilenvektor" und j-tem "Spaltenvektor" "Determinante"

Mehr

Klassifikation von Daten Einleitung

Klassifikation von Daten Einleitung Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung

Mehr

Invertierbarkeit von Matrizen

Invertierbarkeit von Matrizen Invertierbarkeit von Matrizen Lineare Algebra I Kapitel 4 24. April 2013 Logistik Dozent: Olga Holtz, MA 417, Sprechstunden Freitag 14-16 Webseite: www.math.tu-berlin.de/ holtz Email: holtz@math.tu-berlin.de

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models

Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models Korbinian Schwinger 3. November 003 Inhaltsverzeichnis Inhaltsverzeichnis Exponential Family 3. Definition...............................

Mehr

36 2 Lineare Algebra

36 2 Lineare Algebra 6 Lineare Algebra Quadratische Matrizen a a n sei jetzt n m, A, a ij R, i, j,, n a n a nn Definition Eine quadratische Matrix A heißt invertierbar genau dann, wenn es eine quadratische Matrix B gibt, so

Mehr

Diplomhauptprüfung / Masterprüfung

Diplomhauptprüfung / Masterprüfung Diplomhauptprüfung / Masterprüfung "Regelung linearer Mehrgrößensysteme" 6. März 2009 Aufgabenblätter Die Lösungen sowie der vollständige und nachvollziehbare Lösungsweg sind in die dafür vorgesehenen

Mehr

Algebraische Zahlentheorie. Teil II. Die Diskriminante.

Algebraische Zahlentheorie. Teil II. Die Diskriminante. II-1 Algebraische Zahlentheorie Teil II Die Diskriminante Sei K ein Zahlkörper vom Grad n (also [K : Q] = n) Es gibt genau n Körper- Homomorphismen σ i : K C (siehe Merkzettel Separabilität) Stellen wir

Mehr

Nr. 4: Pseudo-Zufallszahlengeneratoren

Nr. 4: Pseudo-Zufallszahlengeneratoren Proseminar: Finanzmathematische Modelle und Simulationen Martin Dieckmann WS 09/0 Nr. 4: Pseudo-Zufallszahlengeneratoren Begriff Pseudo-Zufallszahl Zufallszahlen im Rechner entstehen letztlich immer durch

Mehr

1 Grundlagen der Numerik

1 Grundlagen der Numerik 1 Grundlagen der Numerik 1.1 Gleitpunkt-Arithmetik Es gibt nur endlich viele Zahlen auf dem Computer. Gleitpunktzahl: x = σmb E σ: Vorzeichen B: Basis (feste Zahl >1); M: Mantisse E: Exponent B = 2 : Dualzahl

Mehr

Kalman Filter. Stephan Meyer Matrix nennt man ein rechteckiges Zahlenschema der Form: a 11 a 12 a 13

Kalman Filter. Stephan Meyer Matrix nennt man ein rechteckiges Zahlenschema der Form: a 11 a 12 a 13 Kalman Filter Ortsbezogene Anwendungen und Dienste Stephan Meyer meyerst23084@ohm-hochschule.de Zusammenfassung: Der Kalman Filter stellt ein mathematisches Regelwerk zur Verfügung, welches Werteschätzung

Mehr