Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr.

Größe: px
Ab Seite anzeigen:

Download "Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr."

Transkript

1 Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof Dr Enno Mammen

2 0 Exkurs: Orthogonaltransformationen, Projektionen im R n In diesem Exkurs werden einige Fakten aus der linearen Algebra zusammengestellt, auf die wir in der Vorlesung häufig zurückgreifen werden Orthogonaltransformationen werden häufig auftauchen, da viele Argumente essentiell vereinfacht werden können, indem man zu einer anderen Basis übergeht Projektionen eines Punktes bestimmen Elemente eines linearen Teilraumes, die minimalen Abstand zu dem Punkt haben Mit Hilfe von Projektionen wird der Kleinste Quadrate Schätzer beschrieben werden Dies ist das Schätzverfahren in linearen Modellen, das wir in der Vorlesung ausgiebig diskutieren werden Der letzte Punkt des Exkurses sind symmetrische positiv semidefinite Matrizen Dies sind genau die Matrizen, die als Kovarianzmatrizen auftreten können Wir werden sehen, dass nach einem geeigneten Basiswechsel symmetrische positiv semidefinite Matrizen in den neuen Koordinaten zu Diagonalmatrizen werden Betrachte x, y R n mit Norm x 2 = x x 2 n und Skalarprodukt < x, y > = x 1 y x n y n = x T y Für x R n sei L = {ax : a R} die Gerade durch x und den Ursprung Die Projektion von y auf L ist der zu y nächste Punkt a 0 x L, also y a 0 x 2 = min a 0 < y a 0 x, y a 0 x > = y T y 2a 0 < x T y > +a 2 0 < x T x > a 0 = xt y x T x Man sagt für x, y 0: y ist orthogonal zu x a 0 = 0 x T y = 0 Notation: x y Klar: x y y x Betrachten zwei Orthogonalbasen des R n : e 1 = 1 0 0, e 2 = ,, e n = ; 1

3 und also: f 1,, f n paarweise orthogonal, f j = 1 Betrachte O = (f 1,, f n ) Dann gilt: f 1,, f n, f j = Oe j Basistransformation Weiter sei x R n, also x = x 1 e x n e n Betrachte y = O T x = f T 1 f T n x = f T 1 x f T n x f T j x ist die j-te Koordinate von x bezüglich der Basis f 1,, f n, also x = y 1 f y n f n O T x gibt die Koordinate von x in der neuen Basis an O T heißt auch Koordinatentransformation Es gilt O T O = f T 1 ( f 1,, f n ) f T n = (f T i f j ) n i,j=1 = I n ( f 1,, f n Orthonormalbasis) Andere Herleitung: O e j }{{} =f j Basistransformation }{{} =e j Koordinaten von f j in neuer Basis O T Also: O T Oe j = e j O T O = I n Äquivalent: Die Spaltenvektoren einer Matrix O bilden eine Orthonormalbasis O T O = I n Definition 01 Eine Matrix O mit O T O = I n heißt orthogonale Matrix 2

4 Satz 01 Sei O orthogonal Dann gilt: (i) (ii) O 1 = O T O T ist orthogonal (iii) O 1, O 2 orthogonal O 1 O 2 orthogonal (iv) Für x R n : O x = x Beweis (i) (ii) zu zeigen: (O T ) T O T = I n (iii) zu zeigen: Beweis: (O T ) T O T }{{} = O O 1 = I n wegen(i) (O 1 O 2 ) T O 1 O 2 }{{} = I n }{{} O T 2 O T 1 O 1 O 2 = O T 2 O 2 (iv) O x 2 = x T O T O x = x T x = x 2 Definition 02 Eine n n Matrix A heißt positiv definit (positiv semidefinit), falls x T A x > 0 x R n, x 0, (x T A x 0 x R n ) Satz 02 Sei A symmetrisch, positiv semidefinit Dann existiert O orthogonal, D Diagonal mit Elementen 0 und A = O D O T Falls A positiv definit ist, sind Diagonalelemente von D strikt positiv Der Satz kann so interpretiert werden Nach einem geeigneten Basiswechsel werden symmetrische positiv semidefinite Matrizen in den neuen Koordinaten zu Diagonalmatrizen Diese Tatsache kann vielfach zur Vereinfachung von Argumenten genutzt werden 3

5 Beweisskizze Zeige zunächst: Es existiert Orthonormalbasis g 1,, g n von Eigenvektoren von A mit Eigenwerten λ 1 λ n 0 Beweis durch Iteration: Maximiere g T A g unter Nebenbedingung g T g = 1 Lagrange: Differenziere g T A g λ(g T g 1) Dies ergibt: A g λ g = 0 Dh Alle Lösungen g sind Eigenvektoren g T A g λ(g T g 1) wird durch (einen evtl nicht eindeutigen) Eigenvektor g 1 = g mit größtem Eigenwert λ 1 maximiert Maximiere nun g T A g unter Nebenbedingung g T g = 1, g g 1 Setze Lösung gleich g 2 und iteriere Wähle dann: O = (g 1 g n ), λ 1 λ2 0 D = 0 λ n Dann gilt für x R n : O T x = α 1 α n sind die Koordinaten von x bezüglich g 1,, g n : x = α 1 g α n g n λ 1 α 1 Weiter gilt D O T x = λ n α n und somit: O D O T x = λ 1 α 1 g λ n α n g n = A (α 1 g α n g n ) = A x Da dies für alle x gilt, folgt O D O T = A Definition 03 Sei A symmetrisch, positiv semidefinit mit A = O D O T für D diagonal, O orthogonal Dann ist für α 0 die Matrix A α definiert als O D α O T Für A positiv definiert, kann α R gewählt werden Anmerkung: Man kann zeigen, dass die Definition eindeutig ist und somit Sinn macht 4

6 Satz 03 Sei A symmetrisch positiv (semi-) definit Dann gilt für α, β R (α, β 0) (i) A α A β = A α+β, (ii) A α A β = A β A α Beweis Korollar 04 Jede Kovarianzmatrix ist symmetrisch positiv semidefinit Zu jeder symmetrischen positiv semidefiniten Matrix A existiert eine Verteilung mit Kovarianzmatrix A Beweis Sei Σ Kovarianzmatrix von X ObdA gelte E[X] = 0 Dann Σ = (E[X i X j ]) ij = (E[X j X i ]) ij = Σ T Σ symmetrisch Weiter zu zeigen: a T Σ a 0 Es gilt 0 E(a T X) 2 = a T (E[X X T ]) a = a T Σ a Definition 04 Sei L ein linearer Teilraum des R n mit Dimension k, dh L = {x : a 1 x a k x k mit a 1,, a k R} = span(x 1,, x k ) für linear unabhängige Vektoren x 1,, x k R n Dann heißt für y R n das Element z L mit (Orthogonal-) projektion von y auf L Schreibweise: z = Π L y z = arg min y z 2 z L Wir schreiben auch Π L für die Matrix, die der Orthogonalprojektion Π L entspricht Satz 05 Sei ein linearer Teilraum durch paarweise orthogonale Vektoren x 1,, x k mit x j = 5

7 1 aufgespannt Dann gilt mit X T = x T 1 x T k 0 0 n Zeilen, oder X T = x T 1 x T k, dass Π L = X X T Beweis Erweitere x 1,, x k zu einer Orthonormalbasis x 1,, x n von R n Seien für x, z, R n die Vektoren x, z, die Koordinaten von x, z, bezüglich x 1,, x n Dann gilt: x L x k+1 = = x n = 0 Daraus folgt: Π L z hat neue Koordinaten z1,, z k, 0,, 0 Folgerung mit D k = } k Zeilen und XT = x T 1 x T n : Π L = X D k XT Man sieht leicht, dass X D k XT = X X T Korollar 06 Sei ein linearer Raum L aufgespannt durch Vektoren x 1,, x k Dann gilt mit x T X T = 1 : x T k Π L = X (X T X) 1 X T 6

8 Beweis Betrachte z 1,, z k R n mit Z T = z T 1 z T k = (XT X) 1 2 X T Es gilt z T 1 ( z 1 z k ) = (X T X) 1 2 (X T X) (X T X) 1 2 = Ik z T k z 1,, z k sind paarweise orthogonal mit z j = 1 und spannen L auf Π L = Z Z T = X (X T X) 1 X T Beipiel 1 Sei X n p-matrix mit Rang p, y R n, L = {Xb : b R p } Dann gilt: Π L y = X ( X T X ) 1 X T y Wir geben nun drei Beweise für diese Aussage Beweis 1 Sei b 0 so gewählt, dass Π L y = Xb 0 Dann gilt b 0 argmin y Xb 2 b Differenzieren von b y Xb 2 ergibt (siehe Vorlesung) b 0 = ( X T X ) 1 X T y Π L y = X ( X T X ) 1 X T y Beweis 2 Behauptung folgt aus: (i) X ( X T X ) 1 X T u = u für u L, (ii) X ( X T X ) 1 X T u = 0 für u L Beweis von (i): u L b : u = Xb X ( X T X ) 1 X T u = X ( X T X ) 1 X T Xb = Xb = u 7

9 Beweis von (ii): u L (Xb) T u = 0 b R p b T X T u = 0 b R p X T u = 0 X ( X T X ) 1 X T u = 0 Beweis 3 Spaltenvektoren von X spannen L auf Daraus folgt, dass Spaltenvektoren f 1,, f p von X ( X T X ) 1/2 den Raum L aufspannen (da X T X vollen Rang hat) Weiter gilt, dass f 1,, f p paarweise orthogonal und normiert sind, da (f 1 f p ) T (f 1 f p ) = (X ( X T X ) ) 1/2 T (X ( X T X ) ) 1/2 Also: = ( X T X ) 1/2 X T X ( X T X ) 1/2 = I X ( X T X ) 1 X T u = X ( X T X ) 1/2 ( X T X ) 1/2 X T = (f 1 f p ) (f 1 f p ) T u f 1 T u = (f 1 f p ) fp T u = ( f T 1 u ) f ( f T p u ) f p Dies ist die Projektion von u auf span(f 1,, f p ) = L Beipiel 2 Sei A p n-matrix mit Rang p, y R n, L = {x : Ax = 0} Dann gilt: Π L y = (I A T ( AA T ) ) 1 A y Beweis Wir müssen zeigen: Sei A T = (a 1 a p ) Es gilt L = {x : x T u = 0 }{{} x u = span (a 1,, a p ) = { A T b : b R p} Π L = A T ( AA T ) 1 A für alle u R n mit Au }{{ = 0} } u span(a 1,,a p) 8

10 Behauptung folgt wie in Beipiel 1 1 Lineares Modell Modellgleichung: Y i = X T i β + ε i (11) Y 1,, Y n X 1,, X n R-wertige Zufallsvariable Vektoren R p oder R p -wertige Zufallsvariablen } beobachtet β R p, ε 1,, ε n R-wertige Zufallsvariablen } unbekannt, unbeobachtet Beispiel: (Einfache lineare Regression) Y i = β 1 + β 2 Z i + ε i mit β = β 1, X i = 1, p = 2 Z i β 2 (Statistik II: Y i Testscores, Z i Klassengröße) Bezeichnungen: Y i X i β ε i abhängige Variable, Zielgröße unabhängige Variable, Einflussgröße, Kovariable Parameter Fehler(variable) Modellannahmen: Es gilt (11) mit (M1a)[zufälliges Design] (Y 1, X 1 ),, (Y n, X n ) sind unabhängige identisch verteilte Zufallsvariablen und 9

11 (M1b) es gilt E[ε i X i ] = 0 oder (M2)[deterministisches Design] ε 1,, ε n sind unabhängig, identisch verteilt mit E[ε i ] = 0 X 1,, X n sind deterministische Vektoren R p Beispiel: (lineare Regression) Hier: Y i = β 1 + β 2 Z i + β 3 Z 2 i + + β p Z p 1 i X i = 1 Z i Z 2 i Z p 1 i + ε i Kann so nichtlineare Zusammenhänge zwischen X und E[Y X] modellieren Allgemeiner: Y i = p β j ψ j (Z i ) + ε i (12) j=1 mit ψ 1,, ψ p Basisfunktionen, zum Beispiel Splinefunktionen Anmerkung: Modell (11) heißt linear wegen linearer Parametrisierung: β E β [Y X] linear Z E β [Y X] eventuell nichtlinear Durch den Ansatz (12) können komplexere Modelle approximiert werden Beispiel: (Varianzanalyse) Schicke J Proben an I Labore Y ij Messwert von Labor i für Probe j Modell: Y ij = β j + ε ij (Einfachklassifikation) Durch Umindizierung lässt sich das als (11) schreiben (n = I J, p = J) Frage: β 1 = = β J, gibt es Unterschiede zwischen den Laboren? 10

12 Modifikation: Modelliere β 1 = = β J als uiv Zufallsvariable und frage: Wie groß ist V ar(β j )? Varianzanalyse, Random Coefficient Model (wird in der Vorlesung nicht diskutiert) Komplexeres Modell (Varianzanalyse) Habe k = 1,, K verschiedene Typen von Proben: Y ijk = β jk + ε ijk (Zweifachklassifikation) 11 Andere Regressionsmodelle a) Nichtlineare Modelle Y i = m(x i, β) + ε i m(, ) bekannte Funktion b) Nichtparametrische Modelle Beispiel: Y i = m(x i ) + ε i mit m glatt oder m(x) = l=1 β lψ l (x) für geeignete Basisfunktionen mit stark abfallendem l β l c) Verallgemeinerte lineare Modelle Y i P θi θ i = G(X T i θ), G bekannt Beispiel: Y i binär ( {0,1}-wertig ) mit P (Y i = 1) = G(X T i θ) ( oder P (Y i = 1 X i ) = G(X T i θ) ) d) Semiparametrische Modelle Beispiel: Y i = m(u i ) }{{} +Vi T β + ε i nichtparametrisch 11

13 2 Methode der kleinsten Quadrate Wir beginnen mit einem Lemma, das später den Kleinste Quadrate Schätzer motivieren wird Das Lemma verallgemeinert folgenden Sachverhalt: Für eine Zufallsvariable Y wird E[(Y µ) 2 ] durch µ = E[Y ] minimiert Lemma 21 In den Modellen (M1a,b) und (M2) gilt unter der zusätzlichen Annahme E[ε 2 i ] < + : Beweis β argmin b [ n ] E (Y i Xi T b) 2 [ n ] E (ε i + Xi T (β b)) 2 = E [ n ε 2 i ] [ n ] + 2 E (Xi T (β b))ε i }{{}}{{} hängt nicht von b ab = 0 [ n + E (Xi T (β b)) ] 2 (21) Für den letzten Term gilt: [ n ] E (Xi T (β b)) 2 [ n ] = E ((β b) T X i Xi T (β b)) [ n ] = (β b) T E X i Xi T (β b) Dies ist minimal für b = β Anmerkung: Lemma 21 gilt auch für Modell (M1), falls wir (M1b) ersetzen durch: (M1b ) E[X i ε i ] = 0 Dann verschwindet auch der gemischte Term 12

14 Wir betrachten nun ein Stichprobenanalogon ˆβ zu (21): mit Y = Y 1 Y n, X = ˆβ argmin b = argmin b X T 1 X T n n (Y i Xi T b) 2 (22) Y Xb 2, x 2 = n x i für x = x 1 x n Rn Definition 21 Jede (messbare) Wahl von ˆβ in (22) heißt Kleinster Quadrate Schätzer Betrachte folgenden linearen Teilraum von R n : L = {Xb : b R p } Erwartungsraum Lemma 22 Es ist äquivalent: (i) ˆβ erfüllt (22) (ii) X ˆβ = Π L Y (iii) X T X ˆβ = X T Y Normalgleichungen Beweis (i) (ii) (ii) (iii) : (ii) Y X ˆβ L (Y Xβ) T Xb = 0 b R p (iii) Korollar 23 Hat X vollen Rang, so gilt ˆβ = (X T X) 1 X T Y 13

15 Beispiel: (einfache lineare Regression) Neue Parametrisierung: Dann X i = 1 Z i Z X T X = und Y i = β 1 + β 2 (Z i Z) + ε i 1 n mit Z = Z i n n X i Xi T = = n n (Z i Z) n 0 0 n (Z i Z) 2 n (Z i Z) n (Z i Z) 2 ˆβ = (X T X) 1 X T Y = (X T X) 1 = 1 n n Y i n (Z i Z)Y i n (Z i Z) 2 n Y i n (Z i Z)Y i Beispiel: (Einfach Klassifikation) Y ij = β j + ε ij, i = 1,, I; j = 1,, J Dann: ˆβ j = Y i = 1 I I Y ij 3 Die multivariate Normalverteilung Nichtdegenerierte multivariate Normalverteilungen können direkt über ihre Dichte definiert werden Eine Normalverteilung heißt nichtdegeneriert, falls ihre Kovarianzmatrix vollen Rang hat In der Vorlesung werden wir aber oft Zufallsvariablen mit degenerierten Normalverteilungen betrachten Beispiele für solche Zufallsvariablen sind Projektionen von nichtdegenerierten normalverteilten Zufallsvariablen auf lineare Teilräume Dies ist etwa der Fall für X ˆβ im Falle eines 14

16 deterministischen Designs und normalverteilten uiv Fehlervariablen Dies wird im nächsten Paragraphen behandelt Zur allgemeinen Einführung der multivariaten Normalverteilung wählen wir folgenden Weg Wir führen zunächst die multivariate Standardnormalverteilung ein und definieren dann andere normalverteilte Zufallsvariablen als lineare Transformation von standardnormalverteilten Zufallsvariablen Definition 31 Sei Z 1,, Z k uiv N(0, 1) Die Verteilung von Z = Z 1 heißt k- dimensionale Standardnormalverteilung N(0, I k ) 1 0 (Hier ist I k = die k k Einheitsmatrix) 0 1 Z k Definition 32 Sei A eine m k Matrix, b R m und Z N(0, I k ) Dann heißt die Verteilung von AZ+b Normalverteilung mit Erwartungswertvektor b und Kovarianmatrix AA T, geschrieben N(b, AA T ) Damit die letzte Definition Sinn macht, müssen wir folgende beiden Lemmata zeigen Lemma 31 Seien A 1, A 2 m k 1 bzw m k 2 Matrizen und seien Z 1, Z 2 N(0, I k1 ) bzw N(0, I k2 ) verteilt Es gelte A 1 A T 1 = A 2A T 2 Dann haben A 1Z 1 und A 2 Z 2 dieselbe Verteilung Lemma 32 Sei A m k Matrix, b R m, Z N(0, I k ) Dann gilt: E[AZ + b] = b (31) Cov[AZ + b] = AA T (32) Für den Beweis von Lemma 31 benutzen wir: Lemma 33 (Cramer - Wold Device) Für zwei Zufallsvariablen Z 1 und Z 2 auf R k gilt: L(Z 1 ) = L(Z 2 ) L(a T Z 1 ) = L(a T Z 2 ) a R k Lemma 33 kann zum Beispiel unter Zuhilfenahme von multivariaten charakteristischen Funktionen bewiesen werden 15

17 Beweis (von Lemma 31) Wir nehmen obda an, dass k 1 = k 2 gilt Ansonsten füllt man die kleinere Matrix von A 1 und A 2 mit Nullen auf Sei a R m Wir müssen zeigen L(a T 1 Z 1 ) = L(a T A 1 Z 1 ) = L(a T A 2 Z 2 ) = L(a T 2 Z 2 ) (33) mit a j = A T j a Es gilt a 1 2 = a T 1 a 1 = a T A 1 A T 1 a = a T A 2 A T 2 a = a T 2 a 2 = a 2 2 OBdA, sei a 1 2 = a 2 2 = 1 Seien O j orthogonale Transformationen, die als erste Zeile a T j enthalten Dann ist a T j Z j das erste Element von O j Z j (33) folgt also aus Beweis von 34 Wir zeigen O j Z j N(0, I k ) L(O 1 Z 1 ) = L(O 2 Z 2 ) (34) Es gilt, die Dichte f Zj von Z j ist gleich: f Zj (z) = ( ) k ( 1 2 exp 1 ) 2π 2 zt z Für die Dichte f Xj von X j = O j Z j gilt: f Xj (x) = ( ) k ( 1 2 exp 2π 1 2 (O 1 j ) x) T (Oj 1 x) 1 det(o j ) Wir zeigen nun f Z1 (z) = f Z2 (z) = f X1 (z) = f X2 (z) Dies gilt wegen (O 1 j det(o j ) = 1, z) T (O 1 j z) = z T (O 1 ) T O 1 z j = z T O j O 1 j z = z T z j Beweis (von Lemma 32) (i) E[AZ + b] = AE[Z] + b = b (ii) Cov[AZ + b] = E[(AZ)(AZ) T ] = AE[ZZ T ]A T = AA T 16

18 Anmerkung: Sei Σ k k symmetrisch, positiv semidefinit, dann existiert A mit Σ = AA T Wir haben also N(b, Σ) definiert für b R k, Σ (k k) symmetrisch, positiv semidefinit Es wird nicht vorausgesetzt, dass Σ vollen Rang hat Korollar 34 Sei Z N(0, σ 2 I k ) und sei O eine k k Orthogonalmatrix Dann gilt: L(OZ) = L(Z) = N(0, σ 2 I k ) Korollar 35 Sei Z N(b, Σ) Dann gilt: AZ + a N(Ab + a, AΣA T ) Korollar 36 Sei Z N(0, σ 2 I k ), L 1, L 2 lineare Teilräume R k mit L 1 L 2 Dann sind Π L1 Z und Π L2 Z unabhängig und es gilt: L(Π Lj Z) = N(0, σ 2 Π Lj ) Beweise der Korollare: Korollare 34 und 35 folgen direkt aus Lemma 31 (siehe auch seinen Beweis) Für den Beweis von Korollar 36 wähle eine Koordinatentransformation, so dass die ersten dim(l 1 ) Basisvektoren L 1 aufspannen und die nächsten dim(l 2 ) Basisvektoren L 2 Seien Z die Koordinaten von Z in dieser Basis Dann gilt L(Z ) = N(0, σ 2 I k ) und die Unabhängigkeit von Π L1 Z und Π L2 Z folgt aus der Unabhängigkeit von (Z 1,, Z dim(l 1 ) ) und (Z dim(l 1 )+1,, Z dim(l 1 )+dim(l 2 ) ) Korollar 37 Sei Z N(0, σ 2 I k ) Sei L ein q-dimensionaler Teilraum von R k Dann gilt: Π L Z 2 σ 2 χ 2 q Definition 33 Seien U 1,, U m uiv N(0, 1) Dann heißt die Verteilung von S 2 = U U 2 m (zentrale) χ 2 -Verteilung mit m Freiheitsgraden Notation: S 2 χ 2 m Die Verteilung von S 2 = (U 1 + δ) U 2 m heißt nichtzentrale χ 2 -Verteilung mit m Freiheitsgraden und Nichtzentralitätsparameter δ 2 Notation: S 2 χ 2 m(δ 2 ) 17

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

6.1 Definition der multivariaten Normalverteilung

6.1 Definition der multivariaten Normalverteilung Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer

Mehr

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist: Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

10.2 Linearkombinationen

10.2 Linearkombinationen 147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

6 Hauptachsentransformation

6 Hauptachsentransformation 6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

BZQ II: Stochastikpraktikum

BZQ II: Stochastikpraktikum BZQ II: Stochastikpraktikum Block 3: Lineares Modell, Klassifikation, PCA Randolf Altmeyer January 9, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden

Mehr

Prof. Dr. Fred Böker

Prof. Dr. Fred Böker Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016,

Klausur zur Vorlesung Lineare Algebra II, SoSe 2016, Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren

Mehr

Musterlösung zur Serie 10

Musterlösung zur Serie 10 D-MATH, D-PHYS, D-CHAB Lineare Algebra II FS 1 Prof. Giovanni Felder, Thomas Willwacher Musterlösung zur Serie 1 1. a) Zur Erinnerung: Eine Äquivalenzrelation auf einer Menge M ist eine Relation, die die

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

D-Math/Phys Lineare Algebra II FS 2017 Dr. Meike Akveld. Clicker Fragen

D-Math/Phys Lineare Algebra II FS 2017 Dr. Meike Akveld. Clicker Fragen D-Math/Phys Lineare Algebra II FS 2017 Dr. Meike Akveld Clicker Fragen Frage 1 Wenn eine reelle Matrix einen Eigenvektor hat, so hat es unendlich viele Eigenvektoren Sei u K n einen Eigenvektor von A M

Mehr

9 Höhere partielle Ableitungen und die Taylorformel

9 Höhere partielle Ableitungen und die Taylorformel Vorlesung SS 29 Analsis 2 Prof Dr Siegfried Echterhoff 9 Höhere partielle Ableitungen und die Talorformel Definition 91 Sei U R n offen, f : U R m eine Funktion Dann heißt f 2-mal partiell differenzierbar,

Mehr

6. Normale Abbildungen

6. Normale Abbildungen SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische

Mehr

LINEARE ALGEBRA II. FÜR PHYSIKER

LINEARE ALGEBRA II. FÜR PHYSIKER LINEARE ALGEBRA II FÜR PHYSIKER BÁLINT FARKAS 4 Rechnen mit Matrizen In diesem Kapitel werden wir zunächst die so genannten elementaren Umformungen studieren, die es ermöglichen eine Matrix auf besonders

Mehr

Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses

Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses Thomas Steinle Seminar Zufällige Felder Universität Ulm 18. November, 2008 Einleitung Inhalt Einleitung Wiederholung und Themenvorstellung Wichtiges

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.

, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }. 154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

Vorlesung: Lineare Modelle

Vorlesung: Lineare Modelle Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen

Mehr

Aufgaben zu Kapitel 20

Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v

Mehr

6 Symmetrische und hermitesche Matrizen

6 Symmetrische und hermitesche Matrizen Mathematik für Physiker II, SS Freitag 4.6 $Id: quadrat.tex,v.8 /6/4 4:44:39 hk Exp hk $ 6 Symmetrische und hermitesche Matrizen 6. Prä-Hilberträume Wir sind gerade mit der Diskussion der sogenannten Ausgleichsgerade

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

Übersicht Kapitel 9. Vektorräume

Übersicht Kapitel 9. Vektorräume Vektorräume Definition und Geometrie von Vektoren Übersicht Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren 9.2 Teilräume 9.3 Linearkombinationen und Erzeugendensysteme 9.4 Lineare Abhängigkeiten

Mehr

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau 312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind

Mehr

10. Übung zur Linearen Algebra I -

10. Übung zur Linearen Algebra I - . Übung zur Linearen Algebra I - en Kommentare an Hannes.Klarner@FU-Berlin.de FU Berlin. WS 29-. Aufgabe 37 i Für welche α R besitzt das lineare Gleichungssystem 4 αx + αx 2 = 4x + α + 2x 2 = α genau eine,

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen

Orthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).

Mehr

Lineare Algebra II 11. Übungsblatt

Lineare Algebra II 11. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des

Mehr

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009

Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009 I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe

Mehr

Technische Universität München

Technische Universität München Technische Universität München Michael Schreier Ferienkurs Lineare Algebra für Physiker Vorlesung Montag WS 2008/09 1 komplexe Zahlen Viele Probleme in der Mathematik oder Physik lassen sich nicht oder

Mehr

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β

Mehr

40 Lokale Extrema und Taylor-Formel

40 Lokale Extrema und Taylor-Formel 198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Lineare Algebra. 10. Übungsstunde. Steven Battilana.

Lineare Algebra. 10. Übungsstunde. Steven Battilana. Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,

Mehr

3 Vektorräume abstrakt

3 Vektorräume abstrakt Mathematik I für inf/swt Wintersemester / Seite 7 Vektorräume abstrakt Lineare Unabhängigkeit Definition: Sei V Vektorraum W V Dann heißt W := LH(W := Menge aller Linearkombinationen aus W die lineare

Mehr

2 Multivariate Normalverteilung

2 Multivariate Normalverteilung 2 Multivariate Normalverteilung 2. Multivariate Normalverteilung Definition 2.. Normalverteilung Eine univariat normalverteilte Zufallsvariable X besitzt ie Dichte ) (x µ)2 f (x) = exp ( x R. 2π σ 2σ 2

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Zusammenfassung. 2.7 Eigenwerte und Eigenvektoren 53. in 2.1: Lösung eines linearen Gleichungssystems

Zusammenfassung. 2.7 Eigenwerte und Eigenvektoren 53. in 2.1: Lösung eines linearen Gleichungssystems 7 Eigenwerte und Eigenvektoren 53 Zusammenfassung in : Lösung eines linearen Gleichungssystems Formalisierung: a x + a x + + a n x n b a x + a x + + a n x n b a m x + a m x + + a mn x n b m A x b Lösungsmethode:

Mehr

4.2 Die adjungierte Abbildung

4.2 Die adjungierte Abbildung 4.2. DIE ADJUNGIERTE ABBILDUNG 177 4.2 Die adjungierte Abbildung Die Vektorräume dieses Paragraphen seien sämtlich euklidisch, die Norm kommt jetzt also vom inneren Produkt her, v = v v. Zu f Hom R (V,

Mehr

7 Lineare Abbildungen und Skalarprodukt

7 Lineare Abbildungen und Skalarprodukt Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

Quadratische Formen. und. Symmetrische Matrizen

Quadratische Formen. und. Symmetrische Matrizen Quadratische Formen und Symmetrische Matrizen 1 Ouverture: Lineare Funktionen von R n nach R 1 2 Beispiel: n = 2 l : (x 1, x 2 ) T 0.8x 1 + 0.6x 2 = < x, g > mit g := (0.8, 0.6) T. Wo liegen alle x = (x

Mehr

Euklidische und unitäre Vektorräume

Euklidische und unitäre Vektorräume Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

und Unterdeterminante

und Unterdeterminante Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P Grohs T Welti F Weber Herbstsemester 25 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 8 Aufgabe 8 Basen für Bild und Kern Gegeben sind die beiden 2 Matrizen:

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 25): Lineare Algebra und analytische Geometrie 2 2. (Frühjahr 29, Thema 3, Aufgabe 3) Gegeben sei die reelle 3 3 Matrix 4 2 A = 2 7 2 R 3 3. 2 2 a)

Mehr

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

2.1 Gemeinsame-, Rand- und bedingte Verteilungen Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die

Mehr

Lösung Übungsblatt 5

Lösung Übungsblatt 5 Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,

a b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2, Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

4 Lineare Abbildungen und Matrizen

4 Lineare Abbildungen und Matrizen Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt

Mehr

Kapitel 3 Lineare Algebra

Kapitel 3 Lineare Algebra Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND

Mehr

Konfidenzbereiche. Kapitel Grundlagen. Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus,

Konfidenzbereiche. Kapitel Grundlagen. Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, Kapitel 4 Konfidenzbereiche 4.1 Grundlagen Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden

Mehr

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen

Musterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können

Mehr

Lineare Algebra und Numerische Mathematik für D-BAUG

Lineare Algebra und Numerische Mathematik für D-BAUG P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen

Mehr

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)

Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit

Mehr

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153

3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153 3.3. SKALARPRODUKTE 153 Hierzu müssen wir noch die Eindeutigkeit (Unabhängigkeit von der Wahl der Basis bzw. des Koordinatensystems) zeigen. Sei hierzu β eine Bilinearform und q die entsprechende quadratische

Mehr

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen 12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

D-CHAB Frühlingssemester 2018

D-CHAB Frühlingssemester 2018 D-CHAB Frühlingssemester 2018 Grundlagen der Mathematik II Dr Marcel Dettling Lösung 4 1) Nur für die folgenden Wahlen kann man das Produkt bilden: A A mit Dimension (2, 2) (2, 2) (2, 2): 1 2 A Y mit Dimension

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 7. Juni 2013 1 Binomialverteilung 2 Normalverteilung 3 T-Verteilung

Mehr

9. Vorlesung Lineare Algebra, SVD und LSI

9. Vorlesung Lineare Algebra, SVD und LSI 9. Vorlesung Lineare Algebra, SVD und LSI Grundlagen lineare Algebra Vektornorm, Matrixnorm Eigenvektoren und Werte Lineare Unabhängigkeit, Orthogonale Matrizen SVD, Singulärwerte und Matrixzerlegung LSI:Latent

Mehr

4 Lineare Abbildungen Basisdarstellungen

4 Lineare Abbildungen Basisdarstellungen 4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w

Mehr

9. Übungsblatt zur Mathematik I für Maschinenbau

9. Übungsblatt zur Mathematik I für Maschinenbau Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 9. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS /..-4.. Aufgabe G (Koordinatentransformation)

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

Musterlösung der Klausur zur linearen Algebra II

Musterlösung der Klausur zur linearen Algebra II David Blottière SS 7 Patrick Schützdeller Universität Paderborn Julia Sauter Musterlösung der Klausur zur linearen Algebra II Aufgabe 1 Bestimmen Sie Jordan-Normalformen der folgenden Matrizen, und schreiben

Mehr

Viele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung

Viele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung Kapitel 3 Lineare Abbildungen Lineare Abbildungen sind eine natürliche Klasse von Abbildungen zwischen zwei Vektorräumen, denn sie vertragen sich per definitionem mit der Struktur linearer Räume Viele

Mehr

Ökonometrische Analyse

Ökonometrische Analyse Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der

Mehr

Übungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil

Übungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil Dr. Christof Luchsinger Übungsblatt zur Vorlesung Statistische Methoden - freiwilliger Teil Rechnen mit Matrizen, Multivariate Normalverteilung Herausgabe des Übungsblattes: Woche 0, Abgabe der Lösungen:

Mehr

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie

Mehr

Lösungsskizze zur Wiederholungsserie

Lösungsskizze zur Wiederholungsserie Lineare Algebra D-MATH, HS Prof. Richard Pink Lösungsskizze zur Wiederholungsserie. [Aufgabe] Schreibe die lineare Abbildung f : Q Q 5, x +x +x x x +x +6x f x := x +x +8x x x +x +x. x +x +5x als Linksmultiplikation

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

10 Unitäre Vektorräume

10 Unitäre Vektorräume 10 Unitäre Vektorräume Pink: Lineare Algebra 2014/15 Seite 98 10 Unitäre Vektorräume Die Theorie komplexer Vektorräume mit Skalarprodukt folgt denselben Linien wie die Theorie reeller Vektorräume mit Skalarprodukt;

Mehr

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015

Lösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015 sskizzen der Klausur zur Linearen Algebra im Herbst 5 Aufgabe I. Es sei (G, ) eine Gruppe mit neutralem Element e und M {x G x x e}. Zeigen Sie: (a) Ist G kommutativ, so ist M eine Untergruppe von G. (b)

Mehr

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops 15. DETERMINANTEN 1 Für n Vektoren b 1,..., b n im R n definiert man ihre Determinante det(b 1,..., b n ) Anschaulich gilt det(b 1,..., b n ) = Orientierung der Vektoren b 1,..., b n Volumen des von den

Mehr

Exkurs: Klassifikation orthogonaler 2 2-Matrizen.

Exkurs: Klassifikation orthogonaler 2 2-Matrizen. Exkurs: Klassifikation orthogonaler 2 2-Matrizen. Aussage: Es gilt: (a) Jede orthogonale 2 2 Matrix A mit det(a) = 1 hat das Aussehen cos(α) sin(α) D(α) = sin(α) cos(α), wobei α [0,2π[. Ist sin(α) 0, so

Mehr

5.7 Lineare Abhängigkeit, Basis und Dimension

5.7 Lineare Abhängigkeit, Basis und Dimension 8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n

Mehr