Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr.
|
|
- Carin Zimmermann
- vor 7 Jahren
- Abrufe
Transkript
1 Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof Dr Enno Mammen
2 0 Exkurs: Orthogonaltransformationen, Projektionen im R n In diesem Exkurs werden einige Fakten aus der linearen Algebra zusammengestellt, auf die wir in der Vorlesung häufig zurückgreifen werden Orthogonaltransformationen werden häufig auftauchen, da viele Argumente essentiell vereinfacht werden können, indem man zu einer anderen Basis übergeht Projektionen eines Punktes bestimmen Elemente eines linearen Teilraumes, die minimalen Abstand zu dem Punkt haben Mit Hilfe von Projektionen wird der Kleinste Quadrate Schätzer beschrieben werden Dies ist das Schätzverfahren in linearen Modellen, das wir in der Vorlesung ausgiebig diskutieren werden Der letzte Punkt des Exkurses sind symmetrische positiv semidefinite Matrizen Dies sind genau die Matrizen, die als Kovarianzmatrizen auftreten können Wir werden sehen, dass nach einem geeigneten Basiswechsel symmetrische positiv semidefinite Matrizen in den neuen Koordinaten zu Diagonalmatrizen werden Betrachte x, y R n mit Norm x 2 = x x 2 n und Skalarprodukt < x, y > = x 1 y x n y n = x T y Für x R n sei L = {ax : a R} die Gerade durch x und den Ursprung Die Projektion von y auf L ist der zu y nächste Punkt a 0 x L, also y a 0 x 2 = min a 0 < y a 0 x, y a 0 x > = y T y 2a 0 < x T y > +a 2 0 < x T x > a 0 = xt y x T x Man sagt für x, y 0: y ist orthogonal zu x a 0 = 0 x T y = 0 Notation: x y Klar: x y y x Betrachten zwei Orthogonalbasen des R n : e 1 = 1 0 0, e 2 = ,, e n = ; 1
3 und also: f 1,, f n paarweise orthogonal, f j = 1 Betrachte O = (f 1,, f n ) Dann gilt: f 1,, f n, f j = Oe j Basistransformation Weiter sei x R n, also x = x 1 e x n e n Betrachte y = O T x = f T 1 f T n x = f T 1 x f T n x f T j x ist die j-te Koordinate von x bezüglich der Basis f 1,, f n, also x = y 1 f y n f n O T x gibt die Koordinate von x in der neuen Basis an O T heißt auch Koordinatentransformation Es gilt O T O = f T 1 ( f 1,, f n ) f T n = (f T i f j ) n i,j=1 = I n ( f 1,, f n Orthonormalbasis) Andere Herleitung: O e j }{{} =f j Basistransformation }{{} =e j Koordinaten von f j in neuer Basis O T Also: O T Oe j = e j O T O = I n Äquivalent: Die Spaltenvektoren einer Matrix O bilden eine Orthonormalbasis O T O = I n Definition 01 Eine Matrix O mit O T O = I n heißt orthogonale Matrix 2
4 Satz 01 Sei O orthogonal Dann gilt: (i) (ii) O 1 = O T O T ist orthogonal (iii) O 1, O 2 orthogonal O 1 O 2 orthogonal (iv) Für x R n : O x = x Beweis (i) (ii) zu zeigen: (O T ) T O T = I n (iii) zu zeigen: Beweis: (O T ) T O T }{{} = O O 1 = I n wegen(i) (O 1 O 2 ) T O 1 O 2 }{{} = I n }{{} O T 2 O T 1 O 1 O 2 = O T 2 O 2 (iv) O x 2 = x T O T O x = x T x = x 2 Definition 02 Eine n n Matrix A heißt positiv definit (positiv semidefinit), falls x T A x > 0 x R n, x 0, (x T A x 0 x R n ) Satz 02 Sei A symmetrisch, positiv semidefinit Dann existiert O orthogonal, D Diagonal mit Elementen 0 und A = O D O T Falls A positiv definit ist, sind Diagonalelemente von D strikt positiv Der Satz kann so interpretiert werden Nach einem geeigneten Basiswechsel werden symmetrische positiv semidefinite Matrizen in den neuen Koordinaten zu Diagonalmatrizen Diese Tatsache kann vielfach zur Vereinfachung von Argumenten genutzt werden 3
5 Beweisskizze Zeige zunächst: Es existiert Orthonormalbasis g 1,, g n von Eigenvektoren von A mit Eigenwerten λ 1 λ n 0 Beweis durch Iteration: Maximiere g T A g unter Nebenbedingung g T g = 1 Lagrange: Differenziere g T A g λ(g T g 1) Dies ergibt: A g λ g = 0 Dh Alle Lösungen g sind Eigenvektoren g T A g λ(g T g 1) wird durch (einen evtl nicht eindeutigen) Eigenvektor g 1 = g mit größtem Eigenwert λ 1 maximiert Maximiere nun g T A g unter Nebenbedingung g T g = 1, g g 1 Setze Lösung gleich g 2 und iteriere Wähle dann: O = (g 1 g n ), λ 1 λ2 0 D = 0 λ n Dann gilt für x R n : O T x = α 1 α n sind die Koordinaten von x bezüglich g 1,, g n : x = α 1 g α n g n λ 1 α 1 Weiter gilt D O T x = λ n α n und somit: O D O T x = λ 1 α 1 g λ n α n g n = A (α 1 g α n g n ) = A x Da dies für alle x gilt, folgt O D O T = A Definition 03 Sei A symmetrisch, positiv semidefinit mit A = O D O T für D diagonal, O orthogonal Dann ist für α 0 die Matrix A α definiert als O D α O T Für A positiv definiert, kann α R gewählt werden Anmerkung: Man kann zeigen, dass die Definition eindeutig ist und somit Sinn macht 4
6 Satz 03 Sei A symmetrisch positiv (semi-) definit Dann gilt für α, β R (α, β 0) (i) A α A β = A α+β, (ii) A α A β = A β A α Beweis Korollar 04 Jede Kovarianzmatrix ist symmetrisch positiv semidefinit Zu jeder symmetrischen positiv semidefiniten Matrix A existiert eine Verteilung mit Kovarianzmatrix A Beweis Sei Σ Kovarianzmatrix von X ObdA gelte E[X] = 0 Dann Σ = (E[X i X j ]) ij = (E[X j X i ]) ij = Σ T Σ symmetrisch Weiter zu zeigen: a T Σ a 0 Es gilt 0 E(a T X) 2 = a T (E[X X T ]) a = a T Σ a Definition 04 Sei L ein linearer Teilraum des R n mit Dimension k, dh L = {x : a 1 x a k x k mit a 1,, a k R} = span(x 1,, x k ) für linear unabhängige Vektoren x 1,, x k R n Dann heißt für y R n das Element z L mit (Orthogonal-) projektion von y auf L Schreibweise: z = Π L y z = arg min y z 2 z L Wir schreiben auch Π L für die Matrix, die der Orthogonalprojektion Π L entspricht Satz 05 Sei ein linearer Teilraum durch paarweise orthogonale Vektoren x 1,, x k mit x j = 5
7 1 aufgespannt Dann gilt mit X T = x T 1 x T k 0 0 n Zeilen, oder X T = x T 1 x T k, dass Π L = X X T Beweis Erweitere x 1,, x k zu einer Orthonormalbasis x 1,, x n von R n Seien für x, z, R n die Vektoren x, z, die Koordinaten von x, z, bezüglich x 1,, x n Dann gilt: x L x k+1 = = x n = 0 Daraus folgt: Π L z hat neue Koordinaten z1,, z k, 0,, 0 Folgerung mit D k = } k Zeilen und XT = x T 1 x T n : Π L = X D k XT Man sieht leicht, dass X D k XT = X X T Korollar 06 Sei ein linearer Raum L aufgespannt durch Vektoren x 1,, x k Dann gilt mit x T X T = 1 : x T k Π L = X (X T X) 1 X T 6
8 Beweis Betrachte z 1,, z k R n mit Z T = z T 1 z T k = (XT X) 1 2 X T Es gilt z T 1 ( z 1 z k ) = (X T X) 1 2 (X T X) (X T X) 1 2 = Ik z T k z 1,, z k sind paarweise orthogonal mit z j = 1 und spannen L auf Π L = Z Z T = X (X T X) 1 X T Beipiel 1 Sei X n p-matrix mit Rang p, y R n, L = {Xb : b R p } Dann gilt: Π L y = X ( X T X ) 1 X T y Wir geben nun drei Beweise für diese Aussage Beweis 1 Sei b 0 so gewählt, dass Π L y = Xb 0 Dann gilt b 0 argmin y Xb 2 b Differenzieren von b y Xb 2 ergibt (siehe Vorlesung) b 0 = ( X T X ) 1 X T y Π L y = X ( X T X ) 1 X T y Beweis 2 Behauptung folgt aus: (i) X ( X T X ) 1 X T u = u für u L, (ii) X ( X T X ) 1 X T u = 0 für u L Beweis von (i): u L b : u = Xb X ( X T X ) 1 X T u = X ( X T X ) 1 X T Xb = Xb = u 7
9 Beweis von (ii): u L (Xb) T u = 0 b R p b T X T u = 0 b R p X T u = 0 X ( X T X ) 1 X T u = 0 Beweis 3 Spaltenvektoren von X spannen L auf Daraus folgt, dass Spaltenvektoren f 1,, f p von X ( X T X ) 1/2 den Raum L aufspannen (da X T X vollen Rang hat) Weiter gilt, dass f 1,, f p paarweise orthogonal und normiert sind, da (f 1 f p ) T (f 1 f p ) = (X ( X T X ) ) 1/2 T (X ( X T X ) ) 1/2 Also: = ( X T X ) 1/2 X T X ( X T X ) 1/2 = I X ( X T X ) 1 X T u = X ( X T X ) 1/2 ( X T X ) 1/2 X T = (f 1 f p ) (f 1 f p ) T u f 1 T u = (f 1 f p ) fp T u = ( f T 1 u ) f ( f T p u ) f p Dies ist die Projektion von u auf span(f 1,, f p ) = L Beipiel 2 Sei A p n-matrix mit Rang p, y R n, L = {x : Ax = 0} Dann gilt: Π L y = (I A T ( AA T ) ) 1 A y Beweis Wir müssen zeigen: Sei A T = (a 1 a p ) Es gilt L = {x : x T u = 0 }{{} x u = span (a 1,, a p ) = { A T b : b R p} Π L = A T ( AA T ) 1 A für alle u R n mit Au }{{ = 0} } u span(a 1,,a p) 8
10 Behauptung folgt wie in Beipiel 1 1 Lineares Modell Modellgleichung: Y i = X T i β + ε i (11) Y 1,, Y n X 1,, X n R-wertige Zufallsvariable Vektoren R p oder R p -wertige Zufallsvariablen } beobachtet β R p, ε 1,, ε n R-wertige Zufallsvariablen } unbekannt, unbeobachtet Beispiel: (Einfache lineare Regression) Y i = β 1 + β 2 Z i + ε i mit β = β 1, X i = 1, p = 2 Z i β 2 (Statistik II: Y i Testscores, Z i Klassengröße) Bezeichnungen: Y i X i β ε i abhängige Variable, Zielgröße unabhängige Variable, Einflussgröße, Kovariable Parameter Fehler(variable) Modellannahmen: Es gilt (11) mit (M1a)[zufälliges Design] (Y 1, X 1 ),, (Y n, X n ) sind unabhängige identisch verteilte Zufallsvariablen und 9
11 (M1b) es gilt E[ε i X i ] = 0 oder (M2)[deterministisches Design] ε 1,, ε n sind unabhängig, identisch verteilt mit E[ε i ] = 0 X 1,, X n sind deterministische Vektoren R p Beispiel: (lineare Regression) Hier: Y i = β 1 + β 2 Z i + β 3 Z 2 i + + β p Z p 1 i X i = 1 Z i Z 2 i Z p 1 i + ε i Kann so nichtlineare Zusammenhänge zwischen X und E[Y X] modellieren Allgemeiner: Y i = p β j ψ j (Z i ) + ε i (12) j=1 mit ψ 1,, ψ p Basisfunktionen, zum Beispiel Splinefunktionen Anmerkung: Modell (11) heißt linear wegen linearer Parametrisierung: β E β [Y X] linear Z E β [Y X] eventuell nichtlinear Durch den Ansatz (12) können komplexere Modelle approximiert werden Beispiel: (Varianzanalyse) Schicke J Proben an I Labore Y ij Messwert von Labor i für Probe j Modell: Y ij = β j + ε ij (Einfachklassifikation) Durch Umindizierung lässt sich das als (11) schreiben (n = I J, p = J) Frage: β 1 = = β J, gibt es Unterschiede zwischen den Laboren? 10
12 Modifikation: Modelliere β 1 = = β J als uiv Zufallsvariable und frage: Wie groß ist V ar(β j )? Varianzanalyse, Random Coefficient Model (wird in der Vorlesung nicht diskutiert) Komplexeres Modell (Varianzanalyse) Habe k = 1,, K verschiedene Typen von Proben: Y ijk = β jk + ε ijk (Zweifachklassifikation) 11 Andere Regressionsmodelle a) Nichtlineare Modelle Y i = m(x i, β) + ε i m(, ) bekannte Funktion b) Nichtparametrische Modelle Beispiel: Y i = m(x i ) + ε i mit m glatt oder m(x) = l=1 β lψ l (x) für geeignete Basisfunktionen mit stark abfallendem l β l c) Verallgemeinerte lineare Modelle Y i P θi θ i = G(X T i θ), G bekannt Beispiel: Y i binär ( {0,1}-wertig ) mit P (Y i = 1) = G(X T i θ) ( oder P (Y i = 1 X i ) = G(X T i θ) ) d) Semiparametrische Modelle Beispiel: Y i = m(u i ) }{{} +Vi T β + ε i nichtparametrisch 11
13 2 Methode der kleinsten Quadrate Wir beginnen mit einem Lemma, das später den Kleinste Quadrate Schätzer motivieren wird Das Lemma verallgemeinert folgenden Sachverhalt: Für eine Zufallsvariable Y wird E[(Y µ) 2 ] durch µ = E[Y ] minimiert Lemma 21 In den Modellen (M1a,b) und (M2) gilt unter der zusätzlichen Annahme E[ε 2 i ] < + : Beweis β argmin b [ n ] E (Y i Xi T b) 2 [ n ] E (ε i + Xi T (β b)) 2 = E [ n ε 2 i ] [ n ] + 2 E (Xi T (β b))ε i }{{}}{{} hängt nicht von b ab = 0 [ n + E (Xi T (β b)) ] 2 (21) Für den letzten Term gilt: [ n ] E (Xi T (β b)) 2 [ n ] = E ((β b) T X i Xi T (β b)) [ n ] = (β b) T E X i Xi T (β b) Dies ist minimal für b = β Anmerkung: Lemma 21 gilt auch für Modell (M1), falls wir (M1b) ersetzen durch: (M1b ) E[X i ε i ] = 0 Dann verschwindet auch der gemischte Term 12
14 Wir betrachten nun ein Stichprobenanalogon ˆβ zu (21): mit Y = Y 1 Y n, X = ˆβ argmin b = argmin b X T 1 X T n n (Y i Xi T b) 2 (22) Y Xb 2, x 2 = n x i für x = x 1 x n Rn Definition 21 Jede (messbare) Wahl von ˆβ in (22) heißt Kleinster Quadrate Schätzer Betrachte folgenden linearen Teilraum von R n : L = {Xb : b R p } Erwartungsraum Lemma 22 Es ist äquivalent: (i) ˆβ erfüllt (22) (ii) X ˆβ = Π L Y (iii) X T X ˆβ = X T Y Normalgleichungen Beweis (i) (ii) (ii) (iii) : (ii) Y X ˆβ L (Y Xβ) T Xb = 0 b R p (iii) Korollar 23 Hat X vollen Rang, so gilt ˆβ = (X T X) 1 X T Y 13
15 Beispiel: (einfache lineare Regression) Neue Parametrisierung: Dann X i = 1 Z i Z X T X = und Y i = β 1 + β 2 (Z i Z) + ε i 1 n mit Z = Z i n n X i Xi T = = n n (Z i Z) n 0 0 n (Z i Z) 2 n (Z i Z) n (Z i Z) 2 ˆβ = (X T X) 1 X T Y = (X T X) 1 = 1 n n Y i n (Z i Z)Y i n (Z i Z) 2 n Y i n (Z i Z)Y i Beispiel: (Einfach Klassifikation) Y ij = β j + ε ij, i = 1,, I; j = 1,, J Dann: ˆβ j = Y i = 1 I I Y ij 3 Die multivariate Normalverteilung Nichtdegenerierte multivariate Normalverteilungen können direkt über ihre Dichte definiert werden Eine Normalverteilung heißt nichtdegeneriert, falls ihre Kovarianzmatrix vollen Rang hat In der Vorlesung werden wir aber oft Zufallsvariablen mit degenerierten Normalverteilungen betrachten Beispiele für solche Zufallsvariablen sind Projektionen von nichtdegenerierten normalverteilten Zufallsvariablen auf lineare Teilräume Dies ist etwa der Fall für X ˆβ im Falle eines 14
16 deterministischen Designs und normalverteilten uiv Fehlervariablen Dies wird im nächsten Paragraphen behandelt Zur allgemeinen Einführung der multivariaten Normalverteilung wählen wir folgenden Weg Wir führen zunächst die multivariate Standardnormalverteilung ein und definieren dann andere normalverteilte Zufallsvariablen als lineare Transformation von standardnormalverteilten Zufallsvariablen Definition 31 Sei Z 1,, Z k uiv N(0, 1) Die Verteilung von Z = Z 1 heißt k- dimensionale Standardnormalverteilung N(0, I k ) 1 0 (Hier ist I k = die k k Einheitsmatrix) 0 1 Z k Definition 32 Sei A eine m k Matrix, b R m und Z N(0, I k ) Dann heißt die Verteilung von AZ+b Normalverteilung mit Erwartungswertvektor b und Kovarianmatrix AA T, geschrieben N(b, AA T ) Damit die letzte Definition Sinn macht, müssen wir folgende beiden Lemmata zeigen Lemma 31 Seien A 1, A 2 m k 1 bzw m k 2 Matrizen und seien Z 1, Z 2 N(0, I k1 ) bzw N(0, I k2 ) verteilt Es gelte A 1 A T 1 = A 2A T 2 Dann haben A 1Z 1 und A 2 Z 2 dieselbe Verteilung Lemma 32 Sei A m k Matrix, b R m, Z N(0, I k ) Dann gilt: E[AZ + b] = b (31) Cov[AZ + b] = AA T (32) Für den Beweis von Lemma 31 benutzen wir: Lemma 33 (Cramer - Wold Device) Für zwei Zufallsvariablen Z 1 und Z 2 auf R k gilt: L(Z 1 ) = L(Z 2 ) L(a T Z 1 ) = L(a T Z 2 ) a R k Lemma 33 kann zum Beispiel unter Zuhilfenahme von multivariaten charakteristischen Funktionen bewiesen werden 15
17 Beweis (von Lemma 31) Wir nehmen obda an, dass k 1 = k 2 gilt Ansonsten füllt man die kleinere Matrix von A 1 und A 2 mit Nullen auf Sei a R m Wir müssen zeigen L(a T 1 Z 1 ) = L(a T A 1 Z 1 ) = L(a T A 2 Z 2 ) = L(a T 2 Z 2 ) (33) mit a j = A T j a Es gilt a 1 2 = a T 1 a 1 = a T A 1 A T 1 a = a T A 2 A T 2 a = a T 2 a 2 = a 2 2 OBdA, sei a 1 2 = a 2 2 = 1 Seien O j orthogonale Transformationen, die als erste Zeile a T j enthalten Dann ist a T j Z j das erste Element von O j Z j (33) folgt also aus Beweis von 34 Wir zeigen O j Z j N(0, I k ) L(O 1 Z 1 ) = L(O 2 Z 2 ) (34) Es gilt, die Dichte f Zj von Z j ist gleich: f Zj (z) = ( ) k ( 1 2 exp 1 ) 2π 2 zt z Für die Dichte f Xj von X j = O j Z j gilt: f Xj (x) = ( ) k ( 1 2 exp 2π 1 2 (O 1 j ) x) T (Oj 1 x) 1 det(o j ) Wir zeigen nun f Z1 (z) = f Z2 (z) = f X1 (z) = f X2 (z) Dies gilt wegen (O 1 j det(o j ) = 1, z) T (O 1 j z) = z T (O 1 ) T O 1 z j = z T O j O 1 j z = z T z j Beweis (von Lemma 32) (i) E[AZ + b] = AE[Z] + b = b (ii) Cov[AZ + b] = E[(AZ)(AZ) T ] = AE[ZZ T ]A T = AA T 16
18 Anmerkung: Sei Σ k k symmetrisch, positiv semidefinit, dann existiert A mit Σ = AA T Wir haben also N(b, Σ) definiert für b R k, Σ (k k) symmetrisch, positiv semidefinit Es wird nicht vorausgesetzt, dass Σ vollen Rang hat Korollar 34 Sei Z N(0, σ 2 I k ) und sei O eine k k Orthogonalmatrix Dann gilt: L(OZ) = L(Z) = N(0, σ 2 I k ) Korollar 35 Sei Z N(b, Σ) Dann gilt: AZ + a N(Ab + a, AΣA T ) Korollar 36 Sei Z N(0, σ 2 I k ), L 1, L 2 lineare Teilräume R k mit L 1 L 2 Dann sind Π L1 Z und Π L2 Z unabhängig und es gilt: L(Π Lj Z) = N(0, σ 2 Π Lj ) Beweise der Korollare: Korollare 34 und 35 folgen direkt aus Lemma 31 (siehe auch seinen Beweis) Für den Beweis von Korollar 36 wähle eine Koordinatentransformation, so dass die ersten dim(l 1 ) Basisvektoren L 1 aufspannen und die nächsten dim(l 2 ) Basisvektoren L 2 Seien Z die Koordinaten von Z in dieser Basis Dann gilt L(Z ) = N(0, σ 2 I k ) und die Unabhängigkeit von Π L1 Z und Π L2 Z folgt aus der Unabhängigkeit von (Z 1,, Z dim(l 1 ) ) und (Z dim(l 1 )+1,, Z dim(l 1 )+dim(l 2 ) ) Korollar 37 Sei Z N(0, σ 2 I k ) Sei L ein q-dimensionaler Teilraum von R k Dann gilt: Π L Z 2 σ 2 χ 2 q Definition 33 Seien U 1,, U m uiv N(0, 1) Dann heißt die Verteilung von S 2 = U U 2 m (zentrale) χ 2 -Verteilung mit m Freiheitsgraden Notation: S 2 χ 2 m Die Verteilung von S 2 = (U 1 + δ) U 2 m heißt nichtzentrale χ 2 -Verteilung mit m Freiheitsgraden und Nichtzentralitätsparameter δ 2 Notation: S 2 χ 2 m(δ 2 ) 17
1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
Mehr6.1 Definition der multivariaten Normalverteilung
Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer
Mehr2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:
Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrKapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrInhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015
Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler
Mehr10.2 Linearkombinationen
147 Vektorräume in R 3 Die Vektorräume in R 3 sind { } Geraden durch den Ursprung Ebenen durch den Ursprung R 3 Analog zu reellen Vektorräumen kann man komplexe Vektorräume definieren. In der Definition
MehrKapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
Mehrx, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω
5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,
Mehr6 Hauptachsentransformation
6 Hauptachsentransformation A Diagonalisierung symmetrischer Matrizen (6.1) Satz: Sei A M(n n, R) symmetrisch. Dann gibt es eine orthogonale n n-matrix U mit U t AU = D Diagonalmatrix Es folgt: Die Spalten
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
MehrBC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2
Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 3: Lineares Modell, Klassifikation, PCA Randolf Altmeyer January 9, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrProf. Dr. Fred Böker
Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung
MehrMultivariate Verteilungen
Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig
MehrKlausur zur Vorlesung Lineare Algebra II, SoSe 2016,
Klausur zur Vorlesung Lineare Algebra II, SoSe 6, 6.7.6 Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen und Sätze aus der Vorlesung korrekt zu formulieren
MehrMusterlösung zur Serie 10
D-MATH, D-PHYS, D-CHAB Lineare Algebra II FS 1 Prof. Giovanni Felder, Thomas Willwacher Musterlösung zur Serie 1 1. a) Zur Erinnerung: Eine Äquivalenzrelation auf einer Menge M ist eine Relation, die die
Mehr5 Lineare Algebra (Teil 3): Skalarprodukt
5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale
MehrLösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink
Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung
MehrHauptachsentransformation: Eigenwerte und Eigenvektoren
Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung
MehrD-Math/Phys Lineare Algebra II FS 2017 Dr. Meike Akveld. Clicker Fragen
D-Math/Phys Lineare Algebra II FS 2017 Dr. Meike Akveld Clicker Fragen Frage 1 Wenn eine reelle Matrix einen Eigenvektor hat, so hat es unendlich viele Eigenvektoren Sei u K n einen Eigenvektor von A M
Mehr9 Höhere partielle Ableitungen und die Taylorformel
Vorlesung SS 29 Analsis 2 Prof Dr Siegfried Echterhoff 9 Höhere partielle Ableitungen und die Talorformel Definition 91 Sei U R n offen, f : U R m eine Funktion Dann heißt f 2-mal partiell differenzierbar,
Mehr6. Normale Abbildungen
SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische
MehrLINEARE ALGEBRA II. FÜR PHYSIKER
LINEARE ALGEBRA II FÜR PHYSIKER BÁLINT FARKAS 4 Rechnen mit Matrizen In diesem Kapitel werden wir zunächst die so genannten elementaren Umformungen studieren, die es ermöglichen eine Matrix auf besonders
MehrOrthogonalreihendarstellung eines zentrierten Gauß-Prozesses
Orthogonalreihendarstellung eines zentrierten Gauß-Prozesses Thomas Steinle Seminar Zufällige Felder Universität Ulm 18. November, 2008 Einleitung Inhalt Einleitung Wiederholung und Themenvorstellung Wichtiges
MehrVortrag 20: Kurze Vektoren in Gittern
Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die
MehrLineare Algebra: Determinanten und Eigenwerte
: und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b
Mehr, v 3 = und v 4 =, v 2 = V 1 = { c v 1 c R }.
154 e Gegeben sind die Vektoren v 1 = ( 10 1, v = ( 10 1. Sei V 1 = v 1 der von v 1 aufgespannte Vektorraum in R 3. 1 Dann besteht V 1 aus allen Vielfachen von v 1, V 1 = { c v 1 c R }. ( 0 ( 01, v 3 =
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
MehrVorlesung: Lineare Modelle
Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen
MehrAufgaben zu Kapitel 20
Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v
Mehr6 Symmetrische und hermitesche Matrizen
Mathematik für Physiker II, SS Freitag 4.6 $Id: quadrat.tex,v.8 /6/4 4:44:39 hk Exp hk $ 6 Symmetrische und hermitesche Matrizen 6. Prä-Hilberträume Wir sind gerade mit der Diskussion der sogenannten Ausgleichsgerade
MehrKapitel 1. Vektoren und Matrizen. 1.1 Vektoren
Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren
MehrÜbersicht Kapitel 9. Vektorräume
Vektorräume Definition und Geometrie von Vektoren Übersicht Kapitel 9 Vektorräume 9.1 Definition und Geometrie von Vektoren 9.2 Teilräume 9.3 Linearkombinationen und Erzeugendensysteme 9.4 Lineare Abhängigkeiten
Mehr4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau
312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind
Mehr10. Übung zur Linearen Algebra I -
. Übung zur Linearen Algebra I - en Kommentare an Hannes.Klarner@FU-Berlin.de FU Berlin. WS 29-. Aufgabe 37 i Für welche α R besitzt das lineare Gleichungssystem 4 αx + αx 2 = 4x + α + 2x 2 = α genau eine,
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrOrthonormalisierung. ein euklidischer bzw. unitärer Vektorraum. Wir setzen
Orthonormalisierung Wie schon im Falle V = R n erwähnt, erhalten wir durch ein Skalarprodukt eine zugehörige Norm (Länge) eines Vektors und in weiterer Folge eine Metrik (Abstand zwischen zwei Vektoren).
MehrLineare Algebra II 11. Übungsblatt
Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross 9 / Juni Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Minitest (Bearbeitung innerhalb von Minuten und ohne Benutzung des
MehrAufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 2009
I. (4 Punkte) Gegeben sei die Menge Aufgaben und Lösungen zur Klausur Lineare Algebra im Frühjahr 9 G := { a c b a, b, c R }. (a) Zeigen Sie, dass G zusammen mit der Matrizenmultiplikation eine Gruppe
MehrTechnische Universität München
Technische Universität München Michael Schreier Ferienkurs Lineare Algebra für Physiker Vorlesung Montag WS 2008/09 1 komplexe Zahlen Viele Probleme in der Mathematik oder Physik lassen sich nicht oder
MehrMathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen
Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β
Mehr40 Lokale Extrema und Taylor-Formel
198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:
Mehr6 Eigenwerte und Eigenvektoren
6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,
MehrLineare Algebra. 10. Übungsstunde. Steven Battilana.
Lineare Algebra. Übungsstunde Steven Battilana stevenb@student.ethz.ch November 3, 26 Erinnerung Gram-Schmidt Verfahren Sei V ein euklidischer/unitärer Vektorraum mit dim(v ) n < Gegeben: W span{v,...,
Mehr3 Vektorräume abstrakt
Mathematik I für inf/swt Wintersemester / Seite 7 Vektorräume abstrakt Lineare Unabhängigkeit Definition: Sei V Vektorraum W V Dann heißt W := LH(W := Menge aller Linearkombinationen aus W die lineare
Mehr2 Multivariate Normalverteilung
2 Multivariate Normalverteilung 2. Multivariate Normalverteilung Definition 2.. Normalverteilung Eine univariat normalverteilte Zufallsvariable X besitzt ie Dichte ) (x µ)2 f (x) = exp ( x R. 2π σ 2σ 2
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
MehrZusammenfassung. 2.7 Eigenwerte und Eigenvektoren 53. in 2.1: Lösung eines linearen Gleichungssystems
7 Eigenwerte und Eigenvektoren 53 Zusammenfassung in : Lösung eines linearen Gleichungssystems Formalisierung: a x + a x + + a n x n b a x + a x + + a n x n b a m x + a m x + + a mn x n b m A x b Lösungsmethode:
Mehr4.2 Die adjungierte Abbildung
4.2. DIE ADJUNGIERTE ABBILDUNG 177 4.2 Die adjungierte Abbildung Die Vektorräume dieses Paragraphen seien sämtlich euklidisch, die Norm kommt jetzt also vom inneren Produkt her, v = v v. Zu f Hom R (V,
Mehr7 Lineare Abbildungen und Skalarprodukt
Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u
MehrProseminar Lineare Algebra II, SS 11. Blatt
Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2
MehrQuadratische Formen. und. Symmetrische Matrizen
Quadratische Formen und Symmetrische Matrizen 1 Ouverture: Lineare Funktionen von R n nach R 1 2 Beispiel: n = 2 l : (x 1, x 2 ) T 0.8x 1 + 0.6x 2 = < x, g > mit g := (0.8, 0.6) T. Wo liegen alle x = (x
MehrEuklidische und unitäre Vektorräume
Kapitel 7 Euklidische und unitäre Vektorräume In diesem Abschnitt ist der Körper K stets R oder C. 7.1 Definitionen, Orthonormalbasen Definition 7.1.1 Sei K = R oder C, und sei V ein K-Vektorraum. Ein
MehrWiederholung von Linearer Algebra und Differentialrechnung im R n
Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:
Mehrund Unterdeterminante
Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,
Mehrund Unterdeterminante
Zusammenfassung: Determinanten Definition: Entwicklungssätze: mit und Unterdeterminante (streiche Zeile i & Spalte j v. A, bilde dann die Determinante) Eigenschaften v. Determinanten: Multilinearität,
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P Grohs T Welti F Weber Herbstsemester 25 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie 8 Aufgabe 8 Basen für Bild und Kern Gegeben sind die beiden 2 Matrizen:
MehrKlausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 2
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 25): Lineare Algebra und analytische Geometrie 2 2. (Frühjahr 29, Thema 3, Aufgabe 3) Gegeben sei die reelle 3 3 Matrix 4 2 A = 2 7 2 R 3 3. 2 2 a)
Mehr2.1 Gemeinsame-, Rand- und bedingte Verteilungen
Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die
MehrLösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Mehra b Q = b a 0 ) existiert ein Element p Q, so dass gilt: q 1 q 2 = 2 b 1 b 2 a 1 b 2 a 2 b 1 a 1 a 2 b 1 b 2 a 1 b 2 a 2 b 1 a b p = 1 det(q) C 2 2,
Aufgabe I Es sei Q die folgende Teilmenge von C 2 2 : { ( ) a b Q a, b C b a Hier bezeichnet der Querstrich die komplexe Konjugation Zeigen Sie: (a) Mit den üblichen Verknüpfungen + und für Matrizen ist
Mehr47 Singulärwertzerlegung
47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar
Mehr4 Lineare Abbildungen und Matrizen
Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt
MehrKapitel 3 Lineare Algebra
Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND
MehrKonfidenzbereiche. Kapitel Grundlagen. Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus,
Kapitel 4 Konfidenzbereiche 4.1 Grundlagen Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden
MehrMusterlösungen Blatt Mathematischer Vorkurs. Sommersemester Dr. O. Zobay. Matrizen
Musterlösungen Blatt 8 34007 Mathematischer Vorkurs Sommersemester 007 Dr O Zobay Matrizen Welche Matrixprodukte können mit den folgenden Matrizen gebildet werden? ( 4 5 A, B ( 0 9 7, C 8 0 5 4 Wir können
MehrLineare Algebra und Numerische Mathematik für D-BAUG
P. Grohs T. Welti F. Weber Herbstsemester 5 Lineare Algebra und Numerische Mathematik für D-BAUG ETH Zürich D-MATH Beispiellösung für Serie Aufgabe. Skalarprodukt und Orthogonalität.a) Bezüglich des euklidischen
MehrVorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10)
Vorlesung Mathematik für Ingenieure 3 (Wintersemester 2009/10) Kapitel 15: Eigenwerte und -vektoren Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom 5. November 2009) Diagonalisierbarkeit
Mehr3.3 Skalarprodukte 3.3. SKALARPRODUKTE 153
3.3. SKALARPRODUKTE 153 Hierzu müssen wir noch die Eindeutigkeit (Unabhängigkeit von der Wahl der Basis bzw. des Koordinatensystems) zeigen. Sei hierzu β eine Bilinearform und q die entsprechende quadratische
Mehr12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen
12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrD-CHAB Frühlingssemester 2018
D-CHAB Frühlingssemester 2018 Grundlagen der Mathematik II Dr Marcel Dettling Lösung 4 1) Nur für die folgenden Wahlen kann man das Produkt bilden: A A mit Dimension (2, 2) (2, 2) (2, 2): 1 2 A Y mit Dimension
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen
Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 7. Juni 2013 1 Binomialverteilung 2 Normalverteilung 3 T-Verteilung
Mehr9. Vorlesung Lineare Algebra, SVD und LSI
9. Vorlesung Lineare Algebra, SVD und LSI Grundlagen lineare Algebra Vektornorm, Matrixnorm Eigenvektoren und Werte Lineare Unabhängigkeit, Orthogonale Matrizen SVD, Singulärwerte und Matrixzerlegung LSI:Latent
Mehr4 Lineare Abbildungen Basisdarstellungen
4 Lineare Abbildungen Basisdarstellungen (4.1) Seien V,W endlich dimensionale K-Vektorräume, und sei T : V W linear. Sei {v 1,...,v } Basis von V und {w 1,...,w M } Basis von W. Sei T (v j ) = M a kj w
Mehr9. Übungsblatt zur Mathematik I für Maschinenbau
Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas 9. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS /..-4.. Aufgabe G (Koordinatentransformation)
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn
MehrMusterlösung der Klausur zur linearen Algebra II
David Blottière SS 7 Patrick Schützdeller Universität Paderborn Julia Sauter Musterlösung der Klausur zur linearen Algebra II Aufgabe 1 Bestimmen Sie Jordan-Normalformen der folgenden Matrizen, und schreiben
MehrViele wichtige Operationen können als lineare Abbildungen interpretiert werden. Beispielsweise beschreibt die lineare Abbildung
Kapitel 3 Lineare Abbildungen Lineare Abbildungen sind eine natürliche Klasse von Abbildungen zwischen zwei Vektorräumen, denn sie vertragen sich per definitionem mit der Struktur linearer Räume Viele
MehrÖkonometrische Analyse
Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der
MehrÜbungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil
Dr. Christof Luchsinger Übungsblatt zur Vorlesung Statistische Methoden - freiwilliger Teil Rechnen mit Matrizen, Multivariate Normalverteilung Herausgabe des Übungsblattes: Woche 0, Abgabe der Lösungen:
MehrMathematische Grundlagen für die Vorlesung. Differentialgeometrie
Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie
MehrLösungsskizze zur Wiederholungsserie
Lineare Algebra D-MATH, HS Prof. Richard Pink Lösungsskizze zur Wiederholungsserie. [Aufgabe] Schreibe die lineare Abbildung f : Q Q 5, x +x +x x x +x +6x f x := x +x +8x x x +x +x. x +x +5x als Linksmultiplikation
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
Mehr10 Unitäre Vektorräume
10 Unitäre Vektorräume Pink: Lineare Algebra 2014/15 Seite 98 10 Unitäre Vektorräume Die Theorie komplexer Vektorräume mit Skalarprodukt folgt denselben Linien wie die Theorie reeller Vektorräume mit Skalarprodukt;
MehrLösungsskizzen der Klausur zur Linearen Algebra im Herbst 2015
sskizzen der Klausur zur Linearen Algebra im Herbst 5 Aufgabe I. Es sei (G, ) eine Gruppe mit neutralem Element e und M {x G x x e}. Zeigen Sie: (a) Ist G kommutativ, so ist M eine Untergruppe von G. (b)
MehrOrientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops
15. DETERMINANTEN 1 Für n Vektoren b 1,..., b n im R n definiert man ihre Determinante det(b 1,..., b n ) Anschaulich gilt det(b 1,..., b n ) = Orientierung der Vektoren b 1,..., b n Volumen des von den
MehrExkurs: Klassifikation orthogonaler 2 2-Matrizen.
Exkurs: Klassifikation orthogonaler 2 2-Matrizen. Aussage: Es gilt: (a) Jede orthogonale 2 2 Matrix A mit det(a) = 1 hat das Aussehen cos(α) sin(α) D(α) = sin(α) cos(α), wobei α [0,2π[. Ist sin(α) 0, so
Mehr5.7 Lineare Abhängigkeit, Basis und Dimension
8 Kapitel 5. Lineare Algebra 5.7 Lineare Abhängigkeit, Basis und Dimension Seien v,...,v n Vektoren auseinemvektorraumv über einem KörperK. DieMenge aller Linearkombinationen von v,...,v n, nämlich { n
Mehr