y = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0

Größe: px
Ab Seite anzeigen:

Download "y = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0"

Transkript

1 8 Lineare Modelle In diesem Abschnitt betrachten wir eine spezielle Klasse von statistischen Modellen, in denen die Parameter linear auftauchen Wir beginnen mit zwei Beispielen Beispiel 8 (lineare Regression) wir nehmen an, dass ein physikalischer/biologischer Zusammenhang zwischen einer Größe y und einer Größe x durch die Gleichung y = b 0 + b x beschrieben werden kann Dabei sind b 0, b unbekannte Parameter, die aus n Beobachtungen geschätzt werden sollen Für diese Beobachtungen nehmen wir an, dass sie Realisationen von Zufallsvariablen Y j = b 0 + b x j + ε j, sind, wobei ε,, ε n unabhängig, identisch verteilte Zufallsvariable mit E[ε j ] = 0, V (ε j ) = σ 2 > 0 bezeichnen Fasst man die Größen Y, Y n in einem Vektor zusammen, so erhält man Y = Y Y n = x x n X [ b 0 b b ] + ε ε n ε = Xb + ε, wobei ε = (ε,, ε n ) T den Vektor der Versuchsfehler bezeichnet Typische Fragen in einem solchen linearen Regressionsmodell sind ) Wie groß sind b 0 bzw b? 2) Hat die Größe x einen Einfluss auf y, dh gilt die Hypothese: H : b = 0 3) Gilt die HypotheseH : b 0 = 0 Wichtige Anwendungen des linearen Regressionsmodells findet man ua in der Biologie, Physik und Ökonomie Beispiel 82 (einfaktorielle Varianzanalyse) In einem Experiment soll der Einfluss verschiedener Futtersorten auf die Gewichtszunahme von Versuchstieren untersucht werden Dazu werden n Versuchstiere auf a Gruppen verteilt In jeder dieser Gruppen werden dann n i (i =,, a) Tiere mit der Futtersorte i gefüttert Als statistisches Modell für diesen Versuch verwendet man oft das Modell der einfaktoriellen Varianzanalyse, dh Y ij = µ i + ε ij i =,, a (Futtersorten) Gewichtszunahme Einfluss Messfehler j =,, n i (Anzahl der Tiere in Gruppe i ) des j-ten Tiers der Sorte i in Gruppe i

2 Fasst man die Daten Y,, Y n (n = n + + n a ) in einem Vektor zusammen, so erhält man die Darstellung Y ε Y n n µ Y Y := 2 = n2 0 ε n 0 + =: Xb + ε µ Y a a na ε a b X ε ana Y ana ε Wichtige Fragen in diesem Modell sind: () Wie groß ist der Einfluss von Futtersorte i auf die Gewichtszunahme der Tiere, dh wie groß sind die µ i? (2) Besteht ein Unterschied zwischen den Futtersorten bzgl der Gewichtszunahme der Versuchstiere, dh gilt die Hypothese: H : µ = = µ a? (3) Wie groß ist der Unterschied zwischen Futtersorte und 2, dh gilt die Hypothese H : µ = µ 2? (4) Wie groß ist max a i= µ i? Definition 83 Es sei X R n k, b R k (n k), ε = (ε,, ε n ) T eine n dim Zufallsvariable so, dass mit Z N (0, σ 2 I n ) gilt: ( ) E[ε η i ε η 4 i 4 ] = E[Z η i Z η 4 i 4 ] i,, i 4 {,, n} η,, η 4 {0,, 4} mit 4 j= η j 4 [dh die Momente von ε bis zur Ordnung 4 stimmen mit den Momenten einer N (0, σ 2 I n ) Verteilung überein] Das Modell () Y = Xb + ε heißt lineares Modell mit Momentenannahme (LMM) Die Matrix X heißt Designmatrix Gilt zusätzlich ε N (0, σ 2 I n ), so heißt das Modell () lineares Modell mit Normalverteilungsannahme (L Bemerkung: Bezeichnet r = Rang(X) den Rang der Matrix X, R(X) = {Xb b R k } R n 2

3 das Bild von X (r dim UVR von R n ), so ist eine naheliegende Schätzung für Xb die orthogonal Projektion P 0 Y von Y auf R(X) Als Schätzer für den Parameter b verwendet man dann jeden Wert ˆb, der die Gleichung P 0 Y = Xˆb erfüllt Es stellt sich nun die Frage, wie man die orthogonale Projektion auf R(X) berechnet Definition 84 Für eine Matrix A R m n heißt die Matrix G R n m eine verallgemeinerte Inverse von A genau dann, wenn gilt Mit AGA = A A := {G R n m AGA = A} wird die Menge aller verallgemeierten Inversen der Matrix A bezeichnet Man schreibt in einer Formel A statt G, falls diese Formel von der Wahl G A unabhängig ist (zb AA A = A) Lemma 85 (range inclusion) Es sei X R n k, V R n s, dann gilt () ( ) R(X) R(V ) V V X = X (2) gilt ( ) und V 0 (s = n), so folgt a) X T V X 0 b) R(X T ) = R(X T V X) Lemma 86 Im linearen Modell () werden die orthogonalen Projektionen auf die Untervektorräume R(X) und auf das orthogonale Komplement durch die Matrizen beschrieben R(X) := {z R n z T x = 0 x R(X)} P 0 = X(X T X) X T und R = I n P 0 = I n X(X T X) X T Bemerkung 87 Man beachte: (Übung): P 0 ist orthogonale Projektion P 2 0 = P 0 idempotent und P T 0 = P 0 Einen naheliegenden Schätzer für die Größen Xb und σ 2 im linearen Modell () erhält man dann durch P 0 Y = X(X T X) X T Y ˆσ 2 = n r RY 2 = n r Y T RY = n r Y T (I n X(X T X) X T )Y 3

4 wobei die Mastrix R durch R = I n X(X T X) X T definiert ist Man beachte außerdem: (Übung) ˆσ 2 = Y Xˆb 2 /(n r) = (Y Xˆb) T (Y Xˆb)/(n r) Lemma 88 Es bezeichne Y eine n-dimensionale Zufallsvariable mit E[Y ] = µ, Var(Y ) = V > 0, A R n n, dann gilt () E[Y T AY ] = µ T Aµ + Spur (AV) (2) Hat Y Momente bis zur Ordnung 4 wie eine N (µ, V ) Verteilung [vgl die Darstellung ( ) in Definition 83], so gilt (a) Cov(Y, Y T AY ) = 2V Aµ (b) Ist zusätzlich µ = 0 und ist B R n n eine weitere Matrix, so gilt Cov (Y T AY, Y T BY ) = 2 Spur (AV BV ) Folgerung 89 In dem linearen Modell () gilt mit den Bezeichnungen aus Lemma 86 E[P 0 Y ] = Xb Damit erhält man für µ = Xb mit Lemma 85 µ T Rµ = 0, und es ergibt sich E[ˆσ 2 ] = σ2 n r Spur(I n X(X T X) T ) = σ 2 Für die letzte Identität haben wir die Eigenschaft benutzt, dass eine Projektion als Eigenwerte nur die Zahlen 0 oder besitzt Da die Summe der Eigenwerte der Matrix P gleich der Spur ist, erhält man Spur (P ) = r(p ) Man beachte, dass die Schätzer P 0 Y und ˆσ 2 erwartungstreue Schätzer für die Parameter Xb und σ 2 sind Für r < k ist die Lösung ˆb der Gleichung ( ) Xˆb = P 0 Y = X(X T X) X T Y nicht eindeutig bestimmt Falls k = r gilt, so erhält man mit Lemma 85 (X T X) = (X T X) und damit ist die Gleichung ( ) äquivalent zu (X T X)ˆb = X T Y Diese Gleichungen heißen Normalgleichungen Als Lösung erhält man mit ˆb = (X T X) X T Y einen Schätzer für b Wegen ist dieser Schätzer auch erwartungstreu E[ˆb] = (X T X) X T Xb = b 4

5 Satz 80 (Gauß-Markov) Im linearen Modell mit Momentenannahme und r = r(x) = k gilt: () Die Schätzer ˆb = (X T X) X T Y und ˆσ 2 = n k Y T (I n X(X T X) X T )Y sind erwartungstreue Schätzer für die Parameter b und σ 2 Die Schätzer ˆb und ˆσ 2 sind unkorreliert (2) ˆb ist bester linearer e-treuer Schätzer für b, dh b = LY, E[ b] = b Var( b) Var(ˆb) = σ 2 (X T X) (BLUE best linear unbiased estimator) (3) ˆσ 2 ist bester quadratischer erwartungstreuer Schätzer für σ 2, dh für alle quadratischen Schätzer der Form σ 2 = Y T AY mit E[ σ 2 ] = σ 2 gilt Var( σ 2 ) Var(ˆσ 2 ) Lemma 8 Sei Y N n (0, V ) eine n-dimensionale Zufallsvariable () Für Matrizen A R p n, B R q n gilt AY, BY stochastisch unabhängig AV B T = 0 (2) Für Matrizen A R p n, B R n n gilt: Ist B Projektion, dann sind die Zufallsvariablen Y T BY und AY stochastisch unabhängig, falls AV B = 0 gilt Satz 82 Im linearen Modell mit Normalverteilungsannahme und r(x) = k ist (ˆb, ˆσ 2 ) bester (bzgl der Loewner Ordnung der Covarianzmatrizen) erwartungstreuer Schätzer für den Parameter (b, σ 2 ) Außerdem sind die Schätzer ˆb, ˆσ 2 stochastisch unabhängig Beispiel 83 (lineare Regression) Wir betrachten das Modell aus Beispiel 8 Y j = b 0 + b t j + ε j j =,, n E[ε j ] = 0 E[ε 2 j] = σ 2 > 0 In diesem Modell gilt X = b = ( t t n ( ) b 0 b 5 ) T

6 Mit den Bezeichnungen t = n n j= t j und t 2 = n n j= t2 j gilt dann ( ) X T t X = n t t 2 Diese Matrix ist genau dann invertierbar, wenn nicht alle t j Determinante der Matrix X T X erhält man gleich sind, denn für die X T X = n n (t j t) 2 Es ergibt sich damit für die Größen im Satz von Gauß-Markov ( n ) X T j= Y = Y j n j= t jy j (X T X) = ( ) t 2 t n j= (t j t) 2 t Für den Schätzer des Parameters b = (b 0, b ) T in Satz 80 erhält man schließlich ( ) ˆb0 ˆb = ˆb mit ˆb0 = Ȳ ˆb t n j= b = (t j t)(y j Ȳ ) n j= (t j t) 2 Nach Satz 80 ist ˆb bester linearer erwartungstreuer Schätzer für den Parameter b und die Statistik ˆσ 2 = n 2 n (Y j ˆb 0 ˆb t j ) 2 ist bester quadratischer erwartungstreuer Schätzer für σ 2 j= Bemerkung 84 Oft is man nicht direkt an dem Parameter b sondern an Linearkombinationen K T b mit K R k s interessiert (man denke im Beispiel 83 an die Schätzung der Steigung b ) Ein naheliegender Schätzer in diesem Fall ist die Statistik K Tˆb = K T (X T X) X T Y (falls r(x) = k gilt) Für die Eindeutigkeit dieses Schätzers ist die Annahme r(x) = k nicht nötig Es reicht hier, die Voraussetzung R(K) R(X T ) zu fordern Dann gilt nämlich mit Lemma 6

7 85, dass der Schätzer K T (X T X) X T Y unabhängig von der Wahl der verallgemeinerten Inversen der Matrix X T X ist und E[K T (X T X) X T Y ] = K T b gilt Damit ist dieser Schätzer erwartungstreu für K T b Definition 85 Für eine Matrix K R k s mit r(k) = s heißt der Parameter K T b im linearen Modell () schätzbar : R(K) R(X T ) Satz 86 Unter den obigen Annahmen gilt: (a) Im linearen Modell mit Momentenannahme ist K Tˆb := K T (X T X) X T Y bester linearer erwartungstreuer Schätzer für den Parameter K T b mit Varianz σ 2 K T (X T X) K R s s (b) Im linearen Modell mit Normalverteilungsannahme hat der Schätzer K Tˆb gleichmäßig kleinste Kovarianzmatrix unter allen erwartungstreuen Schätzern für den Parameter K T b Beispiel 87 (Fortsetzung des Beispiels 83) Für die Matrix K = ( 0) erhält man K T b = b 0 Wählt man alle Beobachtungen im Nullpunkt so, erhält man für die Matrix X, ( ) T X = 0 0 Der Parameter b 0 is schätzbar, wegen R(K) R(X T ) und wegen Lemma 85 ist die Matrix K T (X T X) X T Y unabhängig von der Wahl der verallgemeinerten Inversen Wegen ( ) ( ) X T n 0 X = G = 0 (X T X) 0 0 n 0 0 erhält man K Tˆb = K T (X T X) X T Y = Ȳn als gleichmäßig bester erwartungstreuer Schätzer für den Achsenabschnitt b 0 Satz 88 Es sei Y N n (µ, σ 2 I n ) eine n-dimensionale Zufallsvariable P R n n eine Matrix mit P T = P, r(p ) = r Dann gilt: P ist orthogonale Projektion (dh P 2 = P ) genau dann, wenn gilt Q = (Y µ)t P (Y µ) σ 2 X 2 r Bemerkung 89 Wir stellen in dieser Bemerkung einige weitere Beispiele für die Verteilung von quadratischen Formen zusammen: 7

8 () Es sei Y N n (µ, σ 2 I n ), P T = P, P 2 = P, r = r(p ) = Spur(P ), dann gilt σ 2 Y T P Y X 2 r,δ 2 mit δ 2 = (µ T P µ)/σ 2 (2) Es sei Y N n (µ, V ); V > 0; A R n n ; A T = A, r = r(a), dann gilt (a) (Y µ) T A(Y µ) Xr 2 AV A = A (b) AV A = A Y T AY X 2 r(a),δ mit δ 2 = µ T Aµ 2 (3) Es sei X N n (µ, V ), µ R(V ), V 0 und G V eine verallgemeinerte Inverse von V mit G T = G und GV G = G (z B die Moore-Penrose Inverse), dann gilt mit δ 2 = µ T Gµ X T GX X 2 r(v ),δ 2 Lemma 820 Im linearen Modell mit Normalverteilungsannahme und R(K) R(X T ) gilt: K Tˆb := K T (X T X) X T Y N s (K T b, σ 2 K T (X T X) K) n r σ 2 ˆσ 2 = σ 2 Y T (I n X(X T X) X T )Y X 2 n r, wobei r = r(x) den Rang der Matrix X bezeichnet Beispiel 82 Wir benutzen nun diese Resultate, um ein Konfidenzellipsoid für den Parameter K T b zu bestimmen, falls R(K) R(X T ) gilt Wegen Lemma 820 erhält man Daher ergibt sich aus Lemma 89(3) d = K Tˆb K T b N (0, σ 2 (K T (X T X) K)) H = d T (K T (X T X) K) d σ 2 X 2 t mit t = r(k), und man erhält aus der Definition der F -Verteilung t H/σ2 ˆσ 2 /σ 2 D X 2 t r X F 2 t,n r n r n r Dabei erhält man die Unabhängigkeit des Zählers und Nenners aus Lemma 8 und der Identität Damit ergibt sich aus der Identität (K T (X T X) X T )(I n X(X T X) X T ) = 0 P [(K Tˆb K T b) T (K T (X T X) K) (K Tˆb K T b) tˆσ 2 F t,n r, α ) = α ein Konfidenzellipsoid für K T b Man beachte: Die Matrix K(K T (X T X) K) K T ist unabhängig von der Wahl der verallgemeinerten Inversen (wegen Lemma 85) Falls zusätzlich t = r(k) = s gilt, so erhält man mit Teil b aus Lemma 85, dass die Inverse der Matrix K T (X T X) K existiert 8

Die Stochastischen Eigenschaften von OLS

Die Stochastischen Eigenschaften von OLS Die Stochastischen Eigenschaften von OLS Das Bivariate Modell Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Wiederholung

Mehr

Multivariate Verteilungen. Gerhard Tutz LMU München

Multivariate Verteilungen. Gerhard Tutz LMU München Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS

Mehr

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3. Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Einführung in die Induktive Statistik: Regressionsanalyse

Einführung in die Induktive Statistik: Regressionsanalyse Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Lineare Regression (Ein bisschen) Theorie

Lineare Regression (Ein bisschen) Theorie Kap. 6: Lineare Regression (Ein bisschen) Theorie Lineare Regression in Matrixform Verteilung des KQ-Schätzers Standardfehler für OLS Der Satz von Gauss-Markov Das allgemeine lineare Regressionsmodell

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 29.11.2013 Alexander Lytchak 1 / 13 Wiederholung Der Rang einer linearen Abbildung ist gleich dem Spaltenrang der darstellenden

Mehr

LS-Schätzer. SSE(β) = (y µ) t (y µ) = y t y 2β t X t y + β t X t Xβ. Minimiere SSE(β) bzgl. β: Minimum definiert durch

LS-Schätzer. SSE(β) = (y µ) t (y µ) = y t y 2β t X t y + β t X t Xβ. Minimiere SSE(β) bzgl. β: Minimum definiert durch LS-Schätzer Sei µ = Xβ mit rg(x) = p und β = (β 1,..., β p ) t SSE(β) = (y µ) t (y µ) Minimiere SSE(β) bzgl. β: = y t y 2β t X t y + β t X t Xβ β SSE(β) = 2Xt y + 2X t Xβ. Minimum definiert durch X t X

Mehr

Kapitel 3 Schließende Statistik

Kapitel 3 Schließende Statistik Motivation Grundgesamtheit mit unbekannter Verteilung F Stichprobe X 1,...,X n mit Verteilung F Realisation x 1,...,x n der Stichprobe Rückschluss auf F Dr. Karsten Webel 160 Motivation (Fortsetzung) Kapitel

Mehr

Deskriptive Beschreibung linearer Zusammenhänge

Deskriptive Beschreibung linearer Zusammenhänge 9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,

Mehr

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers 4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis

Mehr

Schätzung im multiplen linearen Modell VI

Schätzung im multiplen linearen Modell VI Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist: Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr

Kurs Empirische Wirtschaftsforschung

Kurs Empirische Wirtschaftsforschung Kurs Empirische Wirtschaftsforschung 5. Bivariates Regressionsmodell 1 Martin Halla Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz 1 Lehrbuch: Bauer/Fertig/Schmidt (2009), Empirische

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

Punktschätzer Optimalitätskonzepte

Punktschätzer Optimalitätskonzepte Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra

Mehr

6. Normale Abbildungen

6. Normale Abbildungen SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische

Mehr

Prof. Dr. Fred Böker

Prof. Dr. Fred Böker Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte

Mehr

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,

Mehr

Vorlesung: Lineare Modelle

Vorlesung: Lineare Modelle Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient

Mehr

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung

Lösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt

Mehr

Vektorräume und Rang einer Matrix

Vektorräume und Rang einer Matrix Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

2.2 Lineare Gleichungssysteme (LGS)

2.2 Lineare Gleichungssysteme (LGS) 2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte

Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann Probe-Klausur zur Vorlesung Ökonometrie Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte (die eigentliche Klausur wird

Mehr

Lineare Modelle. Algebraische Grundlagen und statistische Anwendungen

Lineare Modelle. Algebraische Grundlagen und statistische Anwendungen Lineare Modelle Algebraische Grundlagen und statistische Anwendungen Von Univ.-Prof. Dr.-Ing. Wilhelm Caspary und Univ.-Prof. Dr. rer. nat. Klaus Wichmann R. Oldenbourg Verlag München Wien V INHALTSVERZEICHNIS

Mehr

Grundgesamtheit und Stichprobe

Grundgesamtheit und Stichprobe Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

6.1 Definition der multivariaten Normalverteilung

6.1 Definition der multivariaten Normalverteilung Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer

Mehr

32 2 Lineare Algebra

32 2 Lineare Algebra 3 Lineare Algebra Definition i Die Vektoren a,, a k R n, k N, heißen linear unabhängig genau dann, wenn für alle λ,, λ k R aus der Eigenschaft λ i a i λ a + + λ k a k folgt λ λ k Anderenfalls heißen die

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr. Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;

Mehr

3 Bilinearform, Basen und Matrizen

3 Bilinearform, Basen und Matrizen Lineare Algebra II 2. Oktober 2013 Mitschrift der Vorlesung Lineare Algebra II im SS 2013 bei Prof. Peter Littelmann von Dario Antweiler an der Universität zu Köln. Kann Fehler enthalten. Veröentlicht

Mehr

4 Lineare Abbildungen und Matrizen

4 Lineare Abbildungen und Matrizen Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt

Mehr

Proxies, Endogenität, Instrumentvariablenschätzung

Proxies, Endogenität, Instrumentvariablenschätzung 1 4.2 Multivariate lineare Regression: Fehler in den Variablen, Proxies, Endogenität, Instrumentvariablenschätzung Literatur: Wooldridge, Kapitel 15, Appendix C.3 und Kapitel 9.4 Wahrscheinlichkeitslimes

Mehr

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen

Mehr

Blatt 10 Lösungshinweise

Blatt 10 Lösungshinweise Lineare Algebra und Geometrie I SS 05 Akad. Rätin Dr. Cynthia Hog-Angeloni Dr. Anton Malevich Blatt 0 Lösungshinweise 0 0 Aufgabe 0. Es seien die Vektoren u =, v = und w = in R gegeben. a # Finden Sie

Mehr

oder A = (a ij ), A =

oder A = (a ij ), A = Matrizen 1 Worum geht es in diesem Modul? Definition und Typ einer Matrix Spezielle Matrizen Rechenoperationen mit Matrizen Rang einer Matrix Rechengesetze Erwartungswert, Varianz und Kovarianz bei mehrdimensionalen

Mehr

Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr.

Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr. Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof Dr Enno Mammen 0 Exkurs: Orthogonaltransformationen, Projektionen im R n In diesem

Mehr

Beispiele. Grundlagen. Kompakte Operatoren. Regularisierungsoperatoren

Beispiele. Grundlagen. Kompakte Operatoren. Regularisierungsoperatoren Beispiele Grundlagen Kompakte Operatoren Regularisierungsoperatoren Transportgleichung Dierenzieren ( nx ) (f δ n ) (x) = f (x) + n cos, x [0, 1], δ Regularisierung!! Inverse Wärmeleitung Durc f (f δ n

Mehr

Übungen zum Ferienkurs Lineare Algebra WS 14/15

Übungen zum Ferienkurs Lineare Algebra WS 14/15 Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen

Mehr

6.2 Lineare Regression

6.2 Lineare Regression 6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )

Mehr

Seminar Quantitatives Risikomanagement

Seminar Quantitatives Risikomanagement Seminar Quantitatives Risikomanagement Multivariate Modelle II Toni Bastgen Mathematisches Institut der Universität zu Köln Sommersemester 2008 Betreuung: Prof. Schmidli, J. Eisenberg Inhaltsverzeichnis

Mehr

Lineare Regression und Varianzanalyse

Lineare Regression und Varianzanalyse Lineare Regression und Varianzanalyse Von Prof. Dr. Fritz Pokropp Universität der Bundeswehr Hamburg R. Oldenbourg Verlag München Wien Inhaltsverzeichnis 1 Einleitung 1 1.1 Grundstruktur linearer Modelle

Mehr

4 Bilinearformen und Skalarprodukte

4 Bilinearformen und Skalarprodukte 4 Bilinearformen und Skalarprodukte 4 Grundlagen über Bilinearformen Definition 4 Sei V ein K-Vektorraum Eine Bilinearform b auf V ist eine Abbildung b : V V K mit folgenden Eigenschaften: (B) x, y, z

Mehr

Grundgesamtheit und Stichprobe

Grundgesamtheit und Stichprobe Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U

Mehr

7.3 Unitäre Operatoren

7.3 Unitäre Operatoren Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren

Mehr

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen. Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

5. Stichproben und Statistiken

5. Stichproben und Statistiken 5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Zusammenfassung: Einfache lineare Regression I

Zusammenfassung: Einfache lineare Regression I 4 Multiple lineare Regression Multiples lineares Modell 41 Zusammenfassung: Einfache lineare Regression I Bisher: Annahme der Gültigkeit eines einfachen linearen Modells y i = β 0 + β 1 x i + u i, i {1,,

Mehr

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau

4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau 312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

3.3 Methoden zur Evaluierung von Schätzern

3.3 Methoden zur Evaluierung von Schätzern 3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,

Mehr

x p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren!

x p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren! Aufgabe T- Gegeben seien zwei normalverteilte Zufallsvariablen X N(µ, σ) 2 und X 2 N(µ 2, σ2) 2 mit pdf p (x) bzw. p 2 (x). Bestimmen Sie x (als Funktion der µ i, σ i, sodass x p (x )dx = + x p 2 (x )dx,

Mehr

Lineare Algebra II Lösungen der Klausur

Lineare Algebra II Lösungen der Klausur Prof Dr K Doerk 673 Jens Mandavid Christian Sevenheck Lineare Algebra II Lösungen der Klausur (a Diese Aussage ist richtig, sie stimmt nämlich für k = Sei nämlich n N beliebig und bezeichne N die Menge

Mehr

3 Lineare Algebra Vektorräume

3 Lineare Algebra Vektorräume 3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Vorbereitung auf 3. Übungsblatt (Präsenzübungen) - Lösungen

Vorbereitung auf 3. Übungsblatt (Präsenzübungen) - Lösungen Prof Dr Rainer Dahlhaus Statistik 1 Wintersemester 2016/2017 Vorbereitung auf Übungsblatt (Präsenzübungen) - Lösungen Aufgabe P9 (Prognosen und Konfidenzellipsoide in der linearen Regression) Wir rekapitulieren

Mehr

Eigenwerte und Diagonalisierung

Eigenwerte und Diagonalisierung Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

2.Tutorium Multivariate Verfahren

2.Tutorium Multivariate Verfahren 2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung

Mehr

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 5

Klausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 5 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 5/6): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung

Mehr

3 Vektorräume abstrakt

3 Vektorräume abstrakt Mathematik I für inf/swt Wintersemester / Seite 7 Vektorräume abstrakt Lineare Unabhängigkeit Definition: Sei V Vektorraum W V Dann heißt W := LH(W := Menge aller Linearkombinationen aus W die lineare

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)

Mehr

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5

Klausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Lösungsskizze zur Wiederholungsserie

Lösungsskizze zur Wiederholungsserie Lineare Algebra D-MATH, HS Prof. Richard Pink Lösungsskizze zur Wiederholungsserie. [Aufgabe] Schreibe die lineare Abbildung f : Q Q 5, x +x +x x x +x +6x f x := x +x +8x x x +x +x. x +x +5x als Linksmultiplikation

Mehr

Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen

Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen Kapitel 9 Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen 9 Definitionen, Eigenschaften Wir betrachten jetzt p Zufallsvariablen X, X 2,, X p Alle Definitionen, Notationen und Eigenschaften

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr