y = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0
|
|
- Dirk Benedict Egger
- vor 5 Jahren
- Abrufe
Transkript
1 8 Lineare Modelle In diesem Abschnitt betrachten wir eine spezielle Klasse von statistischen Modellen, in denen die Parameter linear auftauchen Wir beginnen mit zwei Beispielen Beispiel 8 (lineare Regression) wir nehmen an, dass ein physikalischer/biologischer Zusammenhang zwischen einer Größe y und einer Größe x durch die Gleichung y = b 0 + b x beschrieben werden kann Dabei sind b 0, b unbekannte Parameter, die aus n Beobachtungen geschätzt werden sollen Für diese Beobachtungen nehmen wir an, dass sie Realisationen von Zufallsvariablen Y j = b 0 + b x j + ε j, sind, wobei ε,, ε n unabhängig, identisch verteilte Zufallsvariable mit E[ε j ] = 0, V (ε j ) = σ 2 > 0 bezeichnen Fasst man die Größen Y, Y n in einem Vektor zusammen, so erhält man Y = Y Y n = x x n X [ b 0 b b ] + ε ε n ε = Xb + ε, wobei ε = (ε,, ε n ) T den Vektor der Versuchsfehler bezeichnet Typische Fragen in einem solchen linearen Regressionsmodell sind ) Wie groß sind b 0 bzw b? 2) Hat die Größe x einen Einfluss auf y, dh gilt die Hypothese: H : b = 0 3) Gilt die HypotheseH : b 0 = 0 Wichtige Anwendungen des linearen Regressionsmodells findet man ua in der Biologie, Physik und Ökonomie Beispiel 82 (einfaktorielle Varianzanalyse) In einem Experiment soll der Einfluss verschiedener Futtersorten auf die Gewichtszunahme von Versuchstieren untersucht werden Dazu werden n Versuchstiere auf a Gruppen verteilt In jeder dieser Gruppen werden dann n i (i =,, a) Tiere mit der Futtersorte i gefüttert Als statistisches Modell für diesen Versuch verwendet man oft das Modell der einfaktoriellen Varianzanalyse, dh Y ij = µ i + ε ij i =,, a (Futtersorten) Gewichtszunahme Einfluss Messfehler j =,, n i (Anzahl der Tiere in Gruppe i ) des j-ten Tiers der Sorte i in Gruppe i
2 Fasst man die Daten Y,, Y n (n = n + + n a ) in einem Vektor zusammen, so erhält man die Darstellung Y ε Y n n µ Y Y := 2 = n2 0 ε n 0 + =: Xb + ε µ Y a a na ε a b X ε ana Y ana ε Wichtige Fragen in diesem Modell sind: () Wie groß ist der Einfluss von Futtersorte i auf die Gewichtszunahme der Tiere, dh wie groß sind die µ i? (2) Besteht ein Unterschied zwischen den Futtersorten bzgl der Gewichtszunahme der Versuchstiere, dh gilt die Hypothese: H : µ = = µ a? (3) Wie groß ist der Unterschied zwischen Futtersorte und 2, dh gilt die Hypothese H : µ = µ 2? (4) Wie groß ist max a i= µ i? Definition 83 Es sei X R n k, b R k (n k), ε = (ε,, ε n ) T eine n dim Zufallsvariable so, dass mit Z N (0, σ 2 I n ) gilt: ( ) E[ε η i ε η 4 i 4 ] = E[Z η i Z η 4 i 4 ] i,, i 4 {,, n} η,, η 4 {0,, 4} mit 4 j= η j 4 [dh die Momente von ε bis zur Ordnung 4 stimmen mit den Momenten einer N (0, σ 2 I n ) Verteilung überein] Das Modell () Y = Xb + ε heißt lineares Modell mit Momentenannahme (LMM) Die Matrix X heißt Designmatrix Gilt zusätzlich ε N (0, σ 2 I n ), so heißt das Modell () lineares Modell mit Normalverteilungsannahme (L Bemerkung: Bezeichnet r = Rang(X) den Rang der Matrix X, R(X) = {Xb b R k } R n 2
3 das Bild von X (r dim UVR von R n ), so ist eine naheliegende Schätzung für Xb die orthogonal Projektion P 0 Y von Y auf R(X) Als Schätzer für den Parameter b verwendet man dann jeden Wert ˆb, der die Gleichung P 0 Y = Xˆb erfüllt Es stellt sich nun die Frage, wie man die orthogonale Projektion auf R(X) berechnet Definition 84 Für eine Matrix A R m n heißt die Matrix G R n m eine verallgemeinerte Inverse von A genau dann, wenn gilt Mit AGA = A A := {G R n m AGA = A} wird die Menge aller verallgemeierten Inversen der Matrix A bezeichnet Man schreibt in einer Formel A statt G, falls diese Formel von der Wahl G A unabhängig ist (zb AA A = A) Lemma 85 (range inclusion) Es sei X R n k, V R n s, dann gilt () ( ) R(X) R(V ) V V X = X (2) gilt ( ) und V 0 (s = n), so folgt a) X T V X 0 b) R(X T ) = R(X T V X) Lemma 86 Im linearen Modell () werden die orthogonalen Projektionen auf die Untervektorräume R(X) und auf das orthogonale Komplement durch die Matrizen beschrieben R(X) := {z R n z T x = 0 x R(X)} P 0 = X(X T X) X T und R = I n P 0 = I n X(X T X) X T Bemerkung 87 Man beachte: (Übung): P 0 ist orthogonale Projektion P 2 0 = P 0 idempotent und P T 0 = P 0 Einen naheliegenden Schätzer für die Größen Xb und σ 2 im linearen Modell () erhält man dann durch P 0 Y = X(X T X) X T Y ˆσ 2 = n r RY 2 = n r Y T RY = n r Y T (I n X(X T X) X T )Y 3
4 wobei die Mastrix R durch R = I n X(X T X) X T definiert ist Man beachte außerdem: (Übung) ˆσ 2 = Y Xˆb 2 /(n r) = (Y Xˆb) T (Y Xˆb)/(n r) Lemma 88 Es bezeichne Y eine n-dimensionale Zufallsvariable mit E[Y ] = µ, Var(Y ) = V > 0, A R n n, dann gilt () E[Y T AY ] = µ T Aµ + Spur (AV) (2) Hat Y Momente bis zur Ordnung 4 wie eine N (µ, V ) Verteilung [vgl die Darstellung ( ) in Definition 83], so gilt (a) Cov(Y, Y T AY ) = 2V Aµ (b) Ist zusätzlich µ = 0 und ist B R n n eine weitere Matrix, so gilt Cov (Y T AY, Y T BY ) = 2 Spur (AV BV ) Folgerung 89 In dem linearen Modell () gilt mit den Bezeichnungen aus Lemma 86 E[P 0 Y ] = Xb Damit erhält man für µ = Xb mit Lemma 85 µ T Rµ = 0, und es ergibt sich E[ˆσ 2 ] = σ2 n r Spur(I n X(X T X) T ) = σ 2 Für die letzte Identität haben wir die Eigenschaft benutzt, dass eine Projektion als Eigenwerte nur die Zahlen 0 oder besitzt Da die Summe der Eigenwerte der Matrix P gleich der Spur ist, erhält man Spur (P ) = r(p ) Man beachte, dass die Schätzer P 0 Y und ˆσ 2 erwartungstreue Schätzer für die Parameter Xb und σ 2 sind Für r < k ist die Lösung ˆb der Gleichung ( ) Xˆb = P 0 Y = X(X T X) X T Y nicht eindeutig bestimmt Falls k = r gilt, so erhält man mit Lemma 85 (X T X) = (X T X) und damit ist die Gleichung ( ) äquivalent zu (X T X)ˆb = X T Y Diese Gleichungen heißen Normalgleichungen Als Lösung erhält man mit ˆb = (X T X) X T Y einen Schätzer für b Wegen ist dieser Schätzer auch erwartungstreu E[ˆb] = (X T X) X T Xb = b 4
5 Satz 80 (Gauß-Markov) Im linearen Modell mit Momentenannahme und r = r(x) = k gilt: () Die Schätzer ˆb = (X T X) X T Y und ˆσ 2 = n k Y T (I n X(X T X) X T )Y sind erwartungstreue Schätzer für die Parameter b und σ 2 Die Schätzer ˆb und ˆσ 2 sind unkorreliert (2) ˆb ist bester linearer e-treuer Schätzer für b, dh b = LY, E[ b] = b Var( b) Var(ˆb) = σ 2 (X T X) (BLUE best linear unbiased estimator) (3) ˆσ 2 ist bester quadratischer erwartungstreuer Schätzer für σ 2, dh für alle quadratischen Schätzer der Form σ 2 = Y T AY mit E[ σ 2 ] = σ 2 gilt Var( σ 2 ) Var(ˆσ 2 ) Lemma 8 Sei Y N n (0, V ) eine n-dimensionale Zufallsvariable () Für Matrizen A R p n, B R q n gilt AY, BY stochastisch unabhängig AV B T = 0 (2) Für Matrizen A R p n, B R n n gilt: Ist B Projektion, dann sind die Zufallsvariablen Y T BY und AY stochastisch unabhängig, falls AV B = 0 gilt Satz 82 Im linearen Modell mit Normalverteilungsannahme und r(x) = k ist (ˆb, ˆσ 2 ) bester (bzgl der Loewner Ordnung der Covarianzmatrizen) erwartungstreuer Schätzer für den Parameter (b, σ 2 ) Außerdem sind die Schätzer ˆb, ˆσ 2 stochastisch unabhängig Beispiel 83 (lineare Regression) Wir betrachten das Modell aus Beispiel 8 Y j = b 0 + b t j + ε j j =,, n E[ε j ] = 0 E[ε 2 j] = σ 2 > 0 In diesem Modell gilt X = b = ( t t n ( ) b 0 b 5 ) T
6 Mit den Bezeichnungen t = n n j= t j und t 2 = n n j= t2 j gilt dann ( ) X T t X = n t t 2 Diese Matrix ist genau dann invertierbar, wenn nicht alle t j Determinante der Matrix X T X erhält man gleich sind, denn für die X T X = n n (t j t) 2 Es ergibt sich damit für die Größen im Satz von Gauß-Markov ( n ) X T j= Y = Y j n j= t jy j (X T X) = ( ) t 2 t n j= (t j t) 2 t Für den Schätzer des Parameters b = (b 0, b ) T in Satz 80 erhält man schließlich ( ) ˆb0 ˆb = ˆb mit ˆb0 = Ȳ ˆb t n j= b = (t j t)(y j Ȳ ) n j= (t j t) 2 Nach Satz 80 ist ˆb bester linearer erwartungstreuer Schätzer für den Parameter b und die Statistik ˆσ 2 = n 2 n (Y j ˆb 0 ˆb t j ) 2 ist bester quadratischer erwartungstreuer Schätzer für σ 2 j= Bemerkung 84 Oft is man nicht direkt an dem Parameter b sondern an Linearkombinationen K T b mit K R k s interessiert (man denke im Beispiel 83 an die Schätzung der Steigung b ) Ein naheliegender Schätzer in diesem Fall ist die Statistik K Tˆb = K T (X T X) X T Y (falls r(x) = k gilt) Für die Eindeutigkeit dieses Schätzers ist die Annahme r(x) = k nicht nötig Es reicht hier, die Voraussetzung R(K) R(X T ) zu fordern Dann gilt nämlich mit Lemma 6
7 85, dass der Schätzer K T (X T X) X T Y unabhängig von der Wahl der verallgemeinerten Inversen der Matrix X T X ist und E[K T (X T X) X T Y ] = K T b gilt Damit ist dieser Schätzer erwartungstreu für K T b Definition 85 Für eine Matrix K R k s mit r(k) = s heißt der Parameter K T b im linearen Modell () schätzbar : R(K) R(X T ) Satz 86 Unter den obigen Annahmen gilt: (a) Im linearen Modell mit Momentenannahme ist K Tˆb := K T (X T X) X T Y bester linearer erwartungstreuer Schätzer für den Parameter K T b mit Varianz σ 2 K T (X T X) K R s s (b) Im linearen Modell mit Normalverteilungsannahme hat der Schätzer K Tˆb gleichmäßig kleinste Kovarianzmatrix unter allen erwartungstreuen Schätzern für den Parameter K T b Beispiel 87 (Fortsetzung des Beispiels 83) Für die Matrix K = ( 0) erhält man K T b = b 0 Wählt man alle Beobachtungen im Nullpunkt so, erhält man für die Matrix X, ( ) T X = 0 0 Der Parameter b 0 is schätzbar, wegen R(K) R(X T ) und wegen Lemma 85 ist die Matrix K T (X T X) X T Y unabhängig von der Wahl der verallgemeinerten Inversen Wegen ( ) ( ) X T n 0 X = G = 0 (X T X) 0 0 n 0 0 erhält man K Tˆb = K T (X T X) X T Y = Ȳn als gleichmäßig bester erwartungstreuer Schätzer für den Achsenabschnitt b 0 Satz 88 Es sei Y N n (µ, σ 2 I n ) eine n-dimensionale Zufallsvariable P R n n eine Matrix mit P T = P, r(p ) = r Dann gilt: P ist orthogonale Projektion (dh P 2 = P ) genau dann, wenn gilt Q = (Y µ)t P (Y µ) σ 2 X 2 r Bemerkung 89 Wir stellen in dieser Bemerkung einige weitere Beispiele für die Verteilung von quadratischen Formen zusammen: 7
8 () Es sei Y N n (µ, σ 2 I n ), P T = P, P 2 = P, r = r(p ) = Spur(P ), dann gilt σ 2 Y T P Y X 2 r,δ 2 mit δ 2 = (µ T P µ)/σ 2 (2) Es sei Y N n (µ, V ); V > 0; A R n n ; A T = A, r = r(a), dann gilt (a) (Y µ) T A(Y µ) Xr 2 AV A = A (b) AV A = A Y T AY X 2 r(a),δ mit δ 2 = µ T Aµ 2 (3) Es sei X N n (µ, V ), µ R(V ), V 0 und G V eine verallgemeinerte Inverse von V mit G T = G und GV G = G (z B die Moore-Penrose Inverse), dann gilt mit δ 2 = µ T Gµ X T GX X 2 r(v ),δ 2 Lemma 820 Im linearen Modell mit Normalverteilungsannahme und R(K) R(X T ) gilt: K Tˆb := K T (X T X) X T Y N s (K T b, σ 2 K T (X T X) K) n r σ 2 ˆσ 2 = σ 2 Y T (I n X(X T X) X T )Y X 2 n r, wobei r = r(x) den Rang der Matrix X bezeichnet Beispiel 82 Wir benutzen nun diese Resultate, um ein Konfidenzellipsoid für den Parameter K T b zu bestimmen, falls R(K) R(X T ) gilt Wegen Lemma 820 erhält man Daher ergibt sich aus Lemma 89(3) d = K Tˆb K T b N (0, σ 2 (K T (X T X) K)) H = d T (K T (X T X) K) d σ 2 X 2 t mit t = r(k), und man erhält aus der Definition der F -Verteilung t H/σ2 ˆσ 2 /σ 2 D X 2 t r X F 2 t,n r n r n r Dabei erhält man die Unabhängigkeit des Zählers und Nenners aus Lemma 8 und der Identität Damit ergibt sich aus der Identität (K T (X T X) X T )(I n X(X T X) X T ) = 0 P [(K Tˆb K T b) T (K T (X T X) K) (K Tˆb K T b) tˆσ 2 F t,n r, α ) = α ein Konfidenzellipsoid für K T b Man beachte: Die Matrix K(K T (X T X) K) K T ist unabhängig von der Wahl der verallgemeinerten Inversen (wegen Lemma 85) Falls zusätzlich t = r(k) = s gilt, so erhält man mit Teil b aus Lemma 85, dass die Inverse der Matrix K T (X T X) K existiert 8
Die Stochastischen Eigenschaften von OLS
Die Stochastischen Eigenschaften von OLS Das Bivariate Modell Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Wiederholung
MehrMultivariate Verteilungen. Gerhard Tutz LMU München
Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS
MehrML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.
Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
MehrEinführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
MehrLineare Regression (Ein bisschen) Theorie
Kap. 6: Lineare Regression (Ein bisschen) Theorie Lineare Regression in Matrixform Verteilung des KQ-Schätzers Standardfehler für OLS Der Satz von Gauss-Markov Das allgemeine lineare Regressionsmodell
MehrLineare Algebra I (WS 13/14)
Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 29.11.2013 Alexander Lytchak 1 / 13 Wiederholung Der Rang einer linearen Abbildung ist gleich dem Spaltenrang der darstellenden
MehrLS-Schätzer. SSE(β) = (y µ) t (y µ) = y t y 2β t X t y + β t X t Xβ. Minimiere SSE(β) bzgl. β: Minimum definiert durch
LS-Schätzer Sei µ = Xβ mit rg(x) = p und β = (β 1,..., β p ) t SSE(β) = (y µ) t (y µ) Minimiere SSE(β) bzgl. β: = y t y 2β t X t y + β t X t Xβ β SSE(β) = 2Xt y + 2X t Xβ. Minimum definiert durch X t X
MehrKapitel 3 Schließende Statistik
Motivation Grundgesamtheit mit unbekannter Verteilung F Stichprobe X 1,...,X n mit Verteilung F Realisation x 1,...,x n der Stichprobe Rückschluss auf F Dr. Karsten Webel 160 Motivation (Fortsetzung) Kapitel
MehrDeskriptive Beschreibung linearer Zusammenhänge
9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,
Mehr4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
MehrSchätzung im multiplen linearen Modell VI
Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrVarianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
Mehr2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:
Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
Mehr0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1
Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x
MehrKurs Empirische Wirtschaftsforschung
Kurs Empirische Wirtschaftsforschung 5. Bivariates Regressionsmodell 1 Martin Halla Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz 1 Lehrbuch: Bauer/Fertig/Schmidt (2009), Empirische
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
MehrPunktschätzer Optimalitätskonzepte
Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra
Mehr6. Normale Abbildungen
SKALARPRODUKE 1 6 Normale Abbildungen 61 Erinnerung Sei V ein n-dimensionaler prä-hilbertraum, also ein n-dimensionaler Vektorraum über K (R oder C) versehen auch mit einer Skalarprodukt, ra K Die euklidische
MehrProf. Dr. Fred Böker
Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
MehrKapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte
Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte
MehrKlausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min
Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,
MehrVorlesung: Lineare Modelle
Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrAbhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.
Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient
MehrLösung 23: Sylvesters Trägheitssatz & Singulärwertzerlegung
D-MATH Lineare Algebra I/II HS 07/FS 08 Dr Meike Akveld Lösung 3: Sylvesters Trägheitssatz & Singulärwertzerlegung Wir wissen, dass eine Basis B von R n existiert, sodass p [β Q ] B I I q 0 n p q gilt
MehrVektorräume und Rang einer Matrix
Universität Basel Wirtschaftswissenschaftliches Zentrum Vektorräume und Rang einer Matrix Dr. Thomas Zehrt Inhalt:. Lineare Unabhängigkeit 2. Vektorräume und Basen 3. Basen von R n 4. Der Rang und Rangbestimmung
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
MehrAusgewählte Lösungen zu den Übungsblättern 9-10
Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
Mehr2.2 Lineare Gleichungssysteme (LGS)
2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +
Mehr1 Gemischte Lineare Modelle
1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst
MehrTheorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte
Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann Probe-Klausur zur Vorlesung Ökonometrie Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte (die eigentliche Klausur wird
MehrLineare Modelle. Algebraische Grundlagen und statistische Anwendungen
Lineare Modelle Algebraische Grundlagen und statistische Anwendungen Von Univ.-Prof. Dr.-Ing. Wilhelm Caspary und Univ.-Prof. Dr. rer. nat. Klaus Wichmann R. Oldenbourg Verlag München Wien V INHALTSVERZEICHNIS
MehrGrundgesamtheit und Stichprobe
Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Mehr6.1 Definition der multivariaten Normalverteilung
Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer
Mehr32 2 Lineare Algebra
3 Lineare Algebra Definition i Die Vektoren a,, a k R n, k N, heißen linear unabhängig genau dann, wenn für alle λ,, λ k R aus der Eigenschaft λ i a i λ a + + λ k a k folgt λ λ k Anderenfalls heißen die
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
Mehr3 Bilinearform, Basen und Matrizen
Lineare Algebra II 2. Oktober 2013 Mitschrift der Vorlesung Lineare Algebra II im SS 2013 bei Prof. Peter Littelmann von Dario Antweiler an der Universität zu Köln. Kann Fehler enthalten. Veröentlicht
Mehr4 Lineare Abbildungen und Matrizen
Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt
MehrProxies, Endogenität, Instrumentvariablenschätzung
1 4.2 Multivariate lineare Regression: Fehler in den Variablen, Proxies, Endogenität, Instrumentvariablenschätzung Literatur: Wooldridge, Kapitel 15, Appendix C.3 und Kapitel 9.4 Wahrscheinlichkeitslimes
MehrDemokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik
Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen
MehrBlatt 10 Lösungshinweise
Lineare Algebra und Geometrie I SS 05 Akad. Rätin Dr. Cynthia Hog-Angeloni Dr. Anton Malevich Blatt 0 Lösungshinweise 0 0 Aufgabe 0. Es seien die Vektoren u =, v = und w = in R gegeben. a # Finden Sie
Mehroder A = (a ij ), A =
Matrizen 1 Worum geht es in diesem Modul? Definition und Typ einer Matrix Spezielle Matrizen Rechenoperationen mit Matrizen Rang einer Matrix Rechengesetze Erwartungswert, Varianz und Kovarianz bei mehrdimensionalen
MehrGrundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr.
Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof Dr Enno Mammen 0 Exkurs: Orthogonaltransformationen, Projektionen im R n In diesem
MehrBeispiele. Grundlagen. Kompakte Operatoren. Regularisierungsoperatoren
Beispiele Grundlagen Kompakte Operatoren Regularisierungsoperatoren Transportgleichung Dierenzieren ( nx ) (f δ n ) (x) = f (x) + n cos, x [0, 1], δ Regularisierung!! Inverse Wärmeleitung Durc f (f δ n
MehrÜbungen zum Ferienkurs Lineare Algebra WS 14/15
Übungen zum Ferienkurs Lineare Algebra WS 14/15 Matrizen und Vektoren, LGS, Gruppen, Vektorräume 1.1 Multiplikation von Matrizen Gegeben seien die Matrizen A := 1 1 2 0 5 1 8 7 Berechnen Sie alle möglichen
Mehr6.2 Lineare Regression
6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )
MehrSeminar Quantitatives Risikomanagement
Seminar Quantitatives Risikomanagement Multivariate Modelle II Toni Bastgen Mathematisches Institut der Universität zu Köln Sommersemester 2008 Betreuung: Prof. Schmidli, J. Eisenberg Inhaltsverzeichnis
MehrLineare Regression und Varianzanalyse
Lineare Regression und Varianzanalyse Von Prof. Dr. Fritz Pokropp Universität der Bundeswehr Hamburg R. Oldenbourg Verlag München Wien Inhaltsverzeichnis 1 Einleitung 1 1.1 Grundstruktur linearer Modelle
Mehr4 Bilinearformen und Skalarprodukte
4 Bilinearformen und Skalarprodukte 4 Grundlagen über Bilinearformen Definition 4 Sei V ein K-Vektorraum Eine Bilinearform b auf V ist eine Abbildung b : V V K mit folgenden Eigenschaften: (B) x, y, z
MehrGrundgesamtheit und Stichprobe
Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U
Mehr7.3 Unitäre Operatoren
Wir können jeden Operator T wie folgt schreiben: Dabei gilt T = 1 2 (T + T ) + i( 1 2 i (T T )) (T + T ) = T + T sowie ( 1 2 i (T T )) = 1 2 i (T T) = 1 2 i (T T ). Wir können T also in zwei lineare Operatoren
Mehry t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.
Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
Mehr5. Stichproben und Statistiken
5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)
MehrStatistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrZusammenfassung: Einfache lineare Regression I
4 Multiple lineare Regression Multiples lineares Modell 41 Zusammenfassung: Einfache lineare Regression I Bisher: Annahme der Gültigkeit eines einfachen linearen Modells y i = β 0 + β 1 x i + u i, i {1,,
Mehr4.3 Bilinearformen. 312 LinAlg II Version Juni 2006 c Rudolf Scharlau
312 LinAlg II Version 0 20. Juni 2006 c Rudolf Scharlau 4.3 Bilinearformen Bilinearformen wurden bereits im Abschnitt 2.8 eingeführt; siehe die Definition 2.8.1. Die dort behandelten Skalarprodukte sind
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
Mehr37 Gauß-Algorithmus und lineare Gleichungssysteme
37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrÜbung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
Mehr3.3 Methoden zur Evaluierung von Schätzern
3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,
Mehrx p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren!
Aufgabe T- Gegeben seien zwei normalverteilte Zufallsvariablen X N(µ, σ) 2 und X 2 N(µ 2, σ2) 2 mit pdf p (x) bzw. p 2 (x). Bestimmen Sie x (als Funktion der µ i, σ i, sodass x p (x )dx = + x p 2 (x )dx,
MehrLineare Algebra II Lösungen der Klausur
Prof Dr K Doerk 673 Jens Mandavid Christian Sevenheck Lineare Algebra II Lösungen der Klausur (a Diese Aussage ist richtig, sie stimmt nämlich für k = Sei nämlich n N beliebig und bezeichne N die Menge
Mehr3 Lineare Algebra Vektorräume
3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
Mehr2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen
Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung
MehrVorbereitung auf 3. Übungsblatt (Präsenzübungen) - Lösungen
Prof Dr Rainer Dahlhaus Statistik 1 Wintersemester 2016/2017 Vorbereitung auf Übungsblatt (Präsenzübungen) - Lösungen Aufgabe P9 (Prognosen und Konfidenzellipsoide in der linearen Regression) Wir rekapitulieren
MehrEigenwerte und Diagonalisierung
Eigenwerte und Diagonalisierung Wir wissen von früher: Seien V und W K-Vektorräume mit dim V = n, dim W = m und sei F : V W linear. Werden Basen A bzw. B in V bzw. W gewählt, dann hat F eine darstellende
MehrLösungen zur Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom
Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
Mehr2.Tutorium Multivariate Verfahren
2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung
MehrKlausurenkurs zum Staatsexamen (WS 2015/16): Lineare Algebra und analytische Geometrie 5
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (WS 5/6): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung
Mehr3 Vektorräume abstrakt
Mathematik I für inf/swt Wintersemester / Seite 7 Vektorräume abstrakt Lineare Unabhängigkeit Definition: Sei V Vektorraum W V Dann heißt W := LH(W := Menge aller Linearkombinationen aus W die lineare
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)
MehrKlausurenkurs zum Staatsexamen (SS 2016): Lineare Algebra und analytische Geometrie 5
Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 6): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrLösungsskizze zur Wiederholungsserie
Lineare Algebra D-MATH, HS Prof. Richard Pink Lösungsskizze zur Wiederholungsserie. [Aufgabe] Schreibe die lineare Abbildung f : Q Q 5, x +x +x x x +x +6x f x := x +x +8x x x +x +x. x +x +5x als Linksmultiplikation
MehrAnhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen
Kapitel 9 Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen 9 Definitionen, Eigenschaften Wir betrachten jetzt p Zufallsvariablen X, X 2,, X p Alle Definitionen, Notationen und Eigenschaften
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
Mehr