Sind mehrere Merkmale untereinander hoch korreliert, so kann man sie als zusammengehörig interpretieren, sie bilden einen Faktor.

Größe: px
Ab Seite anzeigen:

Download "Sind mehrere Merkmale untereinander hoch korreliert, so kann man sie als zusammengehörig interpretieren, sie bilden einen Faktor."

Transkript

1 5 Faktorenanalyse 5.1 Das orthogonale Faktorenmodell Sind mehrere Merkmale untereinander hoch korreliert, so kann man sie als zusammengehörig interpretieren, sie bilden einen Faktor. Beispiel 5.1. Körpergröße und Körpergewicht: Das Streudiagramm im Beispiel 1.2 zeigt, dass kleinere Personen tendenziell leichter, größere schwerer sind. Die Merkmale sind stark korreliert. Interpretation: Die Merkmale Körpergröße und Körpergewicht stammen von einem gemeinsamen, nicht direkt messbaren ( latenten ) Faktor Statur. Koerpergewicht Koerpergroesse Ziel und Zweck der Faktorenanalyse: Reduktion der d beobachteten Merkmale auf p < d latente Faktoren, welche die Zusammenhänge unter den Merkmalen generieren. Dimensionsreduktion: Nachfolgende statistische Analysen können bessere Resultate liefern, wenn die Anzahl der Variablen (Faktoren) rela- 75

2 tiv zum Stichprobenumfang nicht zu groß ist. Wie zuvor bei HKA: Suche nach interessanten Richtungen in der Punktewolke. Bei HKA interessant : mit hoher Variabilität, bei FA interessant : interpretierbar. Wie zuvor bei HKA: Analyse der Abhängigkeiten in den Daten (Objekt der Analyse ist die empirische Kovarianzmatrix S oder die empirische Korrelationsmatrix P). Die Abhängigkeiten der beobachteten Variablen werden durch die Abhängigkeit von gemeinsamen Faktoren erklärt. Für die Faktoren fordert man hingegen meist, dass sie untereinander unkorreliert sind. Beispiel 5.2. Konsumentenbefragung (vgl. Johnson & Wichern 1998): In einer Werbeaktion werden n = 150 zufällig ausgewählte Personen nach ihrer Meinung zu d = 5 Eigenschaften eines neuen Energy-Drinks befragt: X 1 : Aroma (von köstlich bis gräußlich) X 2 : Preis / Leistungs Verhältnis (von super bis bescheiden) X 3 : Erfrischungsgrad (von sehr hoch bis sehr niedrig) X 4 : Eignung als Muntermacher (von absolut bis gar nicht) X 5 : verleiht Energie (von sehr viel bis sehr wenig) Die Einschätzung ist jeweils auf einer Skala zwischen 0 und 100 anzugeben, so dass wir die Merkmale im Folgenden als stetig verteilt betrachten wollen. 76

3 Lassen sich die Merkmale zu Faktoren gruppieren, welche die Beurteilungskriterien der Käufer für einen solchen Drink darstellen? Empirische Korrelationsmatrix: R = X 1 (Aroma) und X 3 (Erfrischungsgrad), sowie X 2 (Preis / Leistung) und X 5 (Energie) sind paarweise hoch korreliert. X 4 (Muntermacher) hängt stärker mit X 2 und X 5 zusammen als mit X 1 und X 3. Dies legt nahe, die fünf beobachteten Merkmale zu zwei, eventuell drei Faktoren zusammenzufassen. Definition 5.3. Orthogonales Faktorenmodell: Sei X = (X 1,..., X d ) ein ZV aus d metrisch skalierten Merkmalen X 1,..., X d. X setze sich in folgender Weise aus p Faktoren F 1,..., F p zusammen: X j = µ j + p l j,k F k + ε j, j = 1,..., d. k=1 Dabei sind µ j der Erwartungswert von X j, ε j der zufällige Fehler des Modells, und die l jk die Ladungen des Modells. Annahmen an die Verteilungen der Faktoren F k und der Fehler ε j : Die Faktoren F k seien metrisch skalierte Zufallsvariablen mit E(F k ) = 0, var(f k ) = 1, k = 1,..., p, cov(f k, F k ) = 0 k = k. Für die Fehler ε j unterstellt man E(ε j ) = 0, var(ε j ) = σ 2 j, j = 1,..., d, cov(ε j, ε j ) = 0 j = j. 77

4 Faktoren und Fehler seien unkorreliert: cov(ε j, F k ) = 0 j, k. Notation 5.4. Matrixschreibweise des Faktorenmodells aus Definition 5.3: X = µ + L F + E. Dabei ist X = (X 1,..., X d ) der beobachtete ZV, µ = (µ 1,..., µ d ) sein Erwartungswertvektor, F = (F 1,..., F p ) der Vektor der gemeinsamen Faktoren, E = (ε 1,..., ε d ) der Fehlervektor der spezifischen Faktoren, und l 1,1 l 1,2... l 1,p l 2,1 l 2,2... l 2,p L =... l d,1 l d,2... l d,p die Ladungsmatrix der Faktorladungen. Die Forderungen an die Momente von F und E lauten dann E(F) = 0, Var(F) = I p, E(E) = 0, Var(E) = diag(σ1, 2..., σd), 2 Cov(F, E) = 0. Bemerkung 5.5. Prinzipiell sei die Anzahl p der Faktoren bekannt. Im orthogonalen Faktorenmodell sind die Faktoren unkorreliert. Die beobachteten Merkmale X j sind Linearkombinationen der Faktoren, plus individueller Erwartungswert und Zufallsfehler. Die F k nennt man gemeinsame Faktoren, da alle X j aus diesen Faktoren kombiniert werden. 78

5 Die Modellfehler ε j nennt man spezifische Faktoren, da sie für jedes X j individuell auftreten. Bemerkung 5.6. Vergleich Faktorenanalyse und Regressionsmodell: Beide beschreiben einen (linearen) Zusammenhang zwischen abhängigen und unabhängigen Variablen. Beim Regressionsmodell werden die abhängigen und die unabhängigen Variablen beobachtet. Beim Faktorenanalysemodell werden nur die abhängigen Variablen beobachtet, die unabhängigen Variablen sind latente Faktoren. Wenn mehrere beobachtete Variablen vom gleichen latenten Faktor abhängen, entstehen Korrelationen zwischen diesen beobachteten Variablen. Umgekehrt weisen Korrelationen zwischen beobachteten Variablen auf das Zugrundeliegen eines gemeinsamen Faktors hin. Bemerkung 5.7. Varianzzerlegung : Varianz von X j im orthogonalen Faktorenmodell 5.3: ( ) p var(x j ) = var µ j + l j,k F k + ε j k=1 In Matrixschreibweise: ( ) p = var l j,k F k k=1 Var(X) = Σ = L L + V, + var ( p ) ε j = l 2 j,k + σj 2. k=1 wobei V = diag(σ1 2,..., σ2 d ) die Diagonalmatrix der spezifischen Varianzen ist (und gleichzeitig die Kovarianzmatrix der Fehler Var(E) = V). Die Varianz lässt sich also zerlegen in zwei Anteile: 79

6 die Kommunalität p l 2 j,k k=1 die Spezifität (spezifische Varianz) σ 2 j (stammt von den gemeinsamen Faktoren), vom individuellen Faktor. Bemerkung 5.8. Faktorenanalyse auf Basis standardisierter Variablen: Im Faktorenmodell benutzt man häufig statt der usrprünglichen ZVn X 1,..., X d die standardisierten ZVn Y j = X j µ j : var(x j ) mit Y j = p l j,k F k + ε j, j = 1,..., d. k=1 sowie und E(ε j ) = 0, var(ε j ) = σ2 j var(x j ), j = 1,..., d, cov(ε j, ε j ) = 0, E(F k ) = 0, var(f k ) = 1, k = 1,..., p, cov(f k, F k ) = 0 cov(ε j, F k ) = 0. Beispiel 5.9. Konsumentenbefragung (Fortsetzung 5.2): Anpassung eines Faktorenmodells mit p = 2 latenten Faktoren an die standardisierten Variablen: Ladungen Kommunal. Spez. Varianz Faktor 1 Faktor 2 Aroma Preis/Leistung Erfrischung Muntermacher Energie

7 Im Faktorenmodell für standardisierte Variablen ist die Summe aus Kommunalität und Spezifität gleich 1. Bemerkung Interpretation der Ladungsmatrix: Die Ladung l j,k der j-ten Variablen auf dem k-ten Faktor im Faktorenmodell X = µ + LF + E ist gleichzeitig die Kovarianz zwischen X j und F k : ( ) p cov(x j, F k ) = cov µ j + l j,m F m + ε j, F k m=1 ( ) p = cov l j,m F m, F j + cov(ε j, F k ) = l j,k. m=1 Bei Verwendung standardisierter ZVn entsprechen die Ladungen somit den Korrelationen zwischen den X j und den F k. Bemerkung Skalenäquivarianz des Faktorenmodells: Läßt sich X durch ein orthogonales Faktorenmodell X = µ + LF + E mit spezifischer Varianz Var(E) = V beschreiben, so folgt Y = CX + ν, wobei ν R d und C = diag(c 1,..., c d ), c i = 0, dem orthogonalen Faktorenmodell Y = (Cµ + ν) + CLF + CE mit spezifischer Varianz Var(CE) = CVC. 81

8 Bemerkung Nicht-Eindeutigkeit des Faktorenmodells: Im orthogonalen Faktorenmodell sind Faktoren und Faktorladungen nur bis auf orthogonale Transformationen eindeutig: Äquivalentes Modell durch Rotation mit orthogonaler Matrix M: X = µ + L F + E = µ + L M M F + E = µ + L F + E. Die rotierten Faktoren F = M F erfüllen die selben Eigenschaften wie die ursprünglichen Faktoren F: E( F) = 0, cov( F) = I p, d. h. var( F k ) = 1, cov( F k, F k ) = 0 k = k, cov( F k, ε j ) = 0 j, k. Auch liefert die transformierte Ladungsmatrix L die gleiche Varianzzerlegung wie L. Σ = L L + V = L M M L + V = L L + V. Bemerkung Letzte Bemerkung bevor wir zum Schätzen kommen: Üblicherweise wird die FA mit den standardisierten Variablen Y j = (X j µ j )/s Xj statt der X j durchgeführt (vgl. Bem. 5.8). Das wird im Folgenden angenommen. Die geschätzte Kovarianzmatrix der standardisierten Daten ist dann die geschätzte Korrelationsmatrix der ursprünglichen Daten, also S Y = R X. Formal ändert sich nichts, wir analysieren nach wie vor eine Kovarianzmatrix Σ, behalten aber im Hinterkopf, dass dies eine Korrelationsmatrix ist (insbesondere Hauptdiagonale = 1). 82

9 Dadurch wird alles etwas einfacher: (Spezifität + Kommunalität = 1, Ladungen = Korrelation) Hat man Schätzungen L Y und V Y für die standardisierten Variablen bestimmt, so erhält man leicht die entsprechenden Matrizen für die ursprünglichen Variablen L X = D 1/2 L Y, V X = D 1/2 V Y D 1/2 wobei D = diag(s 2 X 1,..., s 2 X d ) = diag(s X ) (vgl. Bem. 5.11). 83

10 5.2 Anpassung des orthogonalen Faktorenmodells Bei der Anpassung eines Faktorenmodells sucht man Schätzungen für L und V. Basis der Schätzung: Iterative Algorithmen zur Varianzzerlegung Vorlesung Σ = L L + V. unter Verwendung einer Schätzung ˆΣ statt Σ. Die Schätzung von L ist nur bis auf orthogonale Transformationen eindeutig. Üblicherweise zusätzliche Forderung: Diagonalgestalt von L L. Es ist also folgendes mathematisches Problem zu lösen: Bestimmte Matrizen ˆL R d p, ˆV R d d diagonal, so dass ˆΣ = ˆL ˆL + ˆV ˆL ˆL ist Diagonalmatrix (2) für gegebene positiv definite Matrix ˆΣ R d d. Vorgehen bei Faktoranalyse: 1. Lösen des Problems (2) Man hat schonmal eine Lösung ˆL, ˆV, Kommunalitäten und Spezifitäten stehen fest. 2. Rotieren der Ladungsmatrix ˆL für bessere Interpretierbarkeit. Selbst nachdem die Orthogonalitätsredundanz behoben ist, muss (2) nicht eindeutig lösbar sein. Bemerkung Identifizierbarkeit: 1 Restriktionen in (2): 2 d(d + 1) p(p 1) Freie Parameter: d p + d (d p in ˆL, d in ˆV). ( Differenz: = 1 2 (d p) 2 (d + p) ). 84

11 Ist die Differenz negativ, so gibt es unendlich viele Lösungen. Das Modell hat zu viele Faktoren, um identifizierbar zu sein. Z. B. d = 4 und p = 2 führt zu einer Differenz von = 1. Uninteressanter Fall. Ist die Differenz genau null, so gibt es genau eine Lösung (unter Regularitätsannahmen : die Schätzung ˆΣ muss vollen Rang haben). Uninteressanter Fall: genauso viele Parameter wie im unrestringierten Modell, keine Dimensionsreduktion. Ist die Differenz positiv, so gibt es nur approximative Lösungen von (2), z. B. d = 4 und p = 1 führt zu einer Differenz von = 2. Der interessante Fall. Übliche Schätzverfahren für das Faktorenmodell Maximum-Likelihood-Methode Annahme: X multivariat normalverteilt. Erinnere an Satz 3.7. Für die Log-Likelihood gilt: log L(Σ; X) ln det(σ) + Spur(Σ 1 ˆΣ), wobei gleich bis auf additive und positive multiplikative Konstante bedeutet. Ersetze Σ durch LL + V und maximmiere ln det(ll + V) + Spur{(LL + V) 1 ˆΣ}, unter Nebenbedingung ˆL ˆL hat Diagonalgestalt. Anwendung iterativer, recht langsam konvergierender Optimierungsverfahren (z. B. vgl. Hartung, Elpelt, S. 520f). Anwendung von LR-Tests möglich, z.b. zum Testen eines p-faktorenmodells gegen ein unrestringiertes Normalverteilungsmodell. 85

12 Teststatistik: ˆT n = ( n 1 ) 2d p ln 6 ( det( ˆL ˆL ) + ˆV) det ˆΣ ist unter H 0 asymptotisch χ 2 -verteilt mit ((d p) 2 (d + p))/2 Freiheitsgraden. Kleinste-Quadrate-Methode Minimiere Kriterium ˆΣ L L V 2 2, wobei A 2 2 = i,j a 2 i,j quadrierte Matrixnorm, unter Nebenbedingung ˆL ˆL hat Diagonalgestalt, (ähnlich wie Maximum-Likelihood-Methode) Hauptfaktorenmethode Startschätzung für V: v jj = 1 ρ 2 X j,x j, wobei ρ 2 X j,x j die quadrierte multiple Korrelation zwischen X j und allen anderen Variablen X i, i = j ist. Alternativ: v jj = 1 max i =j ρ 2 X j,x i Iteriere 1. Spektralzerlegung von ˆΣ V = UΛU, setze [ L := λ1 u 1,..., ] λ p u p. 2. Setze V := diag( ˆΣ LL ). Hauptkomponentenmethode Variante der Hauptfaktorenmethode, gleiche Iteration wie oben, beginne aber mit Startschätzung für L, und zwar durch Spektralzerlegung von ˆΣ = UΛU, wie zuvor [ L := λ1 u 1,..., ] λ p u p. 86

13 Beispiel Wechsler adult intelligence scale (vgl. Bsp. 3.37), betrachte beide Personengruppen zusammen (n = 49), d = 4 einziger interessanter Fall: p = 1, unterstellt einen erklärenden Faktor allgemeine Intelligenz. Korrelationsmatrix R = Hauptfaktorenmethode Startschätzung für V mittels quadrierter multipler Korrelationen V 1 = Spektralzerlegung von R V 1 = U 1 Λ 1 U 1 : U 1 = Λ 1 = diag(2.43, 0.033, 0.067, 0.14) führt zu L 1 =

14 Neue Schätzung für V: V 2 = diag(r L 1 L 1) = Die Iteration stabilisiert sich bei L =, V = Beispiel Konsumentenbefragung (Fortsetzung 5.9): Schätzungen durch die Hauptkomponentenmethode auf Basis von R: Ladungen Kommunal. Spezif. Faktor 1 Faktor 2 Aroma Preis / Leistung Erfrischung Muntermacher Energie Geschätzte Ladungsmatrix und geschätzte Matrix der spezifischen Varianzen: L = und V =

15 Varianzzerlegung für die Korrelationsmatrix: R = LL + V Einsetzen der Schätzungen: LL + V = Varianzzerlegung mit L und V reproduziert die empirische Korrelationsmatrix R recht gut, zwei orthogonale Faktoren erklären die Daten recht gut. Dafür sprechen auch die hohen Kommunalitäten 0.98, 0.88, 0.98, 0.89, 0.93 nahe 1. Bemerkung Schätzung der Faktorscores: Faktorscores: Werte F ik der latenten Faktoren für die verschiedenen Individuen i = 1,..., n (die Realisierungen der Faktoren). Für jedes Individuum i gilt im Faktorenmodell Vorlesung X ij = µ j + p l jk F ik + ε ij, k=1 j = 1,..., d, i = 1,..., n Es gibt verschiedene Methoden zur Schätzung von Faktor-Scores. Regressionsmethode: Unter dem orthogonalen Faktorenmodell gilt X µ N d+p 0, Σ L F 0 L I p ( F X N p L Σ 1 (X µ), I p L Σ 1 L ) Schätzung: ˆF = ˆL ˆΣ 1 (X x) 89

16 Graphische Darstellung: Komponentendiagramm Veranschaulichung der Faktoren: Ladungen (l j,1,..., l j,p ) der Merkmale X j, j = 1,..., d, als Koordinaten im R p auffassen, so dass für je zwei Faktoren eine Grafik in der Ebene entsteht, welche die Lage der Variablen anzeigt: Beispiel Konsumentenbefragung 2. Faktor Y1 Y3 Y2 Y4 Y Faktor Ein solches Diagramm zeigt, wie die X j auf den F k laden. Hier laden alle Variablen hoch auf F 1. Führt man die FA mit standardisierten Variablen durch, so liegen die Punkte innerhalb des Einheitskreises (vgl. Bsp. 4.20). 5.3 Faktorrotation Die Faktoren und Faktorladungen im orthogonalen Faktorenmodell sind nur eindeutig bis auf orthogonale Transformationen, d. h. Drehungen des 90

17 Koordinatensystems um den Ursprung (Bem. 5.12). Häufig schließt man an die Modellanpassung eine Faktorrotation an zwecks besserer Interpretierbarkeit der Faktoren. Generelle Idee: Faktoren so drehen, dass auf jedem Faktor wenige Variablen hoch und die anderen niedrig laden; die Faktoren sollen über möglichst wenige Variablen mit möglichst hohen Ladungen verstanden werden. Verschiedene Kriterien zur Messung der Einfachheit der Ladungsstruktur. Varimax-Rotation (Kaiser, 1958; siehe auch Hartung & Elpelt, 1984, S. 552ff): Iterative Maximierung des Varimax-Kriteriums (Summe der Varianzen der mit den Kommunalitäten h 2 j = p k=1 l2 jk, j = 1,..., d, normierten quadrierten Ladungen innerhalb jeder Spalte von L) ( ) d 1 V(L) = (z 2 jk z 2 k d )2 p k=1 j=1 mit z jk = l jk h j, j = 1,..., d, k = 1,..., p. Quartimax-Rotation (siehe Hartung & Elpelt, 1984, S. 559ff): Iterative Maximierung des Quartimax-Kriteriums (Summe der vierten Potenzen der Ladungen in L) Q(L) = p k=1 d l 4 jk. j=1 Schiefwinklige Rotationen: Gelegentlich gibt man zugunsten der leichten Interpretation der Faktoren sogar das Prinzip unkorrelierter Faktoren auf und rotiert mit einer nicht orthogonalen Matrix (z.b. Oblimin-Rotation). Allerdings können die Faktoren dann nicht mehr einzeln interpretiert werden. 91

18 Beispiel Konsumentenbefragung (Fortsetzung 5.16): Faktorladungen nach Varimax-Rotation der ursprünglichen Faktorlösung: L = Komponentenplot nach Varimax-Rotation (vgl. Bsp. 5.18): 2. Faktor Y1Y3 Y4 Y2 Y Faktor Die Graphik zeigt: 1. rotierter Faktor von X 2, X 4 und X 5 getragen, 2. rotierter Faktor hingegen hauptsächlich durch X 1 und X 3 bestimmt (und etwas durch X 4 ). Kunden nehmen die fünf Variablen im Wesentlichen als Komponenten eines Faktors Effizienz (Preis / Leistung, Muntermacher, Energie) und eines Faktors Geschmack (Aroma, Erfrischung) wahr. 92

19 Konfirmatorische vs. explorative Faktorenanalyse Konfirmatorische Faktorenanalyse: In Voruntersuchungen oder aus Sachwissen wurden bereits Faktoren zur Erklärung gegebener Merkmale hergeleitet. Versuch, anhand (neuer) Daten dieses vermutete Faktorenmodell mit bekannter Faktorenanzahl p zu belegen (oder zu widerlegen). Explorative Faktorenanalyse: Aus vorliegenden Daten sollen latente Faktoren hergeleitet werden. Die Faktorenanzahl p ist unbekannt. Bemerkung Methoden zur Wahl der Anzahl p der Faktoren: Wähle p gleich der Anzahl der Eigenwerte von R, die größer oder gleich 1 sind. Erkläre kumulativ (festzulegenden) großen Anteil der Gesamtvarianz (Summe der Kommunalitäten). Scree-Graph: Zweidimensionale Graphik der gemäß ihrer Größe geordneten Eigenwerte gegen fortlaufenden Index. Die Stelle, an der der entstehende Linienzug einen Knick hat, liefert die Anzahl der Faktoren. Testen verschiedener Modelle (gegen unrestringiertes Modell) bei Maximum- Likelihood-Methode. 93

20 Beispiel Konsumentenbefragung (Fortsetzung): Genau zwei Eigenwerte von R sind größer als 1. Die zugehörigen beiden Faktoren erklären 93% der Gesamtvarianz. Der Knick im Scree-Plot liegt beim 3. Eigenwert:

Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse

Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse Exploratorische Faktorenanalyse Der Begriff Faktorenanalyse umfasst eine Gruppe multivariater Analyseverfahren, mit denen zugrundeliegende gemeinsame Dimensionen von Variablenmengen (z.b. Fragebogenitems)

Mehr

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

Explorative Faktorenanalyse

Explorative Faktorenanalyse Explorative Faktorenanalyse 1 Einsatz der Faktorenanalyse Verfahren zur Datenreduktion Analyse von Datenstrukturen 2 -Ich finde es langweilig, mich immer mit den selben Leuten zu treffen -In der Beziehung

Mehr

5.Tutorium Multivariate Verfahren

5.Tutorium Multivariate Verfahren 5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Die Faktorenanalyse. Anwendung dann, wenn zwischen beobachtbaren und nicht direkt beobachtbaren Variablen ein kausales Verhältnis vermutet wird

Die Faktorenanalyse. Anwendung dann, wenn zwischen beobachtbaren und nicht direkt beobachtbaren Variablen ein kausales Verhältnis vermutet wird Die Faktorenanalyse Zielsetzung Datenreduktion: eine größere Anzahl von Variablen auf eine kleinere Anzahl unabhängiger Einflussgrößen zurückführen Grundlegende Idee Direkt beobachtbare Variablen spiegeln

Mehr

Lösung Übungsblatt 5

Lösung Übungsblatt 5 Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von

Mehr

Grundzüge der Faktorenanalyse

Grundzüge der Faktorenanalyse SEITE Grundzüge der Faktorenanalyse Bei der Faktorenanalyse handelt es sich um ein Verfahren, mehrere Variablen durch möglichst wenige gemeinsame, hinter ihnen stehende Faktoren zu beschreiben. Beispiel:

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 27. März 2015 Aufgabe 1 Kennzeichnen Sie die folgenden Aussagen über die beiden Zufallsvektoren ([ ] [ ]) ([ ] [ ]) 2 1 0 1 25 2 x 1 N, x 3 0 1 2

Mehr

5 Allgemeine Verfahren zum Testen von Hypothesen

5 Allgemeine Verfahren zum Testen von Hypothesen 5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).

Mehr

Multivariate Verteilungen. Gerhard Tutz LMU München

Multivariate Verteilungen. Gerhard Tutz LMU München Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS

Mehr

Konfirmatorische Faktorenanalyse. Regressionsmodelle für Politikwissenschaftler

Konfirmatorische Faktorenanalyse. Regressionsmodelle für Politikwissenschaftler Konfirmatorische Faktorenanalyse Regressionsmodelle für Politikwissenschaftler Was ist ein Faktor? Faktor oder latente Variable Regressionsmodelle für Politikwissenschaftler Konfirmatorische Faktorenanalyse

Mehr

Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ

Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Kleine Eigenwerte oder Eigenwerte gleich Null: k Eigenwerte Null = Rang(Σ) = m k Eigenwerte fast Null = Hauptkomponenten beinahe konstant Beschränkung

Mehr

Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen

Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen Kapitel 9 Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen 9 Definitionen, Eigenschaften Wir betrachten jetzt p Zufallsvariablen X, X 2,, X p Alle Definitionen, Notationen und Eigenschaften

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie

Mehr

6. Faktorenanalyse (FA) von Tests

6. Faktorenanalyse (FA) von Tests 6. Faktorenanalyse (FA) von Tests 1 6. Faktorenanalyse (FA) von Tests 1 6.1. Grundzüge der FA nach der Haupkomponentenmethode (PCA) mit anschliessender VARIMAX-Rotation:... 2 6.2. Die Matrizen der FA...

Mehr

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T 9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon

Mehr

Prof. Dr. Fred Böker

Prof. Dr. Fred Böker Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung

Mehr

Explorative Faktorenanalyse

Explorative Faktorenanalyse Bachelorseminar: Ausgewählte Aspekte der Wirtschafts- und Sozialstatistik Explorative Faktorenanalyse Simon Reitzner Betreuerin: Eva Endres, M.Sc. LMU München, Institut für Statistik 19.06.2015 1 / 43

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe

Mehr

Vorlesung: Lineare Modelle

Vorlesung: Lineare Modelle Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen

Mehr

Konfirmatorische Faktorenanalyse

Konfirmatorische Faktorenanalyse Konfirmatorische Faktorenanalyse Regressionsmodelle für Politikwissenschaftler Was ist ein Faktor? Faktor oder latente Variable nicht direkt beobachtbare Größe die beobachtbare Variablen ( Indikatoren

Mehr

2 Multivariate Normalverteilung

2 Multivariate Normalverteilung 2 Multivariate Normalverteilung 2. Multivariate Normalverteilung Definition 2.. Normalverteilung Eine univariat normalverteilte Zufallsvariable X besitzt ie Dichte ) (x µ)2 f (x) = exp ( x R. 2π σ 2σ 2

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Faktorenanalyse und Hauptkomponentenanalyse

Faktorenanalyse und Hauptkomponentenanalyse Faktorenanalyse und Hauptkomponentenanalyse Man habe n Personen auf m Variablen untersucht Insbesondere habe man: n Personen Index i m Variablen Index j r Faktoren Index l Die Faktoren sind latente Variablen,

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr. Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;

Mehr

Deskriptive Beschreibung linearer Zusammenhänge

Deskriptive Beschreibung linearer Zusammenhänge 9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

METHODENPRAKTIKUM II Kurs 1. Prof. Dr. Beat Fux SUZ Frühlingssemester 2009

METHODENPRAKTIKUM II Kurs 1. Prof. Dr. Beat Fux SUZ Frühlingssemester 2009 METHODENPRAKTIKUM II Kurs 1 Prof. Dr. Beat Fux SUZ Frühlingssemester 2009 Ziel der Faktorenanalyse Struktur hinter den Korrelationen zwischen Variablen entdecken Reduzierung einer Vielzahl von Variablen

Mehr

Zur Erklärung menschlicher Verhaltensweisen oder allgemeiner sozialer Phänomene ist häufig eine Vielzahl von Einflussfaktoren zu berücksichtigen.

Zur Erklärung menschlicher Verhaltensweisen oder allgemeiner sozialer Phänomene ist häufig eine Vielzahl von Einflussfaktoren zu berücksichtigen. 4.3 Faktorenanalyse Problemstellung Zur Erklärung menschlicher Verhaltensweisen oder allgemeiner sozialer Phänomene ist häufig eine Vielzahl von Einflussfaktoren zu berücksichtigen. Je größer jedoch die

Mehr

Lineare Regression. Kapitel Regressionsgerade

Lineare Regression. Kapitel Regressionsgerade Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell

Mehr

Einer Reihe von Merkmalen zugrunde liegende, gemeinsame Faktoren ermitteln.

Einer Reihe von Merkmalen zugrunde liegende, gemeinsame Faktoren ermitteln. Faktoranalysen Aufbau 1. Sinn und Zweck 2. Eigenschaften der Merkmale 3. Extraktion der Faktoren 4. Anzahl der Faktoren 5. Rotation der Faktoren 6. Interpretation der Faktoren Sinn und Zweck Einer Reihe

Mehr

6.1 Definition der multivariaten Normalverteilung

6.1 Definition der multivariaten Normalverteilung Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer

Mehr

Zusammenfassung 11. Sara dos Reis.

Zusammenfassung 11. Sara dos Reis. Zusammenfassung 11 Sara dos Reis sdosreis@student.ethz.ch Diese Zusammenfassungen wollen nicht ein Ersatz des Skriptes oder der Slides sein, sie sind nur eine Sammlung von Hinweise zur Theorie, die benötigt

Mehr

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen

Mehr

y = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0

y = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0 8 Lineare Modelle In diesem Abschnitt betrachten wir eine spezielle Klasse von statistischen Modellen, in denen die Parameter linear auftauchen Wir beginnen mit zwei Beispielen Beispiel 8 (lineare Regression)

Mehr

Statistische Methoden in der Wirtschaftsund Sozialgeographie

Statistische Methoden in der Wirtschaftsund Sozialgeographie Statistische Methoden in der Wirtschaftsund Sozialgeographie Ort: Zeit: Multimediapool Rechenzentrum Mittwoch 0.5--45 Uhr Material: http://www.geomodellierung.de Thema: Beschreibung und Analyse Wirtschafts-

Mehr

Proxies, Endogenität, Instrumentvariablenschätzung

Proxies, Endogenität, Instrumentvariablenschätzung 1 4.2 Multivariate lineare Regression: Fehler in den Variablen, Proxies, Endogenität, Instrumentvariablenschätzung Literatur: Wooldridge, Kapitel 15, Appendix C.3 und Kapitel 9.4 Wahrscheinlichkeitslimes

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Eigene MC-Fragen Kap. 4 Faktorenanalyse, Aggregation, Normierung. 1. Welche Aussage zu den Prinzipien der Faktorenanalyse ist zutreffend?

Eigene MC-Fragen Kap. 4 Faktorenanalyse, Aggregation, Normierung. 1. Welche Aussage zu den Prinzipien der Faktorenanalyse ist zutreffend? Eigene MC-Fragen Kap. 4 Faktorenanalyse, Aggregation, Normierung 1. Welche Aussage zu den Prinzipien der Faktorenanalyse ist zutreffend? a) Die Faktorenanalyse hat ihren Ursprung in der theoretischen Intelligenzforschung.

Mehr

Holger Dette. 30. Oktober 2015

Holger Dette. 30. Oktober 2015 Ruhr-Universität Bochum 30. Oktober 2015 1 / 1 Methodenlehre III Prof. Dr. NA 3/73 Telefon: 0234 32 28284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag,

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Faktoren- und Hauptkomponentenanalyse

Faktoren- und Hauptkomponentenanalyse Ziel: Anwendung von Verfahren der Dimensionsreduzierung Erkennen von Strukturen in Daten an ausgewählten Anwendungsbeispielen Betreuer: Dipl.-Chem. Stefan Möller IAAC, Lehrbereich Umweltanalytik Lessingstraße

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9.

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Januar 2011 BOOTDATA11.GDT: 250 Beobachtungen für die Variablen...

Mehr

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 13 a.

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 13 a. Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 LÖSUNG 13 a. Die Variablen sollten hoch miteinander korrelieren. Deshalb sollten die einfachen Korrelationskoeffizienten hoch ausfallen.

Mehr

Faktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduktion. Interpretation des SPSS-Output s

Faktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduktion. Interpretation des SPSS-Output s Explorative Faktorenanalyse als Instrument der Dimensionsreduktion Beispiel: Welche Dimensionen charakterisieren die Beurteilung des sozialen Klimas in der Nachbarschaft? Variablen: q27a bis q27g im Datensatz

Mehr

Multiple Regressionsanalyse - Kurzabriss

Multiple Regressionsanalyse - Kurzabriss Multiple Regressionsanalyse - Kurzabriss Ziele: Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Meist zu Screening-Untersuchungen, um den Einfluß von vermuteten Ursachenvariablen

Mehr

x t2 y t = 160, y = 8, y y = 3400 t=1

x t2 y t = 160, y = 8, y y = 3400 t=1 Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Zeitreihenökonometrie

Zeitreihenökonometrie Zeitreihenökonometrie Kapitel 8 Impuls-Antwort-Funktionen Interpretation eines VAR-Prozesses 2 Fall eines bivariaten Var(p)-Prozess mit 2 Variablen und ohne Konstante 1 1 p p 1,t α11 α 12 1,t-1 α11 α 12

Mehr

Inferenz im multiplen Regressionsmodell

Inferenz im multiplen Regressionsmodell 1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall

Mehr

Faktorenanalyse. Fakultät für Human und Sozialwissenschaften Professur für Forschungsmethodik und Evaluation in der Psychologie

Faktorenanalyse. Fakultät für Human und Sozialwissenschaften Professur für Forschungsmethodik und Evaluation in der Psychologie Faktorenanalyse Fakultät für Human und Sozialwissenschaften Professur für Forschungsmethodik und Evaluation in der Psychologie Seminar: Multivariate Analysemethoden Seminarleiter: Dr. Thomas Schäfer Referenten:

Mehr

Mehrdimensionale Skalierung

Mehrdimensionale Skalierung Mehrdimensionale Skalierung Datenanalyse Dietmar Maringer Abteilung für Quantitative Methoden, WWZ der Universität Basel Herbstsemester 2010 D Maringer: Datenanalyse Mehrdimensionale Skalierung (1) Problemstellung

Mehr

Statistische Methoden in den Umweltwissenschaften

Statistische Methoden in den Umweltwissenschaften Statistische Methoden in den Umweltwissenschaften Korrelationsanalysen Kreuztabellen und χ²-test Themen Korrelation oder Lineare Regression? Korrelationsanalysen - Pearson, Spearman-Rang, Kendall s Tau

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum

Mehr

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 LÖSUNG 13 a) Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 Die Variablen sollten hoch miteinander korrelieren. Deshalb sollten die einfachen Korrelationskoeffizienten hoch ausfallen.

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

10 Statistisches Schätzen

10 Statistisches Schätzen 10 Statistisches Schätzen 620 10 Statistisches Schätzen 10.1 Punktschätzung 623 10.1.1 Schätzer und ihre Gütekriterien 623 10.1.2 Erwartungstreue 627 10.1.3 Erwartete quadratische Abweichung (MSE) 634

Mehr

2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme)

2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme) 2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme) Annahme A1: Im multiplen Regressionsmodell fehlen keine relevanten exogenen Variablen und die benutzten exogenen Variablen x 1,

Mehr

2.Tutorium Multivariate Verfahren

2.Tutorium Multivariate Verfahren 2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp PHY3 Herbstsemester 04 Olaf Steinkamp Physik-Institut der Universität Zürich Winterthurerstrasse 90 CH-8057 Zürich olafs@physik.uzh.ch Büro: 36-J- Tel.: 044-635.57.63 Vorlesungsprogramm Einführung, Messunsicherheiten,

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen

Mehr

17. Januar Ruhr-Universität Bochum. Methodenlehre III, WS 2010/2011. Prof. Dr. Holger Dette. 1. Matrizenrechnung. 2.

17. Januar Ruhr-Universität Bochum. Methodenlehre III, WS 2010/2011. Prof. Dr. Holger Dette. 1. Matrizenrechnung. 2. Ruhr-Universität Bochum 17. Januar 2011 1 / 232 Methodenlehre III NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag, 8.30

Mehr

Datenanalyse mit Excel und Gretl

Datenanalyse mit Excel und Gretl Dozent: Christoph Hindermann christoph.hindermann@uni-erfurt.de Datenanalyse mit Excel und Gretl Teil Titel 2: Gretl 1 Teil 2: Gretl Datenanalyse mit Excel und Gretl Teil Titel 2: Gretl 2 Modellannahmen

Mehr

Seminar Quantitatives Risikomanagement

Seminar Quantitatives Risikomanagement Seminar Quantitatives Risikomanagement Multivariate Modelle II Toni Bastgen Mathematisches Institut der Universität zu Köln Sommersemester 2008 Betreuung: Prof. Schmidli, J. Eisenberg Inhaltsverzeichnis

Mehr

Faktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung. Interpretation des SPSS-Output s

Faktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung. Interpretation des SPSS-Output s Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung Beispiel: Welche Dimensionen charakterisieren die Beurteilung des sozialen Klimas in der Nachbarschaft? Variablen: q27a bis q27g im

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

Faktorenanalyse Beispiel

Faktorenanalyse Beispiel Faktorenanalyse Zweck der Faktorenanalyse ist die Dimensionsreduktion einer gegebenen Variablenanzahl, d. h. also die Zusammenfassung vorhandener Variablen zu wenigen latenten, i. d. R. voneinander unabhängigen

Mehr

5. Stichproben und Statistiken

5. Stichproben und Statistiken 5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)

Mehr

1.5 Erwartungswert und Varianz

1.5 Erwartungswert und Varianz Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:

Mehr

Einführung in die Induktive Statistik: Regressionsanalyse

Einführung in die Induktive Statistik: Regressionsanalyse Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse

Mehr

29 Lineare Algebra 2 (SS 2009) 4.9. Das charakteristische Polynom sei Produkt von linearen Polynomen.

29 Lineare Algebra 2 (SS 2009) 4.9. Das charakteristische Polynom sei Produkt von linearen Polynomen. 9 Lineare Algebra (SS 009) 49 Das charakteristische Polynom sei Produkt von linearen Polynomen 49 Das charakteristische Polynom sei Potenz eines linearen Polynoms Wir betrachten nun eine Matrix A, sodass

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests. 0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:

Mehr

6 Korrelations- und Regressionsanalyse: Zusammenhangsanalyse stetiger Merkmale

6 Korrelations- und Regressionsanalyse: Zusammenhangsanalyse stetiger Merkmale 6 Korrelations- und Regressionsanalyse: Zusammenhangsanalyse stetiger Merkmale 397 6.1 Korrelationsanalyse Jetzt betrachten wir bivariate Merkmale (X, Y ), wobei sowohl X als auch Y stetig bzw. quasi-stetig

Mehr

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen. Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf

Mehr

5 Lineare Algebra (Teil 3): Skalarprodukt

5 Lineare Algebra (Teil 3): Skalarprodukt 5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

2.1 Gemeinsame-, Rand- und bedingte Verteilungen Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die

Mehr

6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal

6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße 20 42097 Wuppertal Allgemein 6 Konstrukte: - soziale Kontakte (6 Items) - Markenbewusstsein (6 Items) - Werbeakzeptanz (6 Items) - materielle

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Übungen zu Multivariate Verfahren WS 2009/10 1. Aufgabe 1 Betrachten Sie die folgenden beiden Vektoren und Matrizen

Übungen zu Multivariate Verfahren WS 2009/10 1. Aufgabe 1 Betrachten Sie die folgenden beiden Vektoren und Matrizen Übungen zu Multivariate Verfahren WS 2009/10 1 Prof. Dr. Fred Böker und Jing Dai Aufgabe 1 Betrachten Sie die folgenden beiden Vektoren und Matrizen 1 2 2 0 1 2 1 a = 2, b = 1, C = 1 4 0, E = 4 1 2 3 2

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

1 Beispiele multivariater Datensätze... 3

1 Beispiele multivariater Datensätze... 3 Inhaltsverzeichnis Teil I Grundlagen 1 Beispiele multivariater Datensätze... 3 2 Elementare Behandlung der Daten... 15 2.1 Beschreibung und Darstellung univariater Datensätze... 15 2.1.1 Beschreibung und

Mehr

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Prof. Dr. P. Embrechts ETH Zürich Sommer 204 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Vereinfachen

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula

Mehr

Formelsammlung zur Lehrveranstaltung Statistische Analyseverfahren. 4. Februar 2019

Formelsammlung zur Lehrveranstaltung Statistische Analyseverfahren. 4. Februar 2019 Formelsammlung zur Lehrveranstaltung Statistische Analyseverfahren 4 Februar 2019 Inhaltsverzeichnis 1 Diskriminanzanalyse 1 11 ML-Diskrimination für zwei Normalverteilungen mit identischen Kovarianzmatrizen

Mehr