Sind mehrere Merkmale untereinander hoch korreliert, so kann man sie als zusammengehörig interpretieren, sie bilden einen Faktor.
|
|
- Benjamin Sauer
- vor 7 Jahren
- Abrufe
Transkript
1 5 Faktorenanalyse 5.1 Das orthogonale Faktorenmodell Sind mehrere Merkmale untereinander hoch korreliert, so kann man sie als zusammengehörig interpretieren, sie bilden einen Faktor. Beispiel 5.1. Körpergröße und Körpergewicht: Das Streudiagramm im Beispiel 1.2 zeigt, dass kleinere Personen tendenziell leichter, größere schwerer sind. Die Merkmale sind stark korreliert. Interpretation: Die Merkmale Körpergröße und Körpergewicht stammen von einem gemeinsamen, nicht direkt messbaren ( latenten ) Faktor Statur. Koerpergewicht Koerpergroesse Ziel und Zweck der Faktorenanalyse: Reduktion der d beobachteten Merkmale auf p < d latente Faktoren, welche die Zusammenhänge unter den Merkmalen generieren. Dimensionsreduktion: Nachfolgende statistische Analysen können bessere Resultate liefern, wenn die Anzahl der Variablen (Faktoren) rela- 75
2 tiv zum Stichprobenumfang nicht zu groß ist. Wie zuvor bei HKA: Suche nach interessanten Richtungen in der Punktewolke. Bei HKA interessant : mit hoher Variabilität, bei FA interessant : interpretierbar. Wie zuvor bei HKA: Analyse der Abhängigkeiten in den Daten (Objekt der Analyse ist die empirische Kovarianzmatrix S oder die empirische Korrelationsmatrix P). Die Abhängigkeiten der beobachteten Variablen werden durch die Abhängigkeit von gemeinsamen Faktoren erklärt. Für die Faktoren fordert man hingegen meist, dass sie untereinander unkorreliert sind. Beispiel 5.2. Konsumentenbefragung (vgl. Johnson & Wichern 1998): In einer Werbeaktion werden n = 150 zufällig ausgewählte Personen nach ihrer Meinung zu d = 5 Eigenschaften eines neuen Energy-Drinks befragt: X 1 : Aroma (von köstlich bis gräußlich) X 2 : Preis / Leistungs Verhältnis (von super bis bescheiden) X 3 : Erfrischungsgrad (von sehr hoch bis sehr niedrig) X 4 : Eignung als Muntermacher (von absolut bis gar nicht) X 5 : verleiht Energie (von sehr viel bis sehr wenig) Die Einschätzung ist jeweils auf einer Skala zwischen 0 und 100 anzugeben, so dass wir die Merkmale im Folgenden als stetig verteilt betrachten wollen. 76
3 Lassen sich die Merkmale zu Faktoren gruppieren, welche die Beurteilungskriterien der Käufer für einen solchen Drink darstellen? Empirische Korrelationsmatrix: R = X 1 (Aroma) und X 3 (Erfrischungsgrad), sowie X 2 (Preis / Leistung) und X 5 (Energie) sind paarweise hoch korreliert. X 4 (Muntermacher) hängt stärker mit X 2 und X 5 zusammen als mit X 1 und X 3. Dies legt nahe, die fünf beobachteten Merkmale zu zwei, eventuell drei Faktoren zusammenzufassen. Definition 5.3. Orthogonales Faktorenmodell: Sei X = (X 1,..., X d ) ein ZV aus d metrisch skalierten Merkmalen X 1,..., X d. X setze sich in folgender Weise aus p Faktoren F 1,..., F p zusammen: X j = µ j + p l j,k F k + ε j, j = 1,..., d. k=1 Dabei sind µ j der Erwartungswert von X j, ε j der zufällige Fehler des Modells, und die l jk die Ladungen des Modells. Annahmen an die Verteilungen der Faktoren F k und der Fehler ε j : Die Faktoren F k seien metrisch skalierte Zufallsvariablen mit E(F k ) = 0, var(f k ) = 1, k = 1,..., p, cov(f k, F k ) = 0 k = k. Für die Fehler ε j unterstellt man E(ε j ) = 0, var(ε j ) = σ 2 j, j = 1,..., d, cov(ε j, ε j ) = 0 j = j. 77
4 Faktoren und Fehler seien unkorreliert: cov(ε j, F k ) = 0 j, k. Notation 5.4. Matrixschreibweise des Faktorenmodells aus Definition 5.3: X = µ + L F + E. Dabei ist X = (X 1,..., X d ) der beobachtete ZV, µ = (µ 1,..., µ d ) sein Erwartungswertvektor, F = (F 1,..., F p ) der Vektor der gemeinsamen Faktoren, E = (ε 1,..., ε d ) der Fehlervektor der spezifischen Faktoren, und l 1,1 l 1,2... l 1,p l 2,1 l 2,2... l 2,p L =... l d,1 l d,2... l d,p die Ladungsmatrix der Faktorladungen. Die Forderungen an die Momente von F und E lauten dann E(F) = 0, Var(F) = I p, E(E) = 0, Var(E) = diag(σ1, 2..., σd), 2 Cov(F, E) = 0. Bemerkung 5.5. Prinzipiell sei die Anzahl p der Faktoren bekannt. Im orthogonalen Faktorenmodell sind die Faktoren unkorreliert. Die beobachteten Merkmale X j sind Linearkombinationen der Faktoren, plus individueller Erwartungswert und Zufallsfehler. Die F k nennt man gemeinsame Faktoren, da alle X j aus diesen Faktoren kombiniert werden. 78
5 Die Modellfehler ε j nennt man spezifische Faktoren, da sie für jedes X j individuell auftreten. Bemerkung 5.6. Vergleich Faktorenanalyse und Regressionsmodell: Beide beschreiben einen (linearen) Zusammenhang zwischen abhängigen und unabhängigen Variablen. Beim Regressionsmodell werden die abhängigen und die unabhängigen Variablen beobachtet. Beim Faktorenanalysemodell werden nur die abhängigen Variablen beobachtet, die unabhängigen Variablen sind latente Faktoren. Wenn mehrere beobachtete Variablen vom gleichen latenten Faktor abhängen, entstehen Korrelationen zwischen diesen beobachteten Variablen. Umgekehrt weisen Korrelationen zwischen beobachteten Variablen auf das Zugrundeliegen eines gemeinsamen Faktors hin. Bemerkung 5.7. Varianzzerlegung : Varianz von X j im orthogonalen Faktorenmodell 5.3: ( ) p var(x j ) = var µ j + l j,k F k + ε j k=1 In Matrixschreibweise: ( ) p = var l j,k F k k=1 Var(X) = Σ = L L + V, + var ( p ) ε j = l 2 j,k + σj 2. k=1 wobei V = diag(σ1 2,..., σ2 d ) die Diagonalmatrix der spezifischen Varianzen ist (und gleichzeitig die Kovarianzmatrix der Fehler Var(E) = V). Die Varianz lässt sich also zerlegen in zwei Anteile: 79
6 die Kommunalität p l 2 j,k k=1 die Spezifität (spezifische Varianz) σ 2 j (stammt von den gemeinsamen Faktoren), vom individuellen Faktor. Bemerkung 5.8. Faktorenanalyse auf Basis standardisierter Variablen: Im Faktorenmodell benutzt man häufig statt der usrprünglichen ZVn X 1,..., X d die standardisierten ZVn Y j = X j µ j : var(x j ) mit Y j = p l j,k F k + ε j, j = 1,..., d. k=1 sowie und E(ε j ) = 0, var(ε j ) = σ2 j var(x j ), j = 1,..., d, cov(ε j, ε j ) = 0, E(F k ) = 0, var(f k ) = 1, k = 1,..., p, cov(f k, F k ) = 0 cov(ε j, F k ) = 0. Beispiel 5.9. Konsumentenbefragung (Fortsetzung 5.2): Anpassung eines Faktorenmodells mit p = 2 latenten Faktoren an die standardisierten Variablen: Ladungen Kommunal. Spez. Varianz Faktor 1 Faktor 2 Aroma Preis/Leistung Erfrischung Muntermacher Energie
7 Im Faktorenmodell für standardisierte Variablen ist die Summe aus Kommunalität und Spezifität gleich 1. Bemerkung Interpretation der Ladungsmatrix: Die Ladung l j,k der j-ten Variablen auf dem k-ten Faktor im Faktorenmodell X = µ + LF + E ist gleichzeitig die Kovarianz zwischen X j und F k : ( ) p cov(x j, F k ) = cov µ j + l j,m F m + ε j, F k m=1 ( ) p = cov l j,m F m, F j + cov(ε j, F k ) = l j,k. m=1 Bei Verwendung standardisierter ZVn entsprechen die Ladungen somit den Korrelationen zwischen den X j und den F k. Bemerkung Skalenäquivarianz des Faktorenmodells: Läßt sich X durch ein orthogonales Faktorenmodell X = µ + LF + E mit spezifischer Varianz Var(E) = V beschreiben, so folgt Y = CX + ν, wobei ν R d und C = diag(c 1,..., c d ), c i = 0, dem orthogonalen Faktorenmodell Y = (Cµ + ν) + CLF + CE mit spezifischer Varianz Var(CE) = CVC. 81
8 Bemerkung Nicht-Eindeutigkeit des Faktorenmodells: Im orthogonalen Faktorenmodell sind Faktoren und Faktorladungen nur bis auf orthogonale Transformationen eindeutig: Äquivalentes Modell durch Rotation mit orthogonaler Matrix M: X = µ + L F + E = µ + L M M F + E = µ + L F + E. Die rotierten Faktoren F = M F erfüllen die selben Eigenschaften wie die ursprünglichen Faktoren F: E( F) = 0, cov( F) = I p, d. h. var( F k ) = 1, cov( F k, F k ) = 0 k = k, cov( F k, ε j ) = 0 j, k. Auch liefert die transformierte Ladungsmatrix L die gleiche Varianzzerlegung wie L. Σ = L L + V = L M M L + V = L L + V. Bemerkung Letzte Bemerkung bevor wir zum Schätzen kommen: Üblicherweise wird die FA mit den standardisierten Variablen Y j = (X j µ j )/s Xj statt der X j durchgeführt (vgl. Bem. 5.8). Das wird im Folgenden angenommen. Die geschätzte Kovarianzmatrix der standardisierten Daten ist dann die geschätzte Korrelationsmatrix der ursprünglichen Daten, also S Y = R X. Formal ändert sich nichts, wir analysieren nach wie vor eine Kovarianzmatrix Σ, behalten aber im Hinterkopf, dass dies eine Korrelationsmatrix ist (insbesondere Hauptdiagonale = 1). 82
9 Dadurch wird alles etwas einfacher: (Spezifität + Kommunalität = 1, Ladungen = Korrelation) Hat man Schätzungen L Y und V Y für die standardisierten Variablen bestimmt, so erhält man leicht die entsprechenden Matrizen für die ursprünglichen Variablen L X = D 1/2 L Y, V X = D 1/2 V Y D 1/2 wobei D = diag(s 2 X 1,..., s 2 X d ) = diag(s X ) (vgl. Bem. 5.11). 83
10 5.2 Anpassung des orthogonalen Faktorenmodells Bei der Anpassung eines Faktorenmodells sucht man Schätzungen für L und V. Basis der Schätzung: Iterative Algorithmen zur Varianzzerlegung Vorlesung Σ = L L + V. unter Verwendung einer Schätzung ˆΣ statt Σ. Die Schätzung von L ist nur bis auf orthogonale Transformationen eindeutig. Üblicherweise zusätzliche Forderung: Diagonalgestalt von L L. Es ist also folgendes mathematisches Problem zu lösen: Bestimmte Matrizen ˆL R d p, ˆV R d d diagonal, so dass ˆΣ = ˆL ˆL + ˆV ˆL ˆL ist Diagonalmatrix (2) für gegebene positiv definite Matrix ˆΣ R d d. Vorgehen bei Faktoranalyse: 1. Lösen des Problems (2) Man hat schonmal eine Lösung ˆL, ˆV, Kommunalitäten und Spezifitäten stehen fest. 2. Rotieren der Ladungsmatrix ˆL für bessere Interpretierbarkeit. Selbst nachdem die Orthogonalitätsredundanz behoben ist, muss (2) nicht eindeutig lösbar sein. Bemerkung Identifizierbarkeit: 1 Restriktionen in (2): 2 d(d + 1) p(p 1) Freie Parameter: d p + d (d p in ˆL, d in ˆV). ( Differenz: = 1 2 (d p) 2 (d + p) ). 84
11 Ist die Differenz negativ, so gibt es unendlich viele Lösungen. Das Modell hat zu viele Faktoren, um identifizierbar zu sein. Z. B. d = 4 und p = 2 führt zu einer Differenz von = 1. Uninteressanter Fall. Ist die Differenz genau null, so gibt es genau eine Lösung (unter Regularitätsannahmen : die Schätzung ˆΣ muss vollen Rang haben). Uninteressanter Fall: genauso viele Parameter wie im unrestringierten Modell, keine Dimensionsreduktion. Ist die Differenz positiv, so gibt es nur approximative Lösungen von (2), z. B. d = 4 und p = 1 führt zu einer Differenz von = 2. Der interessante Fall. Übliche Schätzverfahren für das Faktorenmodell Maximum-Likelihood-Methode Annahme: X multivariat normalverteilt. Erinnere an Satz 3.7. Für die Log-Likelihood gilt: log L(Σ; X) ln det(σ) + Spur(Σ 1 ˆΣ), wobei gleich bis auf additive und positive multiplikative Konstante bedeutet. Ersetze Σ durch LL + V und maximmiere ln det(ll + V) + Spur{(LL + V) 1 ˆΣ}, unter Nebenbedingung ˆL ˆL hat Diagonalgestalt. Anwendung iterativer, recht langsam konvergierender Optimierungsverfahren (z. B. vgl. Hartung, Elpelt, S. 520f). Anwendung von LR-Tests möglich, z.b. zum Testen eines p-faktorenmodells gegen ein unrestringiertes Normalverteilungsmodell. 85
12 Teststatistik: ˆT n = ( n 1 ) 2d p ln 6 ( det( ˆL ˆL ) + ˆV) det ˆΣ ist unter H 0 asymptotisch χ 2 -verteilt mit ((d p) 2 (d + p))/2 Freiheitsgraden. Kleinste-Quadrate-Methode Minimiere Kriterium ˆΣ L L V 2 2, wobei A 2 2 = i,j a 2 i,j quadrierte Matrixnorm, unter Nebenbedingung ˆL ˆL hat Diagonalgestalt, (ähnlich wie Maximum-Likelihood-Methode) Hauptfaktorenmethode Startschätzung für V: v jj = 1 ρ 2 X j,x j, wobei ρ 2 X j,x j die quadrierte multiple Korrelation zwischen X j und allen anderen Variablen X i, i = j ist. Alternativ: v jj = 1 max i =j ρ 2 X j,x i Iteriere 1. Spektralzerlegung von ˆΣ V = UΛU, setze [ L := λ1 u 1,..., ] λ p u p. 2. Setze V := diag( ˆΣ LL ). Hauptkomponentenmethode Variante der Hauptfaktorenmethode, gleiche Iteration wie oben, beginne aber mit Startschätzung für L, und zwar durch Spektralzerlegung von ˆΣ = UΛU, wie zuvor [ L := λ1 u 1,..., ] λ p u p. 86
13 Beispiel Wechsler adult intelligence scale (vgl. Bsp. 3.37), betrachte beide Personengruppen zusammen (n = 49), d = 4 einziger interessanter Fall: p = 1, unterstellt einen erklärenden Faktor allgemeine Intelligenz. Korrelationsmatrix R = Hauptfaktorenmethode Startschätzung für V mittels quadrierter multipler Korrelationen V 1 = Spektralzerlegung von R V 1 = U 1 Λ 1 U 1 : U 1 = Λ 1 = diag(2.43, 0.033, 0.067, 0.14) führt zu L 1 =
14 Neue Schätzung für V: V 2 = diag(r L 1 L 1) = Die Iteration stabilisiert sich bei L =, V = Beispiel Konsumentenbefragung (Fortsetzung 5.9): Schätzungen durch die Hauptkomponentenmethode auf Basis von R: Ladungen Kommunal. Spezif. Faktor 1 Faktor 2 Aroma Preis / Leistung Erfrischung Muntermacher Energie Geschätzte Ladungsmatrix und geschätzte Matrix der spezifischen Varianzen: L = und V =
15 Varianzzerlegung für die Korrelationsmatrix: R = LL + V Einsetzen der Schätzungen: LL + V = Varianzzerlegung mit L und V reproduziert die empirische Korrelationsmatrix R recht gut, zwei orthogonale Faktoren erklären die Daten recht gut. Dafür sprechen auch die hohen Kommunalitäten 0.98, 0.88, 0.98, 0.89, 0.93 nahe 1. Bemerkung Schätzung der Faktorscores: Faktorscores: Werte F ik der latenten Faktoren für die verschiedenen Individuen i = 1,..., n (die Realisierungen der Faktoren). Für jedes Individuum i gilt im Faktorenmodell Vorlesung X ij = µ j + p l jk F ik + ε ij, k=1 j = 1,..., d, i = 1,..., n Es gibt verschiedene Methoden zur Schätzung von Faktor-Scores. Regressionsmethode: Unter dem orthogonalen Faktorenmodell gilt X µ N d+p 0, Σ L F 0 L I p ( F X N p L Σ 1 (X µ), I p L Σ 1 L ) Schätzung: ˆF = ˆL ˆΣ 1 (X x) 89
16 Graphische Darstellung: Komponentendiagramm Veranschaulichung der Faktoren: Ladungen (l j,1,..., l j,p ) der Merkmale X j, j = 1,..., d, als Koordinaten im R p auffassen, so dass für je zwei Faktoren eine Grafik in der Ebene entsteht, welche die Lage der Variablen anzeigt: Beispiel Konsumentenbefragung 2. Faktor Y1 Y3 Y2 Y4 Y Faktor Ein solches Diagramm zeigt, wie die X j auf den F k laden. Hier laden alle Variablen hoch auf F 1. Führt man die FA mit standardisierten Variablen durch, so liegen die Punkte innerhalb des Einheitskreises (vgl. Bsp. 4.20). 5.3 Faktorrotation Die Faktoren und Faktorladungen im orthogonalen Faktorenmodell sind nur eindeutig bis auf orthogonale Transformationen, d. h. Drehungen des 90
17 Koordinatensystems um den Ursprung (Bem. 5.12). Häufig schließt man an die Modellanpassung eine Faktorrotation an zwecks besserer Interpretierbarkeit der Faktoren. Generelle Idee: Faktoren so drehen, dass auf jedem Faktor wenige Variablen hoch und die anderen niedrig laden; die Faktoren sollen über möglichst wenige Variablen mit möglichst hohen Ladungen verstanden werden. Verschiedene Kriterien zur Messung der Einfachheit der Ladungsstruktur. Varimax-Rotation (Kaiser, 1958; siehe auch Hartung & Elpelt, 1984, S. 552ff): Iterative Maximierung des Varimax-Kriteriums (Summe der Varianzen der mit den Kommunalitäten h 2 j = p k=1 l2 jk, j = 1,..., d, normierten quadrierten Ladungen innerhalb jeder Spalte von L) ( ) d 1 V(L) = (z 2 jk z 2 k d )2 p k=1 j=1 mit z jk = l jk h j, j = 1,..., d, k = 1,..., p. Quartimax-Rotation (siehe Hartung & Elpelt, 1984, S. 559ff): Iterative Maximierung des Quartimax-Kriteriums (Summe der vierten Potenzen der Ladungen in L) Q(L) = p k=1 d l 4 jk. j=1 Schiefwinklige Rotationen: Gelegentlich gibt man zugunsten der leichten Interpretation der Faktoren sogar das Prinzip unkorrelierter Faktoren auf und rotiert mit einer nicht orthogonalen Matrix (z.b. Oblimin-Rotation). Allerdings können die Faktoren dann nicht mehr einzeln interpretiert werden. 91
18 Beispiel Konsumentenbefragung (Fortsetzung 5.16): Faktorladungen nach Varimax-Rotation der ursprünglichen Faktorlösung: L = Komponentenplot nach Varimax-Rotation (vgl. Bsp. 5.18): 2. Faktor Y1Y3 Y4 Y2 Y Faktor Die Graphik zeigt: 1. rotierter Faktor von X 2, X 4 und X 5 getragen, 2. rotierter Faktor hingegen hauptsächlich durch X 1 und X 3 bestimmt (und etwas durch X 4 ). Kunden nehmen die fünf Variablen im Wesentlichen als Komponenten eines Faktors Effizienz (Preis / Leistung, Muntermacher, Energie) und eines Faktors Geschmack (Aroma, Erfrischung) wahr. 92
19 Konfirmatorische vs. explorative Faktorenanalyse Konfirmatorische Faktorenanalyse: In Voruntersuchungen oder aus Sachwissen wurden bereits Faktoren zur Erklärung gegebener Merkmale hergeleitet. Versuch, anhand (neuer) Daten dieses vermutete Faktorenmodell mit bekannter Faktorenanzahl p zu belegen (oder zu widerlegen). Explorative Faktorenanalyse: Aus vorliegenden Daten sollen latente Faktoren hergeleitet werden. Die Faktorenanzahl p ist unbekannt. Bemerkung Methoden zur Wahl der Anzahl p der Faktoren: Wähle p gleich der Anzahl der Eigenwerte von R, die größer oder gleich 1 sind. Erkläre kumulativ (festzulegenden) großen Anteil der Gesamtvarianz (Summe der Kommunalitäten). Scree-Graph: Zweidimensionale Graphik der gemäß ihrer Größe geordneten Eigenwerte gegen fortlaufenden Index. Die Stelle, an der der entstehende Linienzug einen Knick hat, liefert die Anzahl der Faktoren. Testen verschiedener Modelle (gegen unrestringiertes Modell) bei Maximum- Likelihood-Methode. 93
20 Beispiel Konsumentenbefragung (Fortsetzung): Genau zwei Eigenwerte von R sind größer als 1. Die zugehörigen beiden Faktoren erklären 93% der Gesamtvarianz. Der Knick im Scree-Plot liegt beim 3. Eigenwert:
Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse
Exploratorische Faktorenanalyse Der Begriff Faktorenanalyse umfasst eine Gruppe multivariater Analyseverfahren, mit denen zugrundeliegende gemeinsame Dimensionen von Variablenmengen (z.b. Fragebogenitems)
MehrKlausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min
Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
MehrExplorative Faktorenanalyse
Explorative Faktorenanalyse 1 Einsatz der Faktorenanalyse Verfahren zur Datenreduktion Analyse von Datenstrukturen 2 -Ich finde es langweilig, mich immer mit den selben Leuten zu treffen -In der Beziehung
Mehr5.Tutorium Multivariate Verfahren
5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
MehrDie Faktorenanalyse. Anwendung dann, wenn zwischen beobachtbaren und nicht direkt beobachtbaren Variablen ein kausales Verhältnis vermutet wird
Die Faktorenanalyse Zielsetzung Datenreduktion: eine größere Anzahl von Variablen auf eine kleinere Anzahl unabhängiger Einflussgrößen zurückführen Grundlegende Idee Direkt beobachtbare Variablen spiegeln
MehrLösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
MehrGrundzüge der Faktorenanalyse
SEITE Grundzüge der Faktorenanalyse Bei der Faktorenanalyse handelt es sich um ein Verfahren, mehrere Variablen durch möglichst wenige gemeinsame, hinter ihnen stehende Faktoren zu beschreiben. Beispiel:
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 27. März 2015 Aufgabe 1 Kennzeichnen Sie die folgenden Aussagen über die beiden Zufallsvektoren ([ ] [ ]) ([ ] [ ]) 2 1 0 1 25 2 x 1 N, x 3 0 1 2
Mehr5 Allgemeine Verfahren zum Testen von Hypothesen
5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).
MehrMultivariate Verteilungen. Gerhard Tutz LMU München
Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS
MehrKonfirmatorische Faktorenanalyse. Regressionsmodelle für Politikwissenschaftler
Konfirmatorische Faktorenanalyse Regressionsmodelle für Politikwissenschaftler Was ist ein Faktor? Faktor oder latente Variable Regressionsmodelle für Politikwissenschaftler Konfirmatorische Faktorenanalyse
MehrDie Rücktransformation: Z = A t (Y µ) = Y = AZ + µ
Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Kleine Eigenwerte oder Eigenwerte gleich Null: k Eigenwerte Null = Rang(Σ) = m k Eigenwerte fast Null = Hauptkomponenten beinahe konstant Beschränkung
MehrAnhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen
Kapitel 9 Anhang aus Statistik-III-Skript: p-dimensionale Zufallsvariablen 9 Definitionen, Eigenschaften Wir betrachten jetzt p Zufallsvariablen X, X 2,, X p Alle Definitionen, Notationen und Eigenschaften
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Mehr1 Gemischte Lineare Modelle
1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst
MehrMultivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
Mehr6. Faktorenanalyse (FA) von Tests
6. Faktorenanalyse (FA) von Tests 1 6. Faktorenanalyse (FA) von Tests 1 6.1. Grundzüge der FA nach der Haupkomponentenmethode (PCA) mit anschliessender VARIMAX-Rotation:... 2 6.2. Die Matrizen der FA...
Mehr9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T
9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon
MehrProf. Dr. Fred Böker
Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung
MehrExplorative Faktorenanalyse
Bachelorseminar: Ausgewählte Aspekte der Wirtschafts- und Sozialstatistik Explorative Faktorenanalyse Simon Reitzner Betreuerin: Eva Endres, M.Sc. LMU München, Institut für Statistik 19.06.2015 1 / 43
MehrMultivariate Verfahren
Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe
MehrVorlesung: Lineare Modelle
Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen
MehrKonfirmatorische Faktorenanalyse
Konfirmatorische Faktorenanalyse Regressionsmodelle für Politikwissenschaftler Was ist ein Faktor? Faktor oder latente Variable nicht direkt beobachtbare Größe die beobachtbare Variablen ( Indikatoren
Mehr2 Multivariate Normalverteilung
2 Multivariate Normalverteilung 2. Multivariate Normalverteilung Definition 2.. Normalverteilung Eine univariat normalverteilte Zufallsvariable X besitzt ie Dichte ) (x µ)2 f (x) = exp ( x R. 2π σ 2σ 2
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrFaktorenanalyse und Hauptkomponentenanalyse
Faktorenanalyse und Hauptkomponentenanalyse Man habe n Personen auf m Variablen untersucht Insbesondere habe man: n Personen Index i m Variablen Index j r Faktoren Index l Die Faktoren sind latente Variablen,
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
MehrDeskriptive Beschreibung linearer Zusammenhänge
9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrDr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrMETHODENPRAKTIKUM II Kurs 1. Prof. Dr. Beat Fux SUZ Frühlingssemester 2009
METHODENPRAKTIKUM II Kurs 1 Prof. Dr. Beat Fux SUZ Frühlingssemester 2009 Ziel der Faktorenanalyse Struktur hinter den Korrelationen zwischen Variablen entdecken Reduzierung einer Vielzahl von Variablen
MehrZur Erklärung menschlicher Verhaltensweisen oder allgemeiner sozialer Phänomene ist häufig eine Vielzahl von Einflussfaktoren zu berücksichtigen.
4.3 Faktorenanalyse Problemstellung Zur Erklärung menschlicher Verhaltensweisen oder allgemeiner sozialer Phänomene ist häufig eine Vielzahl von Einflussfaktoren zu berücksichtigen. Je größer jedoch die
MehrLineare Regression. Kapitel Regressionsgerade
Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell
MehrEiner Reihe von Merkmalen zugrunde liegende, gemeinsame Faktoren ermitteln.
Faktoranalysen Aufbau 1. Sinn und Zweck 2. Eigenschaften der Merkmale 3. Extraktion der Faktoren 4. Anzahl der Faktoren 5. Rotation der Faktoren 6. Interpretation der Faktoren Sinn und Zweck Einer Reihe
Mehr6.1 Definition der multivariaten Normalverteilung
Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer
MehrZusammenfassung 11. Sara dos Reis.
Zusammenfassung 11 Sara dos Reis sdosreis@student.ethz.ch Diese Zusammenfassungen wollen nicht ein Ersatz des Skriptes oder der Slides sein, sie sind nur eine Sammlung von Hinweise zur Theorie, die benötigt
MehrDemokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik
Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen
Mehry = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0
8 Lineare Modelle In diesem Abschnitt betrachten wir eine spezielle Klasse von statistischen Modellen, in denen die Parameter linear auftauchen Wir beginnen mit zwei Beispielen Beispiel 8 (lineare Regression)
MehrStatistische Methoden in der Wirtschaftsund Sozialgeographie
Statistische Methoden in der Wirtschaftsund Sozialgeographie Ort: Zeit: Multimediapool Rechenzentrum Mittwoch 0.5--45 Uhr Material: http://www.geomodellierung.de Thema: Beschreibung und Analyse Wirtschafts-
MehrProxies, Endogenität, Instrumentvariablenschätzung
1 4.2 Multivariate lineare Regression: Fehler in den Variablen, Proxies, Endogenität, Instrumentvariablenschätzung Literatur: Wooldridge, Kapitel 15, Appendix C.3 und Kapitel 9.4 Wahrscheinlichkeitslimes
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrEigene MC-Fragen Kap. 4 Faktorenanalyse, Aggregation, Normierung. 1. Welche Aussage zu den Prinzipien der Faktorenanalyse ist zutreffend?
Eigene MC-Fragen Kap. 4 Faktorenanalyse, Aggregation, Normierung 1. Welche Aussage zu den Prinzipien der Faktorenanalyse ist zutreffend? a) Die Faktorenanalyse hat ihren Ursprung in der theoretischen Intelligenzforschung.
MehrHolger Dette. 30. Oktober 2015
Ruhr-Universität Bochum 30. Oktober 2015 1 / 1 Methodenlehre III Prof. Dr. NA 3/73 Telefon: 0234 32 28284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag,
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrFaktoren- und Hauptkomponentenanalyse
Ziel: Anwendung von Verfahren der Dimensionsreduzierung Erkennen von Strukturen in Daten an ausgewählten Anwendungsbeispielen Betreuer: Dipl.-Chem. Stefan Möller IAAC, Lehrbereich Umweltanalytik Lessingstraße
MehrDr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9.
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Januar 2011 BOOTDATA11.GDT: 250 Beobachtungen für die Variablen...
MehrLösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 13 a.
Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 LÖSUNG 13 a. Die Variablen sollten hoch miteinander korrelieren. Deshalb sollten die einfachen Korrelationskoeffizienten hoch ausfallen.
MehrFaktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduktion. Interpretation des SPSS-Output s
Explorative Faktorenanalyse als Instrument der Dimensionsreduktion Beispiel: Welche Dimensionen charakterisieren die Beurteilung des sozialen Klimas in der Nachbarschaft? Variablen: q27a bis q27g im Datensatz
MehrMultiple Regressionsanalyse - Kurzabriss
Multiple Regressionsanalyse - Kurzabriss Ziele: Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Meist zu Screening-Untersuchungen, um den Einfluß von vermuteten Ursachenvariablen
Mehrx t2 y t = 160, y = 8, y y = 3400 t=1
Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =
MehrVarianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
MehrKonfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
MehrZeitreihenökonometrie
Zeitreihenökonometrie Kapitel 8 Impuls-Antwort-Funktionen Interpretation eines VAR-Prozesses 2 Fall eines bivariaten Var(p)-Prozess mit 2 Variablen und ohne Konstante 1 1 p p 1,t α11 α 12 1,t-1 α11 α 12
MehrInferenz im multiplen Regressionsmodell
1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall
MehrFaktorenanalyse. Fakultät für Human und Sozialwissenschaften Professur für Forschungsmethodik und Evaluation in der Psychologie
Faktorenanalyse Fakultät für Human und Sozialwissenschaften Professur für Forschungsmethodik und Evaluation in der Psychologie Seminar: Multivariate Analysemethoden Seminarleiter: Dr. Thomas Schäfer Referenten:
MehrMehrdimensionale Skalierung
Mehrdimensionale Skalierung Datenanalyse Dietmar Maringer Abteilung für Quantitative Methoden, WWZ der Universität Basel Herbstsemester 2010 D Maringer: Datenanalyse Mehrdimensionale Skalierung (1) Problemstellung
MehrStatistische Methoden in den Umweltwissenschaften
Statistische Methoden in den Umweltwissenschaften Korrelationsanalysen Kreuztabellen und χ²-test Themen Korrelation oder Lineare Regression? Korrelationsanalysen - Pearson, Spearman-Rang, Kendall s Tau
MehrMathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum
MehrLösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1
LÖSUNG 13 a) Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 Die Variablen sollten hoch miteinander korrelieren. Deshalb sollten die einfachen Korrelationskoeffizienten hoch ausfallen.
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
Mehr10 Statistisches Schätzen
10 Statistisches Schätzen 620 10 Statistisches Schätzen 10.1 Punktschätzung 623 10.1.1 Schätzer und ihre Gütekriterien 623 10.1.2 Erwartungstreue 627 10.1.3 Erwartete quadratische Abweichung (MSE) 634
Mehr2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme)
2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme) Annahme A1: Im multiplen Regressionsmodell fehlen keine relevanten exogenen Variablen und die benutzten exogenen Variablen x 1,
Mehr2.Tutorium Multivariate Verfahren
2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrDatenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
PHY3 Herbstsemester 04 Olaf Steinkamp Physik-Institut der Universität Zürich Winterthurerstrasse 90 CH-8057 Zürich olafs@physik.uzh.ch Büro: 36-J- Tel.: 044-635.57.63 Vorlesungsprogramm Einführung, Messunsicherheiten,
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrStatistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II
Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen
Mehr17. Januar Ruhr-Universität Bochum. Methodenlehre III, WS 2010/2011. Prof. Dr. Holger Dette. 1. Matrizenrechnung. 2.
Ruhr-Universität Bochum 17. Januar 2011 1 / 232 Methodenlehre III NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag, 8.30
MehrDatenanalyse mit Excel und Gretl
Dozent: Christoph Hindermann christoph.hindermann@uni-erfurt.de Datenanalyse mit Excel und Gretl Teil Titel 2: Gretl 1 Teil 2: Gretl Datenanalyse mit Excel und Gretl Teil Titel 2: Gretl 2 Modellannahmen
MehrSeminar Quantitatives Risikomanagement
Seminar Quantitatives Risikomanagement Multivariate Modelle II Toni Bastgen Mathematisches Institut der Universität zu Köln Sommersemester 2008 Betreuung: Prof. Schmidli, J. Eisenberg Inhaltsverzeichnis
MehrFaktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung. Interpretation des SPSS-Output s
Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung Beispiel: Welche Dimensionen charakterisieren die Beurteilung des sozialen Klimas in der Nachbarschaft? Variablen: q27a bis q27g im
MehrEigenwerte: Auto.eigen<-eigen(cor(Auto.frame))$values round(auto.eigen,digits=4) Kumulierter Anteil
Korrelationsmatrix: Auto.cor
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
MehrFaktorenanalyse Beispiel
Faktorenanalyse Zweck der Faktorenanalyse ist die Dimensionsreduktion einer gegebenen Variablenanzahl, d. h. also die Zusammenfassung vorhandener Variablen zu wenigen latenten, i. d. R. voneinander unabhängigen
Mehr5. Stichproben und Statistiken
5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)
Mehr1.5 Erwartungswert und Varianz
Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:
MehrEinführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
Mehr29 Lineare Algebra 2 (SS 2009) 4.9. Das charakteristische Polynom sei Produkt von linearen Polynomen.
9 Lineare Algebra (SS 009) 49 Das charakteristische Polynom sei Produkt von linearen Polynomen 49 Das charakteristische Polynom sei Potenz eines linearen Polynoms Wir betrachten nun eine Matrix A, sodass
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.
0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:
Mehr6 Korrelations- und Regressionsanalyse: Zusammenhangsanalyse stetiger Merkmale
6 Korrelations- und Regressionsanalyse: Zusammenhangsanalyse stetiger Merkmale 397 6.1 Korrelationsanalyse Jetzt betrachten wir bivariate Merkmale (X, Y ), wobei sowohl X als auch Y stetig bzw. quasi-stetig
Mehry t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.
Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf
Mehr5 Lineare Algebra (Teil 3): Skalarprodukt
5 Lineare Algebra (Teil 3): Skalarprodukt Der Begriff der linearen Abhängigkeit ermöglicht die Definition, wann zwei Vektoren parallel sind und wann drei Vektoren in einer Ebene liegen. Daß aber reale
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
Mehr2.1 Gemeinsame-, Rand- und bedingte Verteilungen
Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die
Mehr6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal
Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße 20 42097 Wuppertal Allgemein 6 Konstrukte: - soziale Kontakte (6 Items) - Markenbewusstsein (6 Items) - Werbeakzeptanz (6 Items) - materielle
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
MehrÜbungen zu Multivariate Verfahren WS 2009/10 1. Aufgabe 1 Betrachten Sie die folgenden beiden Vektoren und Matrizen
Übungen zu Multivariate Verfahren WS 2009/10 1 Prof. Dr. Fred Böker und Jing Dai Aufgabe 1 Betrachten Sie die folgenden beiden Vektoren und Matrizen 1 2 2 0 1 2 1 a = 2, b = 1, C = 1 4 0, E = 4 1 2 3 2
MehrStatistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
Mehr1 Beispiele multivariater Datensätze... 3
Inhaltsverzeichnis Teil I Grundlagen 1 Beispiele multivariater Datensätze... 3 2 Elementare Behandlung der Daten... 15 2.1 Beschreibung und Darstellung univariater Datensätze... 15 2.1.1 Beschreibung und
MehrStochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)
Prof. Dr. P. Embrechts ETH Zürich Sommer 204 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Vereinfachen
MehrÜbung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula
MehrFormelsammlung zur Lehrveranstaltung Statistische Analyseverfahren. 4. Februar 2019
Formelsammlung zur Lehrveranstaltung Statistische Analyseverfahren 4 Februar 2019 Inhaltsverzeichnis 1 Diskriminanzanalyse 1 11 ML-Diskrimination für zwei Normalverteilungen mit identischen Kovarianzmatrizen
Mehr