Die Faktorenanalyse: Das Rotationsproblem / Extraktionskriterien für Faktoren
|
|
- August Hertz
- vor 7 Jahren
- Abrufe
Transkript
1 Die Faktorenanalyse: Das Rotationsproblem / Extraktionskriterien für Faktoren Julia Manhart / Matthias Hunger 05.November
2 Inhaltsverzeichnis 1 Rückblick 3 2 Das Rotationsproblem Problem der Identifizierbarkeit Unrotierte Faktoren: Hauptkomponentenmethode und ML-Faktorenanalyse Finden eines guten Modells 5 4 Extraktionskriterien für Faktoren Hypothetisches Modell/theoretisches Modell Eigenwertkriterium Scree-Plot Parallelanalyse nach Horn Minimum-Average-Partial-Test (MAP-Test) Likelihood-Quotienten-Test Zusammenfassung Extraktionskriterien Faktorrotationen Einfachstruktur Orthogonale und oblique Rotationen Die Ladung in orthogonalen und obliquen Modellen Beispiele Varimax Promax Interpretation und Wahl der richtigen Rotation Zusammenfassung Faktorrotationen
3 1 Rückblick Die Beziehung zwischen den beobachteten Items und k nicht beobachtbaren (latenten) Faktoren bringt die Grundgleichung der Faktorenanalyse zum Ausdruck: Y = Lf + e Hierbei ist L = (l ij ) die (pxk)-matrix der Ladungen, f = (f 1,..., f k ) der Vektor der gemeinsamen Faktoren und e = (e 1,..., e p ) der Vektor der spezifischen Faktoren bzw. Fehler. Mit den entsprechenden Modellannahmen ergibt sich die folgende Zerlegung der Kovarianzmatrix Σ von Y ( Fundamentaltheorem ) Σ = LL T + Ψ Ψ ist die Kovarianzmatrix von e (Diagonalmatrix) 2 Das Rotationsproblem Im faktorenanalytischen Modell soll eine Zerlegung der Kovarianz- oder Korrelationsmatrix von Y gemäß dem Fundamentaltheorem gefunden werden, die die Daten möglichst gut erklärt. 2.1 Problem der Identifizierbarkeit Werden bei der Analyse zwei oder mehr Faktoren angenommen, so ist die Zerlegung von Σ in k, L und Ψ nicht eindeutig - das Modell ist nicht identifizierbar. Dies hat zur Folge, dass mit Hilfe empirischer Daten keine konsistenten Schätzer für die Parameter k, L und Ψ berechnet werden können. Fehlende Eindeutigkeit bedeutet, dass es bei gleicher Datenerklärung bzw. gleichem Fehler (d.h. bei gegebenem k und Ψ) unendlich viele Ladungsmatrizen gibt, die die Zerlegung von Σ leisten. Ein besseres Ergebnis im Sinne der Faktorenanalyse bedeutet keine bessere Datenanpassung, sondern meist nur eine bessere Interpretation. Betrachten wir erneut die Grundgleichung: Y = Lf + e Sei M eine orthogonale Matrix. Ersetzt man in der Modellgleichung die Ladungsmatrix L durch L = LM und die Faktorvariablen f durch f = M T f, so erhält man die Gleichung Y = L f + e = LMM T f + e = LMM 1 f + e = Lf + e 3
4 Der systematische Teil Lf des Modells bzw. die Datenerklärung bleiben also gleich. Wir erhalten über die Transformation jedoch andere Ladungen und Faktoren, die aber die gleichen statistischen Eigenschaften wie die ursprünglichen Faktoren besitzen. Schließlich wird Σ durch die neue Ladungsmatrix L genauso gut zerlegt, wie das auch die ursprüngliche Ladungsmatrix getan hat: Σ = LL T + Ψ = LIL T + Ψ = LMM T L T + Ψ = L L T + Ψ Faktorladungen sind also nur bis auf orthogonale Transformationen eindeutig bestimmt. Da Abbildungen mit orthogonalen Matrizen geometrisch Rotationen des Koordinatensystems entsprechen, ist dieser Zusammenhang Ausgangspunkt für die Rotationstechniken. Diese können für eine bessere Interpretation der Faktoren sinnvoll sein. Gleichzeitig sind die Ergebnisse des faktorenanalytischen Modells dadurch einer gewissen Beliebigkeit ausgesetzt. Es sollte also aufgrund dieser Unbestimmtheiten generell Vorsicht bei der Interpretation faktorenananalytischer Ergebnisse geboten sein. 2.2 Unrotierte Faktoren: Hauptkomponentenmethode und ML-Faktorenanalyse Da Faktorladungen nicht eindeutig bestimmt sind, stellt sich die Frage, wie die beiden wichtigsten Methoden der Faktorenanalyse, die Hauptkomponentenund die ML-Methode, dennoch zu Lösungen kommen. Dies geschieht über sog. Nebenbedingungen. Die Nebenbedingung bei der Hauptkomponentenmethode schreibt vor, dass die Faktoren der Reihe nach abnehmende maximale Varianzen erklären sollen (Prinzip der Varianzmaximierung). Im Fall der ML-Faktorenanalyse wird als Nebenbedingung zusätzlich gefordert, dass die Matrix L T Ψ 1 L eine Diagonalmatrix ist. Diese Nebenbedingung ist im Grunde willkürlich gewählt, verbessert allerdings den Rechenaufwand. Durch die Nebenbedingungen wird das Optimierungsproblem eindeutig: Unter allen (unendlich vielen) Anordnungen der latenten Faktorachsen im Raum wird jetzt nur noch eine spezielle betrachtet, die dann geschätzt werden kann. Als Ergebnis erhalten wir jeweils die k orthogonalen Faktoren der unrotierten Lösung. Es ist leicht nachzuvollziehen, dass die k Faktoren, deren Bestimmung auf relativ willkürlichen und technischen Nebenbedingungen 4
5 beruhen, nicht unbedingt sachlogisch nachvollziehbare Ergebnisse produzieren. Daher schließen sich der unrotierten Lösung dann die so genannten Rotationstechniken an. 3 Finden eines guten Modells Das Ziel der Faktorenanalyse ist es, eine Vielzahl beobachteter Variablen (Items) auf zu Grunde liegende latente Größen (Faktoren) zurückzuführen. Diese Faktoren sollen die Zusammenhänge zwischen Items erklären. Aus geometrischer Sicht wird also wie folgt vorgegangen: 1. Es wird über die ML-Methode oder die Hauptkomponentenmethode ein k-dimensionaler Unterraum (k: Anzahl der Faktoren) gesucht, der die Daten möglichst gut wiedergibt. Insbesonders wird eine geeignete Anzahl k an Faktoren gesucht. 2. Die Achsen, die diesen Unterraum aufspannen, werden so rotiert, dass die Interpretation der Faktorenstruktur möglichst einfach ist. (Der Unterraum bleibt dabei der selbe - die Fehlerterme bleiben gleich) 4 Extraktionskriterien für Faktoren Um die Anzahl der zu extrahierenden Faktoren k abzuschätzen gibt es verschiedene Verfahren. Prinzipiell können so viele Faktoren extrahiert werden wie Variablen vorhanden sind, jedoch widerspricht dies dem Ziel der Faktorenanalyse die Dimension der Daten zu reduzieren. Prinzipiell kann man postulieren, dass k möglichst gering sein sollte, aber hinreichend gut, um die Daten zu erklären. Außerdem ist es sehr wichtig die inhaltliche Plausibilität zu berücksichtigen, da sonst starke Probleme bei der inhaltlichen Interpretation der Faktoren auftreten können und somit manche Faktoren keinen Sinn ergeben können. Das Eigenwertkriterium, der Scree-Plot, die Parallelanalyse sowie der MAP- Test beruhen dabei auf der Hauptkomponentenanalyse und erklären das Ziel, die beste Varianzerklärung mit Hilfe der extrahierten Faktoren zu finden. Jede weitere Dimensionserhöhung,d.h. jeder weitere Faktor, erklärt dann nicht mehr viel Varianz und kann somit weggelassen werden. Der Likelihood- Quotienten-Test hingegen prüft auf Signifikanz ob die Anzahl der Faktoren ausreicht, um die Daten genügend zu erklären. Es stehen somit heuristische Verfahren (Eigenwertkriterium, Scree-Plot, Parallelanalyse, MAP-Test) einem parametrischen Verfahren (Likelihood-Quotienten-Test) gegenüber. 5
6 All diese Methoden beziehen sich allerdings nur auf die Faktorenextraktion. Mit welcher Methode dann die tatsächliche Faktorenanalyse gerechnet wird, wird hier nicht entschieden. Ferner sind alle Methoden immer vor Rotation anzuwenden. Da kein allgemein gültiges Abbruchkriterium für die Anzahl der Faktoren besteht, ist es günstig immer mehrere der im Folgenden ausführlich beschriebenen Verfahren zu betrachten. 4.1 Hypothetisches Modell/theoretisches Modell Bei diesem Kriterium wird die Anzahl der zu extrahierenden Faktoren aus einer Theorie vorgegeben. Man hat zwar eine Vermutung viele viele Faktoren extrahiert werden sollen, jedoch weiß man nicht, welche Variablen auf welchem Faktor laden. Genau das ist der Unterschied zu konfirmatorischen Faktorenanalyse. Es ist von Vorteil neben Betrachtung anderen Extraktionskriterien immer auch die theoretisch begründete Anzahl an Faktoren zu berücksichtigen. 4.2 Eigenwertkriterium Diese Methode bezieht sich auf die Betrachtung der Eigenwerte, die im Rahmen der Hauptkomponentenanalyse aus der empirischen Kovarianzmatrix bzw. Korrelationsmatrix der Daten ermittelt wurden. Erklärt ein Faktor mehr Varianz,d.h. beinhaltet er mehr Information, als eine standardisierte Variable, so ist sein Eigenwert 1. Es werden so viele Faktoren extrahiert wie Eigenwerte 1 vorhanden sind. k = {j λ j 1} Dieses Kriterium eignet sich vor allem dann, wenn eine differenzierte Aufteilung der Beobachtungen gewünscht ist. In der Regel überschätzt es die tatsächliche Anzahl an Faktoren. Die Schätzung gilt jedoch als besonders verlässlich, wenn die Variablen sehr messgenau sind, d.h. die Extraktion mehrerer Faktoren ist bei reliablen Variablen eher gerechtfertigt, da mehr Varianz vorhanden ist, die ausgeschöpft werden kann. 4.3 Scree-Plot Bei diesem Vorgehen wird das Diagramm der Eigenwerte über die dazugehörigen Faktoren dargestellt. Oft zeigt sich bei Betrachtung der Eigenwerte über die Faktoren ein eindeutiger Knick zwischen relativ hohen und flach abfallenden, niedrigen Eigenwerten. 6
7 Weisen Eigenwerte systematische und bedeutsame empirische Zusammenhänge auf, so lässt sich ein Verlauf asymtotisch zur y-achse erkennen. Betrachtet man den Eigenwertverlauf von simulierten Zufallszahlen, so kann man eine leicht abfallende Kurve der Eigenwerte feststellen, die einer Parallelen zur x-achse ähneln und somit keine systematischen Zusammenhänge mehr aufweisen. Man wählt daher die Anzahl an Faktoren, deren Eigenwerte vor dem Knick liegen. Oft stimmen dieses Kriterium und das Eigenwertkrierium überein, da sie auf dem selben Prinzip beruhen. Das Eigenwertkriterium ist sehr subjektiv ist und wird deshalb oft kritisiert. 4.4 Parallelanalyse nach Horn Die Parallelanalyse prüft, ob die Faktoren, die extrahiert werden sollen sinnvoll sind oder ob sie vom Zufall abhängen. H 0 : Unabhängigkeit der Daten, d.h. Extraktion von Faktoren nicht sinnvoll H 1 : Extraktion von Faktoren sinnvoll Da man die wahre Verteilung der Eigenwerte unter der Nullhypothese nicht kennt, wird eine Prüfverteilung simuliert. Dafür werden mit Hilfe simulierter Zufallszahlen (normalverteilte Zufallszahlen oder Permutation der Orginaldaten) z.b Datensätze generiert und mit jedem dieser Datensätze Hauptkomponentenanalysen durchgeführt. Man erhält nun für jeden empirischen Eigenwert 1000 simulierte Eingenwerte,welche in einem Eigenwertverlauf dargestellt werden. Da simulierte Zufallszahlen nicht hoch miteinander korrelieren unterliegen diese Verteilungen der Annahme es gibt keine Faktoren. Der simulierte Eigenwertverlauf wird daher auch als sinnloser Verlauf bezeichnet. Liegt nun ein empirisch beobachteter Eigenwert über dem 95%-Percentil der zufällig erzeugten Eigenwerte, so wird es als unwahrscheinlich angesehen, dass dieser Eigenwert zufällig ist, d.h. er muss empirisch bedeutsam sein. Extrahiert werden daher die Faktoren, deren empirische Eigenwerte über dem 95%-Percentil der zufällig erzeugten Eigenwerte liegen. Wichtig hierbei ist, dass Stichprobengröße und Variablenanzahl in der empirischen und zufällig erzeugten Stichprobe übereinstimmen. Bei der Parallelanalyse nach Horn wird die tatsächliche Anzahl der Faktoren in den meisten Fällen unterschätzt. 4.5 Minimum-Average-Partial-Test (MAP-Test) Diese Methode stellt die beste Extraktionsmethode in der Psychologie dar. 7
8 1. In einem ersten Schritt wird eine Hauptkomponentenanalyse durchgeführt und die erste Hauptkomponente extrahiert. 2. Anschließend betrachtet man die empirische Korrelationsmatrix, wobei die erste Hauptkomponente aus den Korrelationen auspartialisiert wird, d.h. die resultierenden Korrelationen enthalten nur noch die Varianz, die nicht durch die erste Hauptkomponente erklärbar ist. Diese Matrix wird Residualmatrix genannt. 3. In einem weiteren Schritt wird nun die mittlere quadrierte Partialkorrelation gebildet, welche auch als mittlere aufgeklärte Varianz bezeichnet werden kann. r 2 = 1 n i (n j 1)/2 n i i (σ i,j ) 2 4. Dieses Vorgehen wird nun für jede weitere Hauptkomponente wiederholt bis so viele Faktoren wie Variablen extrahiert worden sind. 5. Anschließend vergleicht man die Anzahl der extrahierten Variablen und die dazugehörigen mittleren quadrierten Partialkorrelationen untereinander. Extrahiert wird die Anzahl an Faktoren, deren mittlere quadrierte Partialkorrelation am geringsten ist. Ist dies der Fall, so sind die systematischen Varianzanteile zwischen den Variablen vollständig ausgeschöpft, d.h. die nachfolgenden Faktoren erklären keine systematische Varianz mehr. j>i 4.6 Likelihood-Quotienten-Test Unter Vorraussetzung der Normalverteilung der Daten prüft der Likelihood- Quotienten-Test (LQ-Test) die Übereinstimmung von Modell und Daten bei gewählter Faktorenanzahl k, d.h. es wird untersucht, ob die Daten einem Modell mit k Faktoren entsprechen. H 0 : Σ = LL + V L R p,k, V > 0 H 1 : Σ R p,p beliebig positiv definit, (H 0 H 1 ) Der Likelihood-Quotienten-Test beruht auf dem Verhältnis der Werte, die die Maximum-Likelihoods der entsprechenden Hypothese maximieren. Die Likelihoods leiten sich aufgrund der Normalverteilung der Daten aus der 8
9 Dichte der empirischen Kovarianzmatrix S her, wobei (N 1)S W p (Σ, N 1) verteilt ist. L 0 = max Σ H 0 L(Σ S) = const S (N p 2)/2 ˆΣ (N 1)/2 exp( ((N 1)/2)tr(S ˆΣ)) L 1 = max Σ H 1 = L(S) = S (N 1)/2 exp( ((N 1)/2)p) Als Teststatistik ergibt sich mit U k = 2 ln{ L 0 L 1 }: U k = (N 1)[ln ˆΣ ln S ] Für große Stichproben gilt: U k ã χ 2 (d k ) mit: d k = [p(p + 1)/2] [pk + p k(k 1)/2] Die Freiheitsgrade setzen sich aus der Anzahl der Elementgleichungen p(p + 1)/2 minus der Anzahl der Unbekannten von L und V (pk k) vermindert um die Anzahl k(k 1)/2 der Restriktionen durch L V 1 L = diag zusammen. Die Nullhypothese wird zu einem vorgegebenen Signifikanzniveau α verworfen, wenn: U k > χ 2 (d k ; 1 α) Wird H 0 abgelehnt, so kann man daraus schließen, dass die Daten und das Modell mit k Faktoren nicht übereinstimmen und wenigstens k+1 Faktoren für diese Übereinstimmung erforderlich wären. Steht zu Beginn der Analyse noch kein k fest so beginnt man den LQ-Test mit sehr kleinem k 0 und erhöht bei Ablehnung der Nullhypothese H(k 0 ) k schrittweise um 1 und testet somit H(k 0 + 1) usw. Sobald H(k 0 + n) nicht mehr abgelehnt wird kann (k 0 + n) als Schätzwert für den wahren Wert k angenommen werden. Zu beachten ist: 1. Die Normalverteilungsannahme darf hier nicht verletzt sein, da der Test sonst keine verlässlichen Aussagen liefert. 2. In jedem Schritt muss die gesamt ML-Schätzung durchgeführt werden. 3. Da die Hypothesen durch schrittweises Erhöhen von k nacheinander getestet werden und somit nicht unabhängig sind, kann man nicht k = ˆk mit einer bestimmten Wahrscheinlichkeit annehmen. Man kann nur festellen, dass: gilt. k ˆk mit W ahrscheinlichkeit 1 α 9
10 4. U k ist stark von der Stichprobengröße abhängig. 4.7 Zusammenfassung Extraktionskriterien Prinzipiell ist es immer unproblematischer zu viele als zu wenige Faktoren zu extrahieren, da bei zu vielen Faktoren die Struktur der Items nicht verloren geht. Werden jedoch zu wenige Faktoren extrahiert so werden die Items Faktoren zugeordnet, zu denen sie gar nicht gehören. In der Praxis haben sich vor allem der MAP-Test und die Parallelanalyse bewährt. Wie in der Einleitung bereits erwähnt, ist es am Besten mehrere dieser Kriterien zu betrachten und mit Hilfe inhaltlicher Plausibilität eine Entscheidung zu treffen. 5 Faktorrotationen Da unrotierte Faktoren in der Regel schwer zu interpretieren sind, sind für die sinnvolle Verwendung faktoranalytischer Ergebnisse Rotationstechniken meist unabdingbar. Geometrisch gesehen bleibt durch eine Rotation die Position der Items im Faktorraum unverändert, allerdings werden die Faktorachsen anders in den Raum gelegt. Dadurch ändert sich die Beschreibung der Items durch die einzelnen Faktoren. 5.1 Einfachstruktur Zur besseren Interpretation der Faktoren soll bei Rotationen grundsätzlich erreicht werden, dass Items auf einem Faktor möglichst hoch laden und auf den anderen Faktoren möglichst gering. Solch eine Struktur wird auch als Einfachstruktur bezeichnet. 5.2 Orthogonale und oblique Rotationen Bei den Rotationstechniken unterscheidet man zwischen orthogonalen und obliquen Techniken. Orthogonale Rotationen führen zu k neuen Faktoren, die wieder unkorreliert sind: Das Koordinatensystem der ursprünglichen Faktorvariablen wird also lediglich gedreht, wodurch die 90 -Winkel zwischen den Faktoren erhalten bleiben. Oblique Rotationen hingegen lassen abhängige Faktoren zu. Geometrisch bedeutet dies, dass die Faktoren nicht mehr senkrecht zueinander stehen müssen. Im folgenden vereinfachten Modell eines Faktorraums mit zwei Faktoren 10
11 soll gezeigt werden, wann welche Rotationstechnik angebracht erscheint. Die Punkte stellen dabei jeweils Items dar. Abbildung 1: Veranschaulichung von orthogonaler und obliquer Rotation aus: Bühner, M. (2006). Einführung in die Test- und Fragebogenkonstruktion. München: Pearson. Im ersten Fall erkennt man, dass eine orthogonale Rotation nicht den Daten gerecht wird. Um eine Einfachstruktur zu erzielen, ist eine oblique Rotation nötig, bei der die Faktoren nicht mehr im rechten Winkel zueinander stehen. Im zweiten Fall wird mit den beiden Faktoren für viele Items eine Einfachstruktur erreicht, allerdings werden einige Items im ersten Quadranten dieser Struktur nicht gerecht. Die Extraktion eines weiteren Faktors könnte angebracht sein. Im dritten Fall kann kein zufrieden stellendes faktorenanalytisches Modell gefunden werden; die Items sind willkürlich über die Faktoren verteilt. Im letzten Fall wird mit einer orthogonalen Rotation eine gute Einfachstruktur erzielt. 11
12 5.3 Die Ladung in orthogonalen und obliquen Modellen Als Ladungen eines Items werden im eigentlichen Sinne seine Koordinaten auf den Achsen (Faktoren) des Faktorraums bezeichnet. Darüber hinaus ist im orthogonalen Faktormodell (bei normierten Achsen und Vektoren) die Ladung eines Items auf einem Faktor gleich der Korrelation. Bei obliquen Rotationen hingegen stehen die Faktoren nicht mehr senkrecht zueinander. Folglich stimmt die Korrelation (Lot des Itemvektor-Endpunkts auf die Faktorachse) nicht mehr mit dem Koordinatenwert des Items auf der Faktorachse überein. Bei obliquen Rotationen werden daher beide Kennwerte getrennt betrachtet. Die Korrelationen zwischen Items und Faktoren (Lot auf die Faktorachsen) werden in der Strukturmatrix angegeben; die Koordinatenwerte der Items auf den Achsen in der Mustermatrix. Die Elemente der Mustermatrix heißen auch partielle standardisierte Regressionsgewichte. Dahinter steckt die Idee, dass über die Regressionsgewichte Abhängigkeiten, die mit anderen Faktoren bestehen, auspartialisiert werden. Die partiellen standardisierten Regressionsgewichte geben die Änderung des Itemwerts an, wenn der Faktorwert um eine Standardabweichung variiert wird. Im obliquen Faktormodell sollte darauf geachtet werden, ob mit dem Begriff Ladung Korrelationen oder partielle standardisierte Regressionsgewichte gemeint sind. 5.4 Beispiele Im Folgenden werden die zwei gängigsten Rotationstechniken vorgestellt Varimax Die Varimax-Rotation ist die am häufigsten verwendete orthogonale Rotation. Das Ziel der Einfachstruktur wird dadurch umgesetzt, dass die Ladungsquadrate der Items innerhalb der Faktoren entweder sehr kleine oder sehr große Werte annehmen sollen. Konkret wird die Varianz der Ladungsquadrate innerhalb der Faktoren (entspricht den Spalten der Ladungsmatrix) maximiert, was dem Verfahren seinen Namen gab. Die Varimax-Methode ist ungeeignet, wenn von der Theorie ein übergeordneter Faktor angenommen wird. 12
13 5.4.2 Promax Die Promax-Rotation ist die am häufigsten verwendete oblique Methode und startet mit dem Ergebnis einer orthogonalen Rotation (meist Varimax- Rotation). Sie verbessert dann das Ergebnis durch eine zusätzliche oblique Rotation. Die neuen Faktoren können dann korrelieren. Ziel ist es, bei möglichst maximalen Hochladungen die Nebenladungen in die Nähe von Null zu bringen. Sei dazu L die Ladungsmatrix nach erfolgter orthogonaler Varimax-Rotation. Gesucht wird dann eine oblique Transformation dieser Ladungsmatrix L L = L M die die Quadrate der Ladungen noch deutlicher gegen 1 oder 0 gehen lässt. Dazu wird die Matrix Q = (q ij ) mit q ij = l m 1 ir l ir betrachtet. In ihr stehen Ladungswerte mit gleichem Vorzeichen, aber höherer Potenz als die ursprünglichen Ladungswerte. Als Potenzen werden in der Regel Werte zwischen 2 und 4 gewählt. Diese Potenzierung hat zur Folge, dass moderate und kleine Ladungen fast Null werden, hohe Ladungen jedoch nur geringfügig reduziert werden. Der zweite Schritt besteht dann darin, L spaltenweise über die KQ-Methode der Matrix Q anzunähern. LU! Q Durch Normierung der Spalten von U erhält man dann die Transformationsmatrix M der Promax-Rotation. 5.5 Interpretation und Wahl der richtigen Rotation Für welche Form der Faktorrotation man sich im konkreten Fall entscheidet, hängt oft von der dahinter steckenden Theorie ab. Bei orthogonalen Rotationen sind die Ergebnisse wegen der Unkorreliertheit der Faktoren leichter zu interpretieren. Zur reinen Dimensionsreduktion sind orthogonale Rotationen meist auch angemessen. Oft werden orthogonale Modelle den dahinterliegenden Zusammenhängen allerdings nicht gerecht: Die Annahme einer Null-Korrelation zwischen den Faktoren ist oft zu streng und spiegelt nicht die Komplexität der Daten wieder. Werden hoch korrelierte 13
14 Faktoren in den Daten angenommen, erscheint daher eine oblique Transformation sinnvoller als eine orthogonale. Zur Interpretation der Faktorenstruktur orientiert man sich hauptsächlich an Items, die der Einfachstruktur möglichst nahe kommen. Im obliquen und orthogonalen Fall werden Items dem Faktor zugeordnet, auf dem die Hochladung liegt. Im orthogonalen Fall bedeutet dies, dass das Item stark mit diesem Faktor korreliert (hoher Itemwert - hohe Ausprägung der latenten Dimension) und keine Korrelation mit anderen Faktoren vorliegt. Im obliquen Fall hingegen muss beachtet werden, dass alle Items auch mit den restlichen Faktoren korrelieren, selbst wenn sie dort keine Nebenladungen haben. Diese Korrelation ist umso höher, je stärker die Faktoren untereinander korrelieren. Desweiteren sollte bei der Interpretation beachtet werden, dass hohe Nebenladungen bedeuten, dass ein Item sowohl den einen als auch den anderen Faktor erfassen und daher nicht eindeutig sind. Hat ein Item auf allen Faktoren nur geringe Ladungen <.30), so erklärt das Item etwas anderes als die Faktor-Dimensionen. Besondere Aufmerksamkeit gilt auch Items, die nach obliquer Rotation hohe Nebenladungen (partielle standardisierte Regressionsgewichte) haben. 5.6 Zusammenfassung Faktorrotationen Die unrotierten Lösungen der Faktorenanalyse sind in der Regel schlecht zu interpretieren, weshalb zur sinnvollen Verwendung der Ergebnisse Rotationstechniken angewendet werden sollten. Über die Rotationstechniken soll eine Einfachstruktur erreicht werden, mit deren Hilfe dann Items möglichst eindeutig Faktoren zugewiesen werden. Je nach Datenstruktur und dahinterliegender Theorie können orthogonale oder oblique Rotationen verwendet werden, wobei die unterschiedliche Interpretation beachtet werden sollten. Bei der Modellwahl kann es durchaus sinnvoll sein, sowohl oblique als auch orthogonal zu rotieren und die Ergebnisse zu vergleichen. Werden die Items den gleichen Faktoren zugeordnet, kann daraus eine stabile Faktorenstruktur abgeleitet werden. 14
15 Literatur [1] L. Fahrmeir, A. Hamerle, G. Tutz, 1996, Multivariate statistische Verfahren: de Gruyter [2] M. Bühner, 2006, Einführung in die Fragebogenkonstruktion: Pearson Studium 15
Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse
Exploratorische Faktorenanalyse Der Begriff Faktorenanalyse umfasst eine Gruppe multivariater Analyseverfahren, mit denen zugrundeliegende gemeinsame Dimensionen von Variablenmengen (z.b. Fragebogenitems)
Mehr6. Faktorenanalyse (FA) von Tests
6. Faktorenanalyse (FA) von Tests 1 6. Faktorenanalyse (FA) von Tests 1 6.1. Grundzüge der FA nach der Haupkomponentenmethode (PCA) mit anschliessender VARIMAX-Rotation:... 2 6.2. Die Matrizen der FA...
MehrDie Faktorenanalyse. Anwendung dann, wenn zwischen beobachtbaren und nicht direkt beobachtbaren Variablen ein kausales Verhältnis vermutet wird
Die Faktorenanalyse Zielsetzung Datenreduktion: eine größere Anzahl von Variablen auf eine kleinere Anzahl unabhängiger Einflussgrößen zurückführen Grundlegende Idee Direkt beobachtbare Variablen spiegeln
Mehr9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T
9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon
MehrKlausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min
Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,
MehrEigene MC-Fragen Kap. 4 Faktorenanalyse, Aggregation, Normierung. 1. Welche Aussage zu den Prinzipien der Faktorenanalyse ist zutreffend?
Eigene MC-Fragen Kap. 4 Faktorenanalyse, Aggregation, Normierung 1. Welche Aussage zu den Prinzipien der Faktorenanalyse ist zutreffend? a) Die Faktorenanalyse hat ihren Ursprung in der theoretischen Intelligenzforschung.
MehrExplorative Faktorenanalyse
Explorative Faktorenanalyse 1 Einsatz der Faktorenanalyse Verfahren zur Datenreduktion Analyse von Datenstrukturen 2 -Ich finde es langweilig, mich immer mit den selben Leuten zu treffen -In der Beziehung
MehrTEIL 13: DIE EINFACHE LINEARE REGRESSION
TEIL 13: DIE EINFACHE LINEARE REGRESSION Die einfache lineare Regression Grundlagen Die einfache lineare Regression ist ebenfalls den bivariaten Verfahren für metrische Daten zuzuordnen 1 Sie hat einen
MehrFaktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduktion. Interpretation des SPSS-Output s
Explorative Faktorenanalyse als Instrument der Dimensionsreduktion Beispiel: Welche Dimensionen charakterisieren die Beurteilung des sozialen Klimas in der Nachbarschaft? Variablen: q27a bis q27g im Datensatz
MehrExploratorische Faktorenanalyse
Exploratorische Faktorenanalyse Kapitel 5 Einführung in die Test- und Fragebogenkonstruktion, Pearson Education 2003, Markus Bühner, 1 5.1 Ziele der Faktorenanalyse (1) Daten reduzieren (2) Zusammenhänge
Mehr2.5 Das Rotationsproblem
.5 Das Rotationsproblem Das Verfahren der Faktorenextraktion ist so ausgestaltet, dass - der erste Faktor F 1 einen möglichst großen Teil der Varianz der manifesten Variablen erklärt, - der zweite Faktor
MehrFaktorenanalyse. Fakultät für Human und Sozialwissenschaften Professur für Forschungsmethodik und Evaluation in der Psychologie
Faktorenanalyse Fakultät für Human und Sozialwissenschaften Professur für Forschungsmethodik und Evaluation in der Psychologie Seminar: Multivariate Analysemethoden Seminarleiter: Dr. Thomas Schäfer Referenten:
MehrExplorative Faktorenanalyse
Explorative Faktorenanalyse Bachelorseminar: Ausgewählte Aspekte der Wirtschafts- und Sozialstatistik Autor: Simon Reitzner Betreuerin: Eva Endres, M.Sc. 23. September 2015 Inhaltsverzeichnis 1 Einleitung
MehrExplorative Faktorenanalyse
Bachelorseminar: Ausgewählte Aspekte der Wirtschafts- und Sozialstatistik Explorative Faktorenanalyse Simon Reitzner Betreuerin: Eva Endres, M.Sc. LMU München, Institut für Statistik 19.06.2015 1 / 43
Mehr4. Skalenbildung: Faktorenanalyse, Aggregation von Items & Normierung
4. Skalenbildung: Faktorenanalyse, Aggregation von Items & Normierung Über die interne Struktur eines Tests bestehen präzise theoretische Vorstellungen --> ja: Konfirmatorische Faktorenanalyse CFA -->
MehrGrundzüge der Faktorenanalyse
SEITE Grundzüge der Faktorenanalyse Bei der Faktorenanalyse handelt es sich um ein Verfahren, mehrere Variablen durch möglichst wenige gemeinsame, hinter ihnen stehende Faktoren zu beschreiben. Beispiel:
MehrFaktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung. Interpretation des SPSS-Output s
Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung Beispiel: Welche Dimensionen charakterisieren die Beurteilung des sozialen Klimas in der Nachbarschaft? Variablen: q27a bis q27g im
MehrLösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1
LÖSUNG 13 a) Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 Die Variablen sollten hoch miteinander korrelieren. Deshalb sollten die einfachen Korrelationskoeffizienten hoch ausfallen.
MehrLösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 13 a.
Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 LÖSUNG 13 a. Die Variablen sollten hoch miteinander korrelieren. Deshalb sollten die einfachen Korrelationskoeffizienten hoch ausfallen.
MehrGegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen. 0 sonst.
Aufgabe 1 (2 + 4 + 2 + 1 Punkte) Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen X und Y : { 2x + 2y für 0.5 x 0.5, 1 y 2 f(x, y) = 3 0 sonst. a) Berechnen
MehrHypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav
Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav Hypothese: Die Beschäftigung mit Kunst ist vom Bildungsgrad abhängig. 1. Annahmen Messniveau: Modell: Die Skala zur Erfassung der
MehrMETHODENPRAKTIKUM II Kurs 1. Prof. Dr. Beat Fux SUZ Frühlingssemester 2009
METHODENPRAKTIKUM II Kurs 1 Prof. Dr. Beat Fux SUZ Frühlingssemester 2009 Ziel der Faktorenanalyse Struktur hinter den Korrelationen zwischen Variablen entdecken Reduzierung einer Vielzahl von Variablen
MehrBivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154
Bivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.154 Grundidee und Typen der Regression Die Regressionsanalyse dient zur Quantifizierung des Zusammenhangs und der statistisch
MehrKonfidenzintervall für den Anteilswert θ. Konfidenzintervalle. Jost Reinecke. Universität Bielefeld. 13. Juni 2005
Universität Bielefeld 13. Juni 2005 Einführung Einführung Wie kann die Kenntnis der Wahrscheinlichkeitsverteilung der Parameter einer Stichprobe dazu verhelfen auf die wahren Werte der Grundgesamtheit
MehrInferenzstatistik (=schließende Statistik)
Inferenzstatistik (=schließende Statistik) Grundproblem der Inferenzstatistik: Wie kann man von einer Stichprobe einen gültigen Schluß auf di Grundgesamtheit ziehen Bzw.: Wie groß sind die Fehler, die
MehrTEIL 13: DIE LINEARE REGRESSION
TEIL 13: DIE LINEARE REGRESSION Dozent: Dawid Bekalarczyk GLIEDERUNG Dozent: Dawid Bekalarczyk Lineare Regression Grundlagen Prognosen / Schätzungen Verbindung zwischen Prognose und Zusammenhang zwischen
MehrÜ b u n g s b l a t t 15
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 2. 7. 2007 Ü b u n g s b l a t t 15 Hier ist zusätzliches Übungsmaterial zur Klausurvorbereitung quer durch die Inhalte der Vorlesung. Eine
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrVersuchsplanung. Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling
Versuchsplanung Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling Gliederung Grundlagen der Varianzanalyse Streuungszerlegung und Modellschätzer Modellannahmen und Transformationen
MehrMessen im psychologischen Kontext II: Reliabilitätsüberprüfung und explorative Faktorenanalyse
Messen im psychologischen Kontext II: Reliabilitätsüberprüfung und explorative Faktorenanalyse Dominik Ernst 26.05.2009 Bachelor Seminar Dominik Ernst Reliabilität und explorative Faktorenanalyse 1/20
MehrMultivariate Analysemethoden, Dozent: Dr. Thomas Schäfer Alexander Allnoch, Markus Burkhardt & Vivien Röder
Multivariate Analysemethoden, Dozent: Dr. Thomas Schäfer 29.05.2012 Alexander Allnoch, Markus Burkhardt & Vivien Röder 1. Einführung 2. Grundlagen Faktorenanalyse 3. Nutzungsdimensionen von Musik - unsere
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme 1 Wiederholung Eine Menge von Vektoren a 1, a 2,, a k heisst linear unabhängig, wenn eine Linearkombination c 1 a 1 + c 2 a 2 + + c k a k = k c i a i (1) i=1 nur dann Null sein
Mehr5.Tutorium Multivariate Verfahren
5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1
MehrSind mehrere Merkmale untereinander hoch korreliert, so kann man sie als zusammengehörig interpretieren, sie bilden einen Faktor.
5 Faktorenanalyse 5.1 Das orthogonale Faktorenmodell Sind mehrere Merkmale untereinander hoch korreliert, so kann man sie als zusammengehörig interpretieren, sie bilden einen Faktor. Beispiel 5.1. Körpergröße
Mehr2.6 Bestimmung der Faktorwerte ( Matrizenmanipulation bei Hauptkomponentenmethode)
2.6 Bestimmung der aktorwerte ( Matrizenmanipulation bei Hauptkomponentenmethode) usgangspunkt zur Ermittlung der aktorwerte ist die Strukturgleichung Z E mn mp pn mn Z: Matrix der standardisierten Merkmalsausprägungen,
MehrFaktorenanalyse Beispiel
Faktorenanalyse Zweck der Faktorenanalyse ist die Dimensionsreduktion einer gegebenen Variablenanzahl, d. h. also die Zusammenfassung vorhandener Variablen zu wenigen latenten, i. d. R. voneinander unabhängigen
MehrAnalytische Statistik II
Analytische Statistik II Institut für Geographie 1 Schätz- und Teststatistik 2 Grundproblem Generell sind wir nur selten in der Geographie in der Lage, Daten über die Grundgesamtheit zur Verfügung zu haben.
Mehr6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal
Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße 20 42097 Wuppertal Allgemein 6 Konstrukte: - soziale Kontakte (6 Items) - Markenbewusstsein (6 Items) - Werbeakzeptanz (6 Items) - materielle
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de
Mehr6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal
Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße 20 42097 Wuppertal Allgemein 6 Konstrukte: - Preisorientierung (6 Items) - Werbeakzeptanz (6 Items) - Qualitätsbewusstsein (6 Items) - Trendbewusstsein
MehrDie Familie der χ 2 (n)-verteilungen
Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +
MehrDie Familie der χ 2 (n)-verteilungen
Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +
MehrKonfirmatorische Faktorenanalyse. Regressionsmodelle für Politikwissenschaftler
Konfirmatorische Faktorenanalyse Regressionsmodelle für Politikwissenschaftler Was ist ein Faktor? Faktor oder latente Variable Regressionsmodelle für Politikwissenschaftler Konfirmatorische Faktorenanalyse
MehrMethodik der multiplen linearen Regression
Methodik der multiplen linearen Regression Sibel Aydemir Statistisches Amt, Direktorium Landeshauptstadt München Name, Stadt Regressionsanalyse: Schritt für Schritt Schritt 1 Schritt 2 Schritt 3 Schritt
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 27. März 2015 Aufgabe 1 Kennzeichnen Sie die folgenden Aussagen über die beiden Zufallsvektoren ([ ] [ ]) ([ ] [ ]) 2 1 0 1 25 2 x 1 N, x 3 0 1 2
MehrZur Erklärung menschlicher Verhaltensweisen oder allgemeiner sozialer Phänomene ist häufig eine Vielzahl von Einflussfaktoren zu berücksichtigen.
4.3 Faktorenanalyse Problemstellung Zur Erklärung menschlicher Verhaltensweisen oder allgemeiner sozialer Phänomene ist häufig eine Vielzahl von Einflussfaktoren zu berücksichtigen. Je größer jedoch die
MehrAufgaben zur Multivariaten Statistik
Prof. Dr. Reinhold Kosfeld Fachbereich Wirtschaftswissenschaften Universität Kassel Aufgaben zur Multivariaten Statistik Teil : Aufgaben zur Einleitung. Was versteht man unter einer univariaten, bivariaten
MehrMultivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167
Multivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.167 Multivariate Regression Verfahren zur Prüfung des gemeinsamen linearen Einflusses mehrerer unabhängiger Variablen auf eine
MehrEine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
MehrÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II
ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II 1.1 Durch welche Elemente lässt sich laut der Formel für die multiple Regression der Wert einer Person auf einer bestimmten abhängigen Variable Y vorhersagen? a)
MehrMultivariate Verteilungen. Gerhard Tutz LMU München
Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS
MehrExplorative Faktorenanalyse
Explorative Faktorenanalyse Die explorative Faktorenanalyse ist ein Verfahren aus der multivariaten Statistik. Mithilfe der Faktorenanalyse kann aus den Beobachtungen vieler manifester Variablen (z.b Items
MehrKonfirmatorische Faktorenanalyse
Konfirmatorische Faktorenanalyse Regressionsmodelle für Politikwissenschaftler Was ist ein Faktor? Faktor oder latente Variable nicht direkt beobachtbare Größe die beobachtbare Variablen ( Indikatoren
Mehr1.4 Gradient, Divergenz und Rotation
.4 Gradient, Divergenz und Rotation 5.4 Gradient, Divergenz und Rotation Die Begriffe Gradient, Divergenz und Rotation erfordern die partiellen Ableitung aus Abschnitt.. sowie das Konzept des Differentialoperators.
MehrEiner Reihe von Merkmalen zugrunde liegende, gemeinsame Faktoren ermitteln.
Faktoranalysen Aufbau 1. Sinn und Zweck 2. Eigenschaften der Merkmale 3. Extraktion der Faktoren 4. Anzahl der Faktoren 5. Rotation der Faktoren 6. Interpretation der Faktoren Sinn und Zweck Einer Reihe
MehrKenngrößen von Zufallsvariablen
Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert
MehrExemplar für Prüfer/innen
Exemplar für Prüfer/innen Kompensationsprüfung zur standardisierten kompetenzorientierten schriftlichen Reifeprüfung AHS Juni 2015 Mathematik Kompensationsprüfung Angabe für Prüfer/innen Hinweise zur Kompensationsprüfung
MehrLösung Aufgabe 1 (Regression) Es wurden in einer Befragung zwei metrische Merkmale X und Y erhoben. Betrachten Sie dazu die
Statistik für Kommunikationswissenschaftler Wintersemester 2010/2011 Vorlesung Prof. Dr. Nicole Krämer Übung Nicole Krämer, Cornelia Oberhauser, Monia Mahling Lösung Thema 9 Homepage zur Veranstaltung:
MehrSkript Einführung in SPSS
SPSSinteraktiv Faktorenanalyse - 1 - Skript Einführung in SPSS Faktorenanalyse Explorative Faktorenanalyse Hauptkomponentenanalyse (PCA) Hinweise zum Schreiben des statistischen Reports 1. Sämtliche Tabellen
Mehr1 Gemischte Lineare Modelle
1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation
MehrUnterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Binomialverteilung und Bernoulli- Experiment
Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Binomialverteilung und Bernoulli- Experiment Das komplette Material finden Sie hier: Download bei School-Scout.de TOSSNET Der persönliche
MehrMittelwertvergleiche, Teil I: Zwei Gruppen
FB W. Ludwig-Mayerhofer Statistik II Mittelwertvergleiche Herzlich willkommen zur Vorlesung Mittelwertvergleiche, Teil I: Zwei Gruppen FB W. Ludwig-Mayerhofer Statistik II Mittelwertvergleiche Mittelwertvergleiche:
MehrMittelwertvergleiche, Teil II: Varianzanalyse
FB 1 W. Ludwig-Mayerhofer Statistik II 1 Herzlich willkommen zur Vorlesung Mittelwertvergleiche, Teil II: FB 1 W. Ludwig-Mayerhofer Statistik II 2 : Wichtigste Eigenschaften Anwendbar auch bei mehr als
MehrLineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA)
Interdisziplinäres Seminar Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA) WS 2008/09 19.11.2008 Julia Schiele und Lucie Wink Dozenten: Prof. Dr. Bühner, Prof. Dr. Küchenhoff
MehrTest auf einen Anteilswert (Binomialtest) Vergleich zweier Mittelwerte (t-test)
Spezielle Tests Test auf einen Anteilswert (Binomialtest) Vergleich zweier Anteilswerte Test auf einen Mittelwert (Ein-Stichproben Gauss bzw. t-test) Vergleich zweier Mittelwerte (t-test) Test auf einen
Mehr10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg
. Vorlesung Grundlagen in Statistik Seite 29 Beispiel Gegeben: Termhäufigkeiten von Dokumenten Problemstellung der Sprachmodellierung Was sagen die Termhäufigkeiten über die Wahrscheinlichkeit eines Dokuments
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrBiometrische Planung von Versuchsvorhaben
Biometrische Planung von Versuchsvorhaben Einführung in das Prinzip der Lehrstuhl für Mathematik VIII Statistik http://statistik.mathematik.uni-wuerzburg.de/~hain Ziel des Vortrags Im nachfolgenden Vortrag
MehrVorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13
Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression Dipl.-Ing. Robin Ristl Wintersemester 2012/13 1 Grundidee: Eine abhängige Variable soll als Linearkombination mehrerer unabhängiger
MehrHerzlich willkommen zur Vorlesung Statistik
FB 1 W. Ludwig-Mayerhofer Statistik 1 Herzlich willkommen zur Vorlesung Statistik Zusammenhänge zwischen nominalen (und/oder ordinalen) Merkmalen: analyse und II: Signifikanztests und Maße der Assoziation
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur
MehrBrückenkurs Statistik für Wirtschaftswissenschaften
Peter von der Lippe Brückenkurs tatistik für Wirtschaftswissenschaften Lösungen UVK Verlagsgesellschaft mbh Konstanz mit UVK/Lucius München Brückenkurs tatistik für Wirtschaftswissenschaften: Lösungen
Mehrx(n x) cm 2 ) zweier Betonsorten wird überprüft. Dabei ergaben Sorte 1 185 186 184 186 185 187 186 187 185 Sorte 2 183 182 185 182 181 179
. Aufgabe: Zwei bis drei Millionen deutsche Haushalte sind überschuldet. Einer der Hauptgründe für die Überschuldung privater Haushalte ist eine gescheiterte Selbstständigkeit. In einer Stichprobe von
MehrMessen im psychologischem Kontext II: Reliabilität und explorative Faktorenanalyse
Messen im psychologischem Kontext II: Reliabilität und explorative Faktorenanalyse Dominik Ernst 26.05.2009 Bachelor Seminar Inhaltsverzeichnis 1 Reliabilität 2 1.1 Methoden zur Reliabilitätsbestimmung.............
MehrProf. Dr. Gabriele Helga Franke TESTTHEORIE UND TESTKONSTRUKTION
Prof. Dr. Gabriele Helga Franke TESTTHEORIE UND TESTKONSTRUKTION 2. FS Master Rehabilitationspsychologie, SoSe 2012 Faktorenanalyse/ faktorielle Validität 2 Einleitung Allgemeines zu Faktorenanalysen (FA)
MehrDemokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik
Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen
MehrFaktorenanalyse und Hauptkomponentenanalyse
Faktorenanalyse und Hauptkomponentenanalyse Man habe n Personen auf m Variablen untersucht Insbesondere habe man: n Personen Index i m Variablen Index j r Faktoren Index l Die Faktoren sind latente Variablen,
MehrRingvorlesung Einführung in die Methoden der empirischen Sozialforschung II
Ringvorlesung Einführung in die Methoden der empirischen Sozialforschung II Auswahlverfahren - Begriffe und theoretische Grundlagen 1 USA 1936: - Wahlstudie mit 10.000.000 Probestimmzetteln - Quelle: Telefonverzeichnis
MehrTESTEN VON HYPOTHESEN
TESTEN VON HYPOTHESEN 1. Beispiel: Kann ein neugeborenes Küken Körner erkennen oder lernt es dies erst durch Erfahrung? Um diese Frage zu entscheiden, wird folgendes Experiment geplant: Sobald das Küken
MehrVergleich von Parametern zweier Stichproben
Vergleich von Parametern zweier Stichproben Vergleich von Mittelwerten bei gebundenen Stichproben Vergleich von Mittelwerten bei unabhängigen Stichproben Vergleich von Varianzen bei unabhängigen Stichproben
Mehr1.3 Das Testen von Hypothesen am Beispiel des Einstichproben t-tests
1.3 Das Testen von Hypothesen am Beispiel des Einstichproben t-tests Statistische Tests dienen dem Testen von Vermutungen, so genannten Hypothesen, über Eigenschaften der Gesamtheit aller Daten ( Grundgesamtheit
MehrStatistik für SozialwissenschaftlerInnen II p.85
Schätzverfahren Statistik für SozialwissenschaftlerInnen II p.85 Schätzverfahren Ziel von Schätzverfahren: Ausgehend von Stichproben Aussagen über Populationskennwerte machen Kenntnis der Abweichung des
MehrVektorgeometrie Ebenen 1
Vektorgeometrie Ebenen 1 Parametergleichung von Ebenen Punkte und Geraden in Ebenen. Spezielle Lagen von Punkten in Bezug auf ein Parallelogramm oder Dreieck. Datei Nr. 63021 Stand 1. Juli 2009 INTERNETBIBLIOTHEK
MehrDeskriptive Statistik Kapitel IX - Kontingenzkoeffizient
Deskriptive Statistik Kapitel IX - Kontingenzkoeffizient Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Agenda 1. Untersuchung der Abhängigkeit 2.
MehrSTATISTIK II. Hans-Otfried Müller Institut für Mathematische Stochastik.
STATISTIK II Hans-Otfried Müller Institut für Mathematische Stochastik http://www.math.tu-dresden.de/sto/mueller 1 Ausgewählte Verfahren der multivariaten Datenanalyse und Statistik Werden bei einer Analyse
MehrZeitreihenökonometrie
Zeitreihenökonometrie Kapitel 8 Impuls-Antwort-Funktionen Interpretation eines VAR-Prozesses 2 Fall eines bivariaten Var(p)-Prozess mit 2 Variablen und ohne Konstante 1 1 p p 1,t α11 α 12 1,t-1 α11 α 12
MehrVektoren. Kapitel 3. 3.1 Skalare, Vektoren, Tensoren. 3.2 Vektoren
Kapitel 3 Vektoren 31 Skalare, Vektoren, Tensoren Viele physikalische Größen lassen sich bei bekannter Maßeinheit durch Angabe ihres Betrages als reelle Zahl vollständig angeben Solche Größen nennt man
MehrExplorative Faktorenanalyse
Explorative Faktorenanalyse Eric Klopp 1 Universität des Saarlandes Zusammenfassung Die explorative Faktorenanalyse (EFA) ist ein Verfahren aus der multivariaten Statistik. Mithilfe der Faktorenanalyse
MehrHolger Dette. 30. Oktober 2015
Ruhr-Universität Bochum 30. Oktober 2015 1 / 1 Methodenlehre III Prof. Dr. NA 3/73 Telefon: 0234 32 28284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag,
MehrStatistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de
rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent
MehrForschungsmethodik II Mag.rer.nat. M. Kickmeier-Rust Karl-Franzens-Universität Graz. Lisza Gaiswinkler, Daniela Gusel, Tanja Schlosser
Kolmogorov-Smirnov-Test Forschungsmethodik II Mag.rer.nat. M. Kickmeier-Rust Karl-Franzens-Universität Graz 1 Kolmogorov- Smirnov Test Andrei Nikolajewitsch Kolmogorov * 25.4.1903-20.10.1987 2 Kolmogorov-
MehrDie Rücktransformation: Z = A t (Y µ) = Y = AZ + µ
Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Kleine Eigenwerte oder Eigenwerte gleich Null: k Eigenwerte Null = Rang(Σ) = m k Eigenwerte fast Null = Hauptkomponenten beinahe konstant Beschränkung
Mehr