Faktorenanalyse Beispiel

Größe: px
Ab Seite anzeigen:

Download "Faktorenanalyse Beispiel"

Transkript

1 Faktorenanalyse Zweck der Faktorenanalyse ist die Dimensionsreduktion einer gegebenen Variablenanzahl, d. h. also die Zusammenfassung vorhandener Variablen zu wenigen latenten, i. d. R. voneinander unabhängigen Faktoren. Diese Faktoren sind im Fall der Hauptkomeponentenmethode Beschreibungsvariablen, die nicht beobachtbar und somit auch nicht messbar sind. Ziel ist es, eventuell hinter den Zusammenhängen von Variablen stehende Faktoren zu extrahieren, um nicht beobachtbare Phänomene durch eben diese Faktoren kenntlich zu machen. Beispiel In einem Unternehmen, das Autos herstellt, fragt man sich, wie die bislang relativ teuren Umfragen zur Präferenzmessung von Kunden günstiger durchgeführt werden könnten. Bisher wurden Präferenzen bezüglich sechs Wichtigkeitsitems erfragt. Können diese sechs Items nun auf weniger Items reduziert werden, so dass weniger Kosten anfallen und die Befragten weniger belastet werden? Zudem stellt sich die Frage, in welche Segmente Kunden eingeteilt werden könnten. Die Ausgangslage stellt sich folgendermaßen dar: 85

2 Zudem stellt sich die Frage, inwiefern die bisherige Werbekampagne modifiziert werden könnte, um neue Käufer zu gewinnen. Die obigen Daten beziehen sich nämlich auf eine Stichprobe des bestehenden Kundenstamms. Die Präferenzen der Kunden wurden auf einer Skala mit elf Merkmalsausprägungen gemessen, wobei die Ausprägung 0 bedeutet, dass dieser Aspekt hinsichtlich eines Autos überhaupt nicht wichtig ist, und die Ausprägung 10 demgegenüber bedeutet, dass dieser Aspekt dem Befragten sehr wichtig ist. Zur Herleitung des Modells ist es zunächst hilfreich, einen Ansatz zu betrachten, der zwei Variablen und einen Faktor berücksichtigt: z 1k = a 1 f k und z 2k = a 2 f k, (80) mit z 1k,z 2k als beobachtete Variablen, deren Zusammenhang durch einen Faktor beschrieben werden kann. k ist hier die Anzahl der Beobachtungen: k =1,...,N. f k ist der (einzige) unbeobachtete, latente Faktor. a 1,a 2 sind hier zwei verschiedene Faktorenladungen, deren Werte es festzulegen gilt. Im allgemeineren Fall werden insgesamt P Variablen und M Faktoren betrachtet: z ik = a i1 f 1k + a i2 f 2k a ij f jk a im f Mk, (81) hier mit i =1,...,P als Anzahl der beobachteten Variablen, k =1,...,N wie oben als Anzahl der Beobachtungen. Zudem gilt in Anlehnung an das obige Beispiel: z ik istwertdesk-ten Objekts in der i-ten Variable, a ij als Faktorenladung des j-ten Faktors auf die i-te Variable und f jk als Wert des k- ten Objektes im j-ten Faktor. An dieser Stelle muss angemerkt werden, dass der letzte Wert in der Realität nicht messbar ist, rechentechnisch hingegen ist dies möglich. Grundsätzlich gilt, dass bei obiger Gleichung M<Pgelten muss. Anderenfalls hätte man mehr Faktoren als beobachtbare Variablen, 86

3 was dem Ziel der Faktorenanalyse - der Dimensionsreduktion - widersprechen würde. Damit Faktoren extrahiert werden können, müssen die beobachtbaren Variablen z ik untereinander, d. h. also für i j, einen Zusammenhang aufweisen. Dieser wird über Kovarianzen bzw. insbesondere über Korrelationskoeffizienten festgestellt. Um die Ergebnisse der Faktorenanalyse - hier auf Basis der Hauptkomponentenmethode - nachvollziehbarer interpretieren zu können, werden die Variablen z ik standardisiert, so dass diese ein arithmetisches Mittel von null und eine Standardabweichung in Höhe von eins haben: z ik z ik s zik. Diese Standardisierung hat zur Folge, dass die Varianz-Kovarianz- Matrix und Korrelationsmatrix der z ik gleiche Werte haben. Um diese Zusammenhänge beurteilen zu können, bedient man sich der folgenden Beurteilungskriterien: Korrelationsmatrizen Determinante einer Korrelationsmatrix Inverse Korrelationsmatrizen KMO- & Bartlett-Test Korrelationsmatrizen Die Korrelationsmatrizen geben die Korrelationskoeffizienten der beobachteten Variablen wider. Bei metrischskalierten beobachteten Variablen wird der Korrelationskoeffizient nach Pearson berechnet: r zik,z jk = Cov(z ik,z jk ) Var(z ik ) Var(z jk ). (82) Damit die beobachteten Variablen in der Faktorenanalyse berücksichtigt werden können, sollten die Korrelationen möglichst groß sein. Ist dies der Fall, so kann davon ausgegangen werden, dass ein ausreichend großer Zusammhang 87

4 zwischen beobachteten Variablen vorhanden ist, der dann durch Faktoren beschrieben werden kann. Zudem wird gefordert, dass diese auch statistisch signifikant sind: Die Nullhypothese H 0 : ϱ zik,z jk < 0oderH 0 : ϱ zik,z jk > 0 sollte also abgelehnt werden. Determinante einer Korrelationsmatrix Damit eine Faktorenanalyse durchgeführt werden kann, wird gefordert, dass die Determinante der Korrelationsmatrix der beobachteten Variablen nahe null ist. Exemplarisch hierfür sei folgendes Beispiel mit zwei beobachteten Variablen gegeben: r x,y = a b c d Die Determinante dieser Matrix wird dann berechnet über a d c b. Sind nun die Korrelationen zwischen x und y hoch, z. B. r x,y =0, 9, dann wird dieser Korrelationskoeffizient auch nahe null sein: r x,y =1 1 0, 9 0, 9=0, 19. Inverse Korrelationsmatrizen Die inversen Korrelationsmatrizen basieren auf den Korrelationsmatrizen selbst. Hierbei wird gefordert, dass die Nebendiagonalelemente der Korrelationsmatrix (im obigen sind dies b und c) nahe null sein sollen. Die Inverse einer Korrelationsmatrix r x,y im Falle zweier beobachteter Variablen wird berechnet über folgenden Ausgangspunkt: r x,y = a b c d Die Inverse selbst wird bestimmt über 1 rx,y 1 = a b c d Die numerische Bestimmung der Parameter ist dann r x,y = 1 a d c b d b c a 88

5 Geht man davon aus, dass r x,y =0, 9 ist, dann liegt folgende Korrelationsmatrix vor: r x,y = 1 0, 9 0, 9 1 Die Werte der inversen Korrelationsmatrix sind dann 1 r x,y = 1 0, ,9 0,9 0, 9 1 bzw. 5, 26 4, 74 r x,y = 4, 74 5, 26 KMO- & Bartlett-Test Das Kaiser-Meyer-Olkin-Kriterium (KMO-Kriterium) dient als Maß für die Geeignetheit aller beobachteten Variablen gemeinsam und einzeln betrachtet, um in der Faktorenanalyse verwendet werden zu können. Der Wertebereich dieser Maßzahlen liegt zwischen [0, 1]. Je näher der Wert an eins, desto geeigneter sind die Variablen, um eine Faktorenanalyse durchzuführen. Der Bartlett-Test überprüft, ob die beobachteten Variablen in der Grundgesamtheit keinen Zusammenhang aufweisen. Als Nullhypothese kann also Folgendes geschrieben werden: H 0 : ϱ zik,z jk = 0. Es werden mit diesem Test alle Korrelationskoeffizienten simultan auf Signifikanz überprüft. Wird die Nullhypothese abgelehnt, so muss davon ausgegangen werden, dass die beobachteten Variablen in der Stichprobe in der Grundgesamtheit nicht zusammenhängen und somit von der Durchführung der Faktorenanlyse abzuraten ist. Beispiel (fortgesetzt) Sprechen oben genannte Kriterien für oder gegen die Durchführung einer Faktorenanalyse? Die Korrelationsmatrix, der Test der Nullhypothesen H 0 : ϱ zik,z jk > 0 und die Determinante sind in der folgenden Abbildung zu sehen: 89

6 Die Werte der Korrelationskoeffizienten sprechen tendenziell für die Durchführung einer Faktorenanalyse, da sie - blockweise betrachtet - einen gewissen Zusammenhang zwischen den beobachteten Variablen erkennen lassen. Gerade die Blöcke stoßen auf Interesse, da sich an dieser Stelle gegebenenfalls schon eine mögliche Konstellation hinsichtlich der Anzahl der Faktoren ausfindig machen läßt: Erkennbar sin zwei Blöcke, was auf eventuell zwei vorhandene Faktoren hinweist. Die Nullhypothese wird zu einem Signifikanzniveau von α = 0, 05 für jeden Korrelationskoeffizienten abgelehnt, so dass auch dieses Kriterium für die Durchführung einer Faktorenanalyse spricht. Ebenso verhält es sich mit der Determinante der Korrelaionsmatrix, die einen Wert in Höhe von 0, 002 annimmt und somit fast null ist. Bei der inversen Korrelationsmatrix sollten die Nebendiagonalelemente nahe null sein, damit die beobachteten Variablen Basis einer Faktorenanalyse sind. Für die Daten des Automobilherstellers ergibt sich gerade eine solche Konstellation: 90

7 Auch das KMO-Kriterium, dass gleich 0, 694 ist, spricht für die Durchführung einer Faktorenanalyse, da es fast ziemlich gut ist 11. Die beobachteten Variablen sind gemeinsam auf Basis dieses Kriteriums also geeignet für weitergehende Analysen. Die Nullhypothese, dass alle Korrelationskoeffizienten gemeinsam gleich null sind, wird auf Basis des Bartlett-Tests zu jedem Signifikanzniveau abgelehnt. 11 Vgl. Backhaus et al. (2006) für eine Klassifizierungsmöglichkeit der KMO-Werte. 91

8 Wie verhält es sich nun mit KMO-Kriterium, wenn lediglich einzelne beobachtete Variablen separat betrachtet werden? Diese Werte lassen sich von der Hauptdiagonalen der Anti-Image-Korrelationsmatrix ablesen. Es wird ersichtlich, dass auch diese Werte für die Durchführung einer Faktorenanalyse sprechen. Insgesamt betrachtet weisen alle berücksichtigten Kriterien Werte aus, die die Durchführung einer Faktorenanalyse geeignet erscheinen läßt. Wie werden die Faktoren extrahiert? Von besonderem Interesse an dieser Stelle sind die Faktorenladungen a ij, die einen Zusammenhang zwischen beobachteten Variablen z ik und den unbeobachteten Faktoren f jk herstellen und die für die folgende Herleitung auch die Basis sind. Die Faktoren selbst werden erst danach genauer betrachtet. In Matrixschreibweise kann die Gleichung (81) geschrieben werden als Z = F A, (83) wobei zunächst die Werte der Matrix A bestimmt werden müssen. Um diese zu bestimmen, bedarf es der Berücksichtigung der Korrelationsmatrix 92

9 der (standardisierten) beobachteten Variablen Z: R = 1 N 1 Z Z. (84) Setzt man nun Z der obigen Gleichung in die untere Gleichung ein, so kann (nach einigen Umformungen) gezeigt werden, dass die Matrix der Korrelationskoeffizienten R auch geschrieben werden kann als R = AA, (85) d h. die Matrizen der Faktorenladungen A können über die Korrelationsmatrix R berechnet werden. Die letztere Gleichung wird Fundamentaltheorem der Faktorenanalyse genannt und ist Basis der Hauptkomponentenmethode 12. Die Bestimmung der Werte der Matrix A erfolgt über die Berechnung von Eigenwerten und -vektoren der Matrix R. Wie sind nun die berechneten Faktorenladungen zu interpretieren? Die Bedeutung dieser Werte wird besonders dann deutlich, wenn die Kommunalitäten betrachtet werden: Die Kommunalität h 2 i der i-ten Variable gibt den Anteil der Varianz dieser (standardisierten) Variablen i (mit Varianz gleich eins) wider, die durch alle Faktoren gemeinsam aufgeklärt wird. Bevor Faktoren extrahiert werden, beträgt der Wert der Kommunalität einer Variablen i eins, danach wird der Wert i. d. R. kleiner als eins sein. Der Wertebereich der Kommunalitäten liegt zwischen [0, 1], eine Kommunalität wird berechnet über 0 h 2 i =ΣM j=1 a2 ij 1, i =1,...,P. (86) 12 Andere Ansätze zur Bestimmung der Faktorenladungen a ij berüchsichtigen noch spezifische Faktoren und Meßfehler, welche ihren Ausdruck in der Gleichung R = AA + U finden. 93

10 Vor einer Extraktion von Faktoren, d. h. bei Berücksichtigung aller Faktoren (die Anzahl der Faktoren ist vor Extraktion derselben gleich der Anzahl der beobachteten Variablen), wird die gesamte Varianz der beobachteten Variablen reproduziert. Die Reduzierung des Reproduktionsanteils erfolgt erst nach der Extraktion der Faktoren. Beispiel (fortgesetzt) Im Unternehmen fragt man sich, ob durch die extrahierten Faktoren ausreichend Varianz der beobachteten standardisierten Variablen reproduziert wurde. Die Ergebnisse sehen wie folgt aus: Der Anteil der Varianz der beobachteten Variablen, der durch die extrahierten Faktoren erklärt wird, erscheint ausreichend. Fraglich ist, wie viele Faktoren hierfür berücksichtigt wurden. Wie wird die Anzahl der zu berücksichtigenden Faktoren bestimmt? Die Bestimmung der Anzahl der zu berücksichtigenden Faktoren kann auf verschieden Arten vorgenommen werden. Das bekannteste ist das Kaiser-Kriterium. Nach dem Kaiser-Kriterium wird ein Faktor dann in der Faktorenanalyse (weiter) berücksichtigt, wenn sein Eigenwert größer als eins ist. Der Eigenwert eines Faktors wird berechnet über 94

11 0 λ j =Σ P i=1 a2 ij P, j =1,...,M. (87) Der Eigenwert λ j des j-ten Faktors gibt an, welcher Anteil der Gesamtvarianz aller (standardisierten) beobachteten Variablen durch diesen Faktor j aufgeklärt wird. Ist der Eigenwert eines Faktor j größer als eins, dann erklärt dieser Faktor im Gesamtzusammenhang mehr Varianz als eine einzelne (standardisierte) Variable (mit der Varianz eins). Beispiel (fortgesetzt) Laut Kaiser-Kriterium werden im Rahmen der Untersuchung des Automobilherstellers zwei Faktoren extrahiert: Der erste Faktor - bei der Hauptkomponentenmethode auch Komponente genannt - hat einen Eigenwert in Höhe von 2, 714, ist also größer als eins und erklärt im Gesamtzusammenhang mehr Varianz als eine einzelne standardisierte Varible. Ähnlich verhält es sich mit der zweiten Komponente. Insgesamt erklären die zwei extrahierten Faktoren 89, 286% = (2, , 643) : 6 der Gesamtvarianz der beobachteten Variablen. Der Verlauf der Eigenwerte der anfänglich sechs Faktoren kann grafisch über den Scree-Plot veranschaulicht werden: 95

12 Die Faktorenladungen selbst können dazu verwendet werden, um den extrahierten Faktoren zusammenfassende Charakteristika zuzuschreiben. Hierbei ist es erforderlich, die Faktorenladungen der einzelnen Faktoren in Relation zu den beobachteten Variablen zu betrachten und - aus Sicht der Faktoren - gemeinsame Ausprägungen der Faktorenladungen zusammenzufassen. Dies ist in der anfänglichen Lösung nur schwer möglich. Deswegen wird eine - üblcherweise orthogonale, d. h. rechtwinklige, um weiterhin die Unabhängigkeit der Faktoren zu gewährleisten - Rotation vorgenommen. Beispiel (fortgesetzt) Die anfängliche Lösung ist nicht rotiert und nur schwer zu interpretieren, da hier Gemeinsamkeiten der Faktoren in Bezug auf die Variablen kaum zu entdecken sind: 96

13 Eher geeignet hierfür ist die rotierte Lösung, die rechtwinklig mit der Varimax-Methode vorgenommen wurde: Es wird ersichtlich, dass der erste Faktor hoch auf die ersten drei Variablen lädt und kaum auf die letzten drei. Genau andersherum verhält es sich mit dem zweiten Faktor. Wie sollen diese Faktoren nun bezeichnet werden? Der erste Faktor kennzeichnet sicherheitsorientierte Fahrer, wohingegen der zweite Faktor sportlich orientierte Fahrer beschreibt. Welche Schluss- 97

14 folgerungen lassen sich nun für das Unternehmen ziehen? Eine Möglichkeit wäre, die ursprünglich vorhandenen sechs Fragen zu lediglich zwei Fragen zur Wichtigkeit eines Sicherheitsaspekts und der Wichtigkeit eines Sportlichkeitsaspekts zusammen zu ziehen, um so Befragungskosten zu reduzieren. Eine andere wäre, eine weitere gleichartige Befragung unter potenziellen Kunden durchzuführen. Ähnelten sich die Faktorenkonstellationen beider Gruppen, könnte das Unternehmen gezielt Werbekampagnen durchführen, die den Sportlichkeitsaspekt oder den Sicherheitsaspekt besonders hervorheben würden, um letztlich neue Kunden zu gewinnen und die alten zu behalten. Eine grafische Darstellung dieser (rotierten) Faktorenladungen ist im zweidimensionalen Raum möglich und erleichtert letztlich eine Interpretation: 98

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T 9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon

Mehr

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,

Mehr

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 LÖSUNG 13 a) Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 Die Variablen sollten hoch miteinander korrelieren. Deshalb sollten die einfachen Korrelationskoeffizienten hoch ausfallen.

Mehr

6. Faktorenanalyse (FA) von Tests

6. Faktorenanalyse (FA) von Tests 6. Faktorenanalyse (FA) von Tests 1 6. Faktorenanalyse (FA) von Tests 1 6.1. Grundzüge der FA nach der Haupkomponentenmethode (PCA) mit anschliessender VARIMAX-Rotation:... 2 6.2. Die Matrizen der FA...

Mehr

2.6 Bestimmung der Faktorwerte ( Matrizenmanipulation bei Hauptkomponentenmethode)

2.6 Bestimmung der Faktorwerte ( Matrizenmanipulation bei Hauptkomponentenmethode) 2.6 Bestimmung der aktorwerte ( Matrizenmanipulation bei Hauptkomponentenmethode) usgangspunkt zur Ermittlung der aktorwerte ist die Strukturgleichung Z E mn mp pn mn Z: Matrix der standardisierten Merkmalsausprägungen,

Mehr

Grundzüge der Faktorenanalyse

Grundzüge der Faktorenanalyse SEITE Grundzüge der Faktorenanalyse Bei der Faktorenanalyse handelt es sich um ein Verfahren, mehrere Variablen durch möglichst wenige gemeinsame, hinter ihnen stehende Faktoren zu beschreiben. Beispiel:

Mehr

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 13 a.

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 13 a. Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 LÖSUNG 13 a. Die Variablen sollten hoch miteinander korrelieren. Deshalb sollten die einfachen Korrelationskoeffizienten hoch ausfallen.

Mehr

Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse

Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse. Exploratorische Faktorenanalyse Exploratorische Faktorenanalyse Der Begriff Faktorenanalyse umfasst eine Gruppe multivariater Analyseverfahren, mit denen zugrundeliegende gemeinsame Dimensionen von Variablenmengen (z.b. Fragebogenitems)

Mehr

Statistische Methoden in der Wirtschaftsund Sozialgeographie

Statistische Methoden in der Wirtschaftsund Sozialgeographie Statistische Methoden in der Wirtschaftsund Sozialgeographie Ort: Zeit: Multimediapool Rechenzentrum Mittwoch 0.5--45 Uhr Material: http://www.geomodellierung.de Thema: Beschreibung und Analyse Wirtschafts-

Mehr

Faktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduktion. Interpretation des SPSS-Output s

Faktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduktion. Interpretation des SPSS-Output s Explorative Faktorenanalyse als Instrument der Dimensionsreduktion Beispiel: Welche Dimensionen charakterisieren die Beurteilung des sozialen Klimas in der Nachbarschaft? Variablen: q27a bis q27g im Datensatz

Mehr

Explorative Faktorenanalyse

Explorative Faktorenanalyse Explorative Faktorenanalyse 1 Einsatz der Faktorenanalyse Verfahren zur Datenreduktion Analyse von Datenstrukturen 2 -Ich finde es langweilig, mich immer mit den selben Leuten zu treffen -In der Beziehung

Mehr

6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal

6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße 20 42097 Wuppertal Allgemein 6 Konstrukte: - soziale Kontakte (6 Items) - Markenbewusstsein (6 Items) - Werbeakzeptanz (6 Items) - materielle

Mehr

Name Vorname Matrikelnummer Unterschrift

Name Vorname Matrikelnummer Unterschrift Dr. Hans-Otfried Müller Institut für Mathematische Stochastik Fachrichtung Mathematik Technische Universität Dresden Klausur Statistik II (Sozialwissenschaft, Nach- und Wiederholer) am 26.10.2007 Gruppe

Mehr

Faktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung. Interpretation des SPSS-Output s

Faktorenanalysen mit SPSS. Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung. Interpretation des SPSS-Output s Explorative Faktorenanalyse als Instrument der Dimensionsreduzierung Beispiel: Welche Dimensionen charakterisieren die Beurteilung des sozialen Klimas in der Nachbarschaft? Variablen: q27a bis q27g im

Mehr

6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal

6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße 20 42097 Wuppertal Allgemein 6 Konstrukte: - Preisorientierung (6 Items) - Werbeakzeptanz (6 Items) - Qualitätsbewusstsein (6 Items) - Trendbewusstsein

Mehr

Zur Erklärung menschlicher Verhaltensweisen oder allgemeiner sozialer Phänomene ist häufig eine Vielzahl von Einflussfaktoren zu berücksichtigen.

Zur Erklärung menschlicher Verhaltensweisen oder allgemeiner sozialer Phänomene ist häufig eine Vielzahl von Einflussfaktoren zu berücksichtigen. 4.3 Faktorenanalyse Problemstellung Zur Erklärung menschlicher Verhaltensweisen oder allgemeiner sozialer Phänomene ist häufig eine Vielzahl von Einflussfaktoren zu berücksichtigen. Je größer jedoch die

Mehr

Die Faktorenanalyse. Anwendung dann, wenn zwischen beobachtbaren und nicht direkt beobachtbaren Variablen ein kausales Verhältnis vermutet wird

Die Faktorenanalyse. Anwendung dann, wenn zwischen beobachtbaren und nicht direkt beobachtbaren Variablen ein kausales Verhältnis vermutet wird Die Faktorenanalyse Zielsetzung Datenreduktion: eine größere Anzahl von Variablen auf eine kleinere Anzahl unabhängiger Einflussgrößen zurückführen Grundlegende Idee Direkt beobachtbare Variablen spiegeln

Mehr

Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ

Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Die Rücktransformation: Z = A t (Y µ) = Y = AZ + µ Kleine Eigenwerte oder Eigenwerte gleich Null: k Eigenwerte Null = Rang(Σ) = m k Eigenwerte fast Null = Hauptkomponenten beinahe konstant Beschränkung

Mehr

Eigene MC-Fragen Kap. 4 Faktorenanalyse, Aggregation, Normierung. 1. Welche Aussage zu den Prinzipien der Faktorenanalyse ist zutreffend?

Eigene MC-Fragen Kap. 4 Faktorenanalyse, Aggregation, Normierung. 1. Welche Aussage zu den Prinzipien der Faktorenanalyse ist zutreffend? Eigene MC-Fragen Kap. 4 Faktorenanalyse, Aggregation, Normierung 1. Welche Aussage zu den Prinzipien der Faktorenanalyse ist zutreffend? a) Die Faktorenanalyse hat ihren Ursprung in der theoretischen Intelligenzforschung.

Mehr

Musterklausur im Fach Käuferverhalten und Marketingforschung. Prof. Dr. M. Kirchgeorg

Musterklausur im Fach Käuferverhalten und Marketingforschung. Prof. Dr. M. Kirchgeorg Lehrstuhl Marketingmanagement Musterklausur im Fach Käuferverhalten und Marketingforschung Prof. Dr. M. Kirchgeorg Punkteverteilung: Aufgabe max. Punktzahl erreichte Punktzahl I-1 12 I-2 10 I-3 8 Gesamt

Mehr

1 Übungsaufgaben zur Regressionsanalyse

1 Übungsaufgaben zur Regressionsanalyse 1 Übungsaufgaben zur Regressionsanalyse 1 1 Übungsaufgaben zur Regressionsanalyse 1.1 Übungsaufgaben zu Seite 1 und 2 1. Wie lautet die Regressionsfunktion? 2. Welche Absatzmenge ist im Durchschnitt bei

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

Ermitteln Sie auf 2 Dezimalstellen genau die folgenden Kenngrößen der bivariaten Verteilung der Merkmale Weite und Zeit:

Ermitteln Sie auf 2 Dezimalstellen genau die folgenden Kenngrößen der bivariaten Verteilung der Merkmale Weite und Zeit: 1. Welche der folgenden Kenngrößen, Statistiken bzw. Grafiken sind zur Beschreibung der Werteverteilung des Merkmals Konfessionszugehörigkeit sinnvoll einsetzbar? A. Der Modalwert. B. Der Median. C. Das

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 27. März 2015 Aufgabe 1 Kennzeichnen Sie die folgenden Aussagen über die beiden Zufallsvektoren ([ ] [ ]) ([ ] [ ]) 2 1 0 1 25 2 x 1 N, x 3 0 1 2

Mehr

Statistik II: Klassifikation und Segmentierung

Statistik II: Klassifikation und Segmentierung Medien Institut : Klassifikation und Segmentierung Dr. Andreas Vlašić Medien Institut (0621) 52 67 44 vlasic@medien-institut.de Gliederung 1. Faktorenanalyse 2. Clusteranalyse 3. Key Facts 2 I 14 Ziel

Mehr

9. November Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. Matrizenrechnung. 2. Multiple Korrelationen

9. November Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. Matrizenrechnung. 2. Multiple Korrelationen Ruhr-Universität Bochum 9. November 2009 1 / 62 Methodenlehre III NA 3/73 Telefon: 0234 322 8284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag, 8.30-10.00

Mehr

Faktorenanalyse. Fakultät für Human und Sozialwissenschaften Professur für Forschungsmethodik und Evaluation in der Psychologie

Faktorenanalyse. Fakultät für Human und Sozialwissenschaften Professur für Forschungsmethodik und Evaluation in der Psychologie Faktorenanalyse Fakultät für Human und Sozialwissenschaften Professur für Forschungsmethodik und Evaluation in der Psychologie Seminar: Multivariate Analysemethoden Seminarleiter: Dr. Thomas Schäfer Referenten:

Mehr

Ausführliche Lösungen zu ausgewählten Aufgaben von ÜB 5 und 6. Streudiagramm

Ausführliche Lösungen zu ausgewählten Aufgaben von ÜB 5 und 6. Streudiagramm y Aufgabe 3 Ausführliche Lösungen zu ausgewählten Aufgaben von ÜB 5 und 6 a) Zur Erstellung des Streudiagramms zeichnet man jeweils einen Punkt für jedes Datenpaar (x i, y i ) aus der zweidimensionalen

Mehr

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik

Demokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen

Mehr

METHODENPRAKTIKUM II Kurs 1. Prof. Dr. Beat Fux SUZ Frühlingssemester 2009

METHODENPRAKTIKUM II Kurs 1. Prof. Dr. Beat Fux SUZ Frühlingssemester 2009 METHODENPRAKTIKUM II Kurs 1 Prof. Dr. Beat Fux SUZ Frühlingssemester 2009 Ziel der Faktorenanalyse Struktur hinter den Korrelationen zwischen Variablen entdecken Reduzierung einer Vielzahl von Variablen

Mehr

Einer Reihe von Merkmalen zugrunde liegende, gemeinsame Faktoren ermitteln.

Einer Reihe von Merkmalen zugrunde liegende, gemeinsame Faktoren ermitteln. Faktoranalysen Aufbau 1. Sinn und Zweck 2. Eigenschaften der Merkmale 3. Extraktion der Faktoren 4. Anzahl der Faktoren 5. Rotation der Faktoren 6. Interpretation der Faktoren Sinn und Zweck Einer Reihe

Mehr

Sommersemester Marktforschung

Sommersemester Marktforschung Dipl.-Kfm. Sascha Steinmann Universität Siegen Lehrstuhl für Marketing steinmann@marketing.uni-siegen.de Sommersemester 2010 Marktforschung Übungsaufgaben zu den Themen 3-6 mit Lösungsskizzen Aufgabe 1:

Mehr

Exkurs: Eigenwertproblem

Exkurs: Eigenwertproblem 1 von 7 29.11.2008 16:09 Exkurs: Eigenwertproblem Bei der Faktorenanalyse tritt das Eigenwertproblem auf. Man spricht von einem Eigenwertproblem wenn das Produkt zwischen einer Matrix und einem Vektor

Mehr

Der Korrelationskoezient nach Pearson

Der Korrelationskoezient nach Pearson Der Korrelationskoezient nach Pearson 1 Motivation In der Statistik werden wir uns häug mit empirisch erfassten Daten beschäftigen. Um diese auszuwerten, ist es oftmals notwendig einen Zusammenhang zwischen

Mehr

Skript Einführung in SPSS

Skript Einführung in SPSS SPSSinteraktiv Faktorenanalyse - 1 - Skript Einführung in SPSS Faktorenanalyse Explorative Faktorenanalyse Hauptkomponentenanalyse (PCA) Hinweise zum Schreiben des statistischen Reports 1. Sämtliche Tabellen

Mehr

Konfirmatorische Faktorenanalyse

Konfirmatorische Faktorenanalyse Konfirmatorische Faktorenanalyse Regressionsmodelle für Politikwissenschaftler Was ist ein Faktor? Faktor oder latente Variable nicht direkt beobachtbare Größe die beobachtbare Variablen ( Indikatoren

Mehr

Teilklausur des Moduls Kurs 42221: Vertiefung der Statistik

Teilklausur des Moduls Kurs 42221: Vertiefung der Statistik Name, Vorname Matrikelnummer Teilklausur des Moduls 32741 Kurs 42221: Vertiefung der Statistik Datum Termin: 21. März 2014, 14.00-16.00 Uhr Prüfer: Univ.-Prof. Dr. H. Singer Vertiefung der Statistik 21.3.2014

Mehr

Konfirmatorische Faktorenanalyse. Regressionsmodelle für Politikwissenschaftler

Konfirmatorische Faktorenanalyse. Regressionsmodelle für Politikwissenschaftler Konfirmatorische Faktorenanalyse Regressionsmodelle für Politikwissenschaftler Was ist ein Faktor? Faktor oder latente Variable Regressionsmodelle für Politikwissenschaftler Konfirmatorische Faktorenanalyse

Mehr

Forschungsstatistik II, SS2009

Forschungsstatistik II, SS2009 Forschungsstatistik II, SS29 Abschlussklausur Inferenzstatistik Name: Matrikel-Nr.: Bonuspunkte: ja nein Forschungsstatistik II SS29 Abschlussklausur Aufgabe 1: (6 Punkte 1%) Welche dieser Matrizen können

Mehr

2.5 Das Rotationsproblem

2.5 Das Rotationsproblem .5 Das Rotationsproblem Das Verfahren der Faktorenextraktion ist so ausgestaltet, dass - der erste Faktor F 1 einen möglichst großen Teil der Varianz der manifesten Variablen erklärt, - der zweite Faktor

Mehr

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

TEIL 12: BIVARIATE ANALYSE FÜR METRISCH SKALIERTE VARIABLEN

TEIL 12: BIVARIATE ANALYSE FÜR METRISCH SKALIERTE VARIABLEN TEIL 12: BIVARIATE ANALYSE FÜR METRISCH SKALIERTE VARIABLEN Bivariate Analyse für metrisch skalierte Variablen Grundlagen Verfahren für metrische Daten nutzen den vollen mathematischen Informationsgehalt

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Charakterisierung von 1D Daten

Charakterisierung von 1D Daten Charakterisierung von D Daten Mittelwert: µ, Schätzung m x = x i / n Varianz σ2, Schätzung: s2 = (s: Standardabweichung) Höhere Momente s 2 = ( x i m x ) 2 n ( ) Eine Normalverteilung ist mit Mittelwert

Mehr

x erhielt die Rücklauf/Responsequote. Im Vergleich auch zu anderen Kennzahlen ist bei der Responsequote die Standardabweichung am geringsten (1,95).

x erhielt die Rücklauf/Responsequote. Im Vergleich auch zu anderen Kennzahlen ist bei der Responsequote die Standardabweichung am geringsten (1,95). höchsten Zustimmungswert ( = 5,7) x erhielt die Rücklauf/Responsequote. Im Vergleich auch zu anderen Kennzahlen ist bei der Responsequote die Standardabweichung am geringsten (1,95). 3. Kennzahl entscheidet

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

TEIL 12: BIVARIATE ANALYSE FÜR METRISCH SKALIERTE VARIABLEN

TEIL 12: BIVARIATE ANALYSE FÜR METRISCH SKALIERTE VARIABLEN TEIL 12: BIVARIATE ANALYSE FÜR METRISCH SKALIERTE VARIABLEN GLIEDERUNG Bivariate Analyse für metrisch skalierte Variablen Grundlagen Streudiagramme und Visualisierungen von Zusammenhängen Positive lineare

Mehr

Prof. Dr. Fred Böker

Prof. Dr. Fred Böker Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung

Mehr

Aufgaben zur Multivariaten Statistik

Aufgaben zur Multivariaten Statistik Prof. Dr. Reinhold Kosfeld Fachbereich Wirtschaftswissenschaften Universität Kassel Aufgaben zur Multivariaten Statistik Teil : Aufgaben zur Einleitung. Was versteht man unter einer univariaten, bivariaten

Mehr

Faktorenanalyse und Hauptkomponentenanalyse

Faktorenanalyse und Hauptkomponentenanalyse Faktorenanalyse und Hauptkomponentenanalyse Man habe n Personen auf m Variablen untersucht Insbesondere habe man: n Personen Index i m Variablen Index j r Faktoren Index l Die Faktoren sind latente Variablen,

Mehr

Einführung in SPSS. Sitzung 5: Faktoranalyse und Mittelwertsvergleiche. Knut Wenzig. 22. Januar 2007

Einführung in SPSS. Sitzung 5: Faktoranalyse und Mittelwertsvergleiche. Knut Wenzig. 22. Januar 2007 Sitzung 5: Faktoranalyse und Mittelwertsvergleiche 22. Januar 2007 Verschiedene Tests Anwendungsfall und Voraussetzungen Anwendungsfall Mehrere Variablen, die Gemeinsamkeiten haben, werden gebündelt. (Datenreduktion)

Mehr

Statistische Methoden in den Umweltwissenschaften

Statistische Methoden in den Umweltwissenschaften Statistische Methoden in den Umweltwissenschaften Korrelationsanalysen Kreuztabellen und χ²-test Themen Korrelation oder Lineare Regression? Korrelationsanalysen - Pearson, Spearman-Rang, Kendall s Tau

Mehr

Brückenkurs Statistik für Wirtschaftswissenschaften

Brückenkurs Statistik für Wirtschaftswissenschaften Peter von der Lippe Brückenkurs Statistik für Wirtschaftswissenschaften Weitere Übungsfragen UVK Verlagsgesellschaft mbh Konstanz Mit UVK/Lucius München UVK Verlagsgesellschaft mbh Konstanz und München

Mehr

Holger Dette. 30. Oktober 2015

Holger Dette. 30. Oktober 2015 Ruhr-Universität Bochum 30. Oktober 2015 1 / 1 Methodenlehre III Prof. Dr. NA 3/73 Telefon: 0234 32 28284 Email: holger.dette@rub.de Internet: www.ruhr-uni-bochum.de/mathematik3/index.html Vorlesung: Montag,

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Diagonalisierbarkeit symmetrischer Matrizen

Diagonalisierbarkeit symmetrischer Matrizen ¾ Diagonalisierbarkeit symmetrischer Matrizen a) Eigenwerte und Eigenvektoren Die Matrix einer linearen Abbildung ³: Î Î bezüglich einer Basis ( Ò ) ist genau dann eine Diagonalmatrix wenn jeder der Basisvektoren

Mehr

2. Faktorenanalyse 2.1 Grundidee der Faktorenanalyse

2. Faktorenanalyse 2.1 Grundidee der Faktorenanalyse . Faktorenanalyse. Grundidee der Faktorenanalyse Arten eines statistischen Zusammenhangs zwischen den Variablen X und X a) Die Variable (X ) ist eine Funktion der Variablen (X ). So wird etwa in der Volkswirtschaftslehre

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur

Mehr

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................

Mehr

3) Testvariable: T = X µ 0

3) Testvariable: T = X µ 0 Beispiel 4.9: In einem Molkereibetrieb werden Joghurtbecher abgefüllt. Der Sollwert für die Füllmenge dieser Joghurtbecher beträgt 50 g. Aus der laufenden Produktion wurde eine Stichprobe von 5 Joghurtbechern

Mehr

Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19

Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19 Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, 2016 6:34 P.M. Page 11 Inhaltsverzeichnis Über die Übersetzerin 9 Einleitung 19 Was Sie hier finden werden 19 Wie dieses Arbeitsbuch aufgebaut ist

Mehr

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Faktorenanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007

Faktorenanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007 Faktorenanalyse Bacher, SoSe2007 1. Grundlegende Verfahren explorative FA (EXFA): Für eine Menge von Variablen/Items werden zugrunde liegende gemeinsame (latente) Dimensionen/Faktoren gesucht, die Faktorstruktur

Mehr

Die n-dimensionale Normalverteilung

Die n-dimensionale Normalverteilung U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

INHALTSVERZEICHNIS Inhaltsverzeichnis Tabellenverzeichnis Abbildungsverzeichnis Anhangsverzeichnis Abkürzungsverzeichnis. 1.

INHALTSVERZEICHNIS Inhaltsverzeichnis Tabellenverzeichnis Abbildungsverzeichnis Anhangsverzeichnis Abkürzungsverzeichnis. 1. INHALTSVERZEICHNIS Inhaltsverzeichnis Tabellenverzeichnis Abbildungsverzeichnis Anhangsverzeichnis Abkürzungsverzeichnis I IV IX X XI 1. Einleitung 1 2. Literaturrückblick 5 2.1 Die biographische Methode

Mehr

Vektoren und Matrizen

Vektoren und Matrizen Vektoren und Matrizen Die multivariate Statistik behandelt statistische Eigenschaften und Zusammenhänge mehrerer Variablen, im Gegensatz zu univariaten Statistik, die in der Regel nur eine Variable untersucht.

Mehr

Einführung in die Korrelationsrechnung

Einführung in die Korrelationsrechnung Einführung in die Korrelationsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Korrelationsrechnung

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe

Mehr

Skript zum Kurz-Referat:

Skript zum Kurz-Referat: Prof. Dr. Klaus-Jürgen Tillmann/ Michael Lenz WS 2001/02 Fakultät für Pädagogik (AG 4) der Universität Bielefeld Seminar: Anlage und : Der pädagogische Streit seit den 50er-Jahren 7. Sitzung: Die Erblichkeit

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

Modulklausur Multivariate Verfahren

Modulklausur Multivariate Verfahren Name, Vorname Matrikelnummer Modulklausur 31821 Multivariate Verfahren Datum Note Termin: 24. März 2017, 11.30-13.30 Uhr Erstprüfer: Univ.-Prof. Dr. H. Singer Hinweise zur Bearbeitung der Modulklausur

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Skalenniveaus =,!=, >, <, +, -

Skalenniveaus =,!=, >, <, +, - ZUSAMMENHANGSMAßE Skalenniveaus Nominalskala Ordinalskala Intervallskala Verhältnisskala =,!= =,!=, >, < =,!=, >, ,

Mehr

Lineare Korrelation. Statistik für SozialwissenschaftlerInnen II p.143

Lineare Korrelation. Statistik für SozialwissenschaftlerInnen II p.143 Lineare Korrelation Statistik für SozialwissenschaftlerInnen II p.143 Produkt-Moment-Korrelation Der Produkt-Moment-Korrelationskoffizient r von Pearson ist ein Zusammenhangsmaß für metrische Variablen

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Betrachtet wird eine (n,n)-matrix A. Eine Zahl λ heißt Eigenwert von A, wenn ein Vektor v existiert, der nicht der Nullvektor ist und für den gilt: A v = λ v.

Mehr

Zeitreihenökonometrie

Zeitreihenökonometrie Zeitreihenökonometrie Kapitel 8 Impuls-Antwort-Funktionen Interpretation eines VAR-Prozesses 2 Fall eines bivariaten Var(p)-Prozess mit 2 Variablen und ohne Konstante 1 1 p p 1,t α11 α 12 1,t-1 α11 α 12

Mehr

4 Lineare Abbildungen und Matrizen

4 Lineare Abbildungen und Matrizen Mathematik I für inf/swt, Wintersemester /, Seite 8 4 Lineare Abbildungen und Matrizen 4 Kern und Injektivität 4 Definition: Sei : V W linear Kern : {v V : v } ist linearer eilraum von V Ü68 und heißt

Mehr

SPSS-Ausgabe 1: Univariate Varianzanalyse. Profildiagramm. [DatenSet1] D:\Sozialwiss2006_7\STAT2\Daten\mathsalaries.sav. Seite 1

SPSS-Ausgabe 1: Univariate Varianzanalyse. Profildiagramm. [DatenSet1] D:\Sozialwiss2006_7\STAT2\Daten\mathsalaries.sav. Seite 1 SPSS-Ausgabe : Univariate Varianzanalyse [DatenSet] D:\Sozialwiss2006_7\STAT2\Daten\mathsalaries.sav Tests der Zwischensubjekteffekte Abhängige Variable: Einkommen Quelle Korrigiertes Modell Konstanter

Mehr

4 Vorlesung: 21.11. 2005 Matrix und Determinante

4 Vorlesung: 21.11. 2005 Matrix und Determinante 4 Vorlesung: 2111 2005 Matrix und Determinante 41 Matrix und Determinante Zur Lösung von m Gleichungen mit n Unbekannten kann man alle Parameter der Gleichungen in einem rechteckigen Zahlenschema, einer

Mehr

Statistisches Testen

Statistisches Testen Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall

Mehr

Wahrscheinlichkeitsrechnung und Statistik. 11. Vorlesung /2019

Wahrscheinlichkeitsrechnung und Statistik. 11. Vorlesung /2019 Wahrscheinlichkeitsrechnung und Statistik 11. Vorlesung - 2018/2019 Quantil der Ordnung α für die Verteilung des beobachteten Merkmals X ist der Wert z α R für welchen gilt z 1 2 heißt Median. P(X < z

Mehr

6 Korrelations- und Regressionsanalyse: Zusammenhangsanalyse stetiger Merkmale

6 Korrelations- und Regressionsanalyse: Zusammenhangsanalyse stetiger Merkmale 6 Korrelations- und Regressionsanalyse: Zusammenhangsanalyse stetiger Merkmale 397 6.1 Korrelationsanalyse Jetzt betrachten wir bivariate Merkmale (X, Y ), wobei sowohl X als auch Y stetig bzw. quasi-stetig

Mehr

Kapitel 4: Merkmalszusammenhänge

Kapitel 4: Merkmalszusammenhänge Kapitel 4: Merkmalszusammenhänge Korrelationen 1 Lineare Regression 3 Literatur 5 Korrelationen Mit Hilfe von G*Power lässt sich analog zum Vorgehen beim t-test (Kapitel 3, Band I) vor einer Untersuchung

Mehr

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema:

a 11 a 12 a 1(m 1) a 1m a n1 a n2 a n(m 1) a nm Matrizen Betrachten wir das nachfolgende Rechteckschema: Matrizen Betrachten wir das nachfolgende Rechteckschema: a 12 a 1(m 1 a 1m a n1 a n2 a n(m 1 a nm Ein solches Schema nennt man (n m-matrix, da es aus n Zeilen und m Spalten besteht Jeder einzelne Eintrag

Mehr

Sind mehrere Merkmale untereinander hoch korreliert, so kann man sie als zusammengehörig interpretieren, sie bilden einen Faktor.

Sind mehrere Merkmale untereinander hoch korreliert, so kann man sie als zusammengehörig interpretieren, sie bilden einen Faktor. 5 Faktorenanalyse 5.1 Das orthogonale Faktorenmodell Sind mehrere Merkmale untereinander hoch korreliert, so kann man sie als zusammengehörig interpretieren, sie bilden einen Faktor. Beispiel 5.1. Körpergröße

Mehr

Statistik Einführung // Kategoriale Daten 10 p.2/26

Statistik Einführung // Kategoriale Daten 10 p.2/26 Statistik Einführung Kategoriale Daten Kapitel 10 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Leydold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // Kategoriale Daten

Mehr

Freisetzen und Fixieren von Parametern in Strukturgleichungsmodellen

Freisetzen und Fixieren von Parametern in Strukturgleichungsmodellen Freisetzen und Fixieren von Parametern in Strukturgleichungsmodellen 1 Variablen und Parameter Variablen haben für verschiedene Personen unterschiedliche Werte. Parameter haben für eine gegebene Population

Mehr

Bivariate Analyseverfahren

Bivariate Analyseverfahren Bivariate Analyseverfahren Bivariate Verfahren beschäftigen sich mit dem Zusammenhang zwischen zwei Variablen Beispiel: Konservatismus/Alter Zusammenhangsmaße beschreiben die Stärke eines Zusammenhangs

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Modul G.1 WS 07/08: Statistik

Modul G.1 WS 07/08: Statistik Modul G.1 WS 07/08: Statistik 10.01.2008 1 2 Test Anwendungen Der 2 Test ist eine Klasse von Verfahren für Nominaldaten, wobei die Verteilung der beobachteten Häufigkeiten auf zwei mehrfach gestufte Variablen

Mehr

Beispiele 1. Gegeben ist das lineare System. x+4y +3z = 1 2x+5y +9z = 14 x 3y 2z = 5. Die erweiterte Matrix ist

Beispiele 1. Gegeben ist das lineare System. x+4y +3z = 1 2x+5y +9z = 14 x 3y 2z = 5. Die erweiterte Matrix ist 127 Die Schritte des Gauß-Algorithmus sind nun die Folgenden: 1. Wir bestimmen die am weitesten links stehende Spalte, die Einträge 0 enthält. 2. Ist die oberste Zahl der in Schritt 1 gefundenen Spalte

Mehr

2. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017

2. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 . Lösung weitere Übungsaufgaben Statistik II WiSe 016/017 1. Aufgabe: Bei der Produktion eines Werkstückes wurde die Bearbeitungszeit untersucht. Für die als normalverteilt angesehene zufällige Bearbeitungszeit

Mehr

11.2 Ergebnisse der Faktorenanalysen

11.2 Ergebnisse der Faktorenanalysen 11.2 Ergebnisse der Faktorenanalysen Die Durchführung von Faktorenanalysen zu Beginn der empirischen Untersuchungen hatte neben der Itemanalyse das Ziel, den Fragebogen als Erhebungsinstrument zu prüfen.

Mehr

Orthogonale Matrix. Definition 4.19

Orthogonale Matrix. Definition 4.19 Orthogonale Matrix Ausgleichsprobleme sind häufig schlecht konditioniert. Matrix des Normalengleichungssystems kann nahezu singulär sein. Spezielle Matrixzerlegung für höhere numerische Stabilität: QR-Zerlegung

Mehr

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor)

Besteht eine Matrix nur aus einer Spalte (Zeile), so spricht man auch von einem Spaltenvektor (Zeilenvektor) Matrizenrechnung. Matrizen Matrizen sind bereits im Kapitel Lineare Gleichungssysteme aufgetreten. Unter einer (m n) -Matrix A verstehen wir ein rechteckiges Zahlenschema mit m Zeilen und n Spalten. Der.

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn

Mehr