Seminar: Multivariate Verfahren g Dr. Thomas Schäfer Referenten: Wiebke Hoffmann, Claudia Günther
|
|
- Gertrud Kohl
- vor 6 Jahren
- Abrufe
Transkript
1 Seminar: Multivariate Verfahren g Dr. Thomas Schäfer Leitung: Referenten: Wiebke Hoffmann, Claudia Günther
2 Regressionsanalyse was war das nochmal? Grundlagen Einfaches lineares Regressionsmodell Strukturformel Multiple lineare Regression Globale Gütemaße Voraussetzungen Methoden für Prädiktorenauswahl Dummy-Variablen
3 Regressionsanalyse
4 Analyse von Zusammenhängen zwischen Variablen (X,Y) Vorhersage der Y-Werte aus X-Werten Versuch, die Y-Werte auf die X-Werte zurückzuführen Regressionstypen linear nicht-linear eine UV Lineare Einfachregression Nichtlinear, Einfachregression X Y mehrere UV Lineare multiple l Regression Nichtlinear, multiple l Regression X 1 X 2 Y
5 X 1, X 2, X i Y Prädiktor(en) Regressor(en) UV Bsp: Funktionen von Musik Kriterium Regressand AV Bsp: Beliebtheitsgrad von Musik
6 Musik 1 Klavier Musik 2 - Rock Musik 3 Pop Musik 4 Club Musik 5 - Hip Hop
7 y Wovon ist es abhängig, ob ich eine bestimmte Musik mag (Musikpräferenz)? x 1, x 2 x i hilft mir zu entspannen. wühlt mich auf. regt mich zum Tanzen oder zur Bewegung an. ist Gesprächsthema zwischen mir und Freunden/ Bekannten N = 22 hilft mir beim Nachdenken
8 Analyse des stochastischen Zusammenhangs zwischen einer Zielgröße Y und mehreren Einflussgrößen X i bei verbundenen Stichproben (Variabilität von Y durch die Variabilitäten der X i erklären) Welchen stochastischen Zusammenhang gibt es zwischen der Musikpräferenz (Y) und verschiedenen Funktionen von Musik (X i )? Vorhersage der Werte einer Variable (Kriterium = Y) bei Kenntnis der Werte der anderen Variable (Prädiktor = X) Durch welche Funktionen von Musik kann man am besten die Musikpräferenz vorhersagen?
9 1. Zusammenhänge aufzeigen Welcher Zusammenhang besteht zwischen einer Zielgröße (abhängig) und möglichen Einflussgrößen Beispiel: Welche Faktoren beeinflussen die Bewertung der Pflege durch Bewohner in der stationären Altenpflege 2. Einflussgrößen quantifizieren Wie groß ist der Einfluss einer bestimmten Variablen auf die Zielgröße? Beispiel: Wie groß ist der Einfluss des Zigarettenkonsum von Schwangeren auf die Fehlgeburtenrate?
10 Ursachenanalysen: Wie stark ist der Einfluss von X auf Y? Wirkungsanalysen: ik Wie verändert sich Y bei Veränderung von X? Zeitreihenanalysen: Wie verändert sich Y im Zeitverlauf? Prognose!
11 Regressionsanalyse Einfaches lineares Regressionsmodell Strukturformel Regressionskoeffizienten g b i Regressionskonstante b 0 Kriterium der kleinsten Quadrate
12 Grundidee: Vorhersage einer Ausprägung einer abhängigen Variable durch eine andere (unabhängige) Variable! Aus einem Datensatz entwickelt man eine Vorhersage-Gleichung, h die in diesen Datensatz die bestmögliche Vorhersage treffen würde Ähnlichkeit zur Korrelation Keine echte Kausalität!
13 Prinzip: Es wird eine Gerade ermittelt, die den Zusammenhang zwischen x und y beschreibt. y x
14 y Wovon ist es abhängig, ob ich eine bestimmte Musik mag (Musikpräferenz)? x 1, x 2 x i hilft mir zu entspannen. wühlt mich auf. regt mich zum Tanzen oder zur Bewegung an. ist Gesprächsthema zwischen mir und Freunden/ Bekannten N = 22 hilft mir beim Nachdenken
15
16 vorhergesagter y-wert der Person i X-Wert der Person i yˆ i = b0 + b i x i additive Konstante (y-achsen-abschnitt), b 0 =a Regressionskoeffizient (Steigung)
17 = ß-Gewichte ß der einzelnen Pädikt Prädiktorvariablen i (auch Partialregressionskoeffizienten) relativer Einfluss einer Prädiktorvariablen auf das Kriterium Das größte ß symbolisiert den größten Einfluss ß kann zwischen 1 und 1 schwanken Extremere Betas Probleme mit dem Modell Interpretation: ändert sich x um eine Standartabweichung, dann ändert sich y um ß Standartabweichungen b i = r xy s s y x
18 = Schnittpunkt mit der y-achse Wenn man über eine Person gar nichts weiß und ein Kriterium (y) schätzen soll, dann ist der Mittelwert dieses Kriteriums (y) von einer Vielzahl bekannter Personen die beste Schätzung. b 0 = y bx i
19 y ˆ i = b0 + b i x i Die Parameter b 0 und b i werden aus den Merkmalsdaten x und y nach der Methode der kleinsten Quadrate (auch Kleinste-Quadrate-Schätzung oder kurz KQ-Schätzung genannt) berechnet (geschätzt).
20 Für einen Datensatz (eine Punktewolke) werden b 0 und b i so gewählt, dass der quadrierte Vorhersagefehler über alle Probanden minimal ist: N y yˆ ( ) min 2 1 = i =1 i i Für die Ermittlung der Regressionsgleichung wird id die Differenz der tatsächlichen tählih von den vorhergesagten y-werten also quadriert. Das hat 2 Vorteile 1. Abweichungswerte sind immer positiv. 2. Große Abweichungen werden stärker berücksichtigt als kleine Abweichungen. yˆ = b i 0 + b i x i
21 y-wert der Person i Regressionskoeffizient (Steigung) y = b0 + b i x + e V h g i i = 0 Vorhersagefehler additive Konstante (y-achsen-abschnitt) X-Wert der Person i entspricht dem ALM.
22
23 Analysieren Regression Linear
24 Festlegen von x (AV) und y (UV) AV Präferenz UV - nachdenken
25 Modelle: Aufgenommene und entfernte Variablen + Methode (Einschluss) Varianzaufklärung: Globale Gütemaße: R 2 *100% Varianz ergibt den Wie gut gibt die Regressionsfunktion, die prozentualen Anteil der beobachteten Daten wieder? erklärten Varianz an der Gesamtvarianz. Im Beispiel also 42,6%. KORRIGIERTER DETERMINATIONSKOEFFIZIENT: je mehr Prädiktoren eingehen, umso stärker muss R 2 nach unten korrigiert werden
26 t-test zur Überprüfung der Signifikanz der Koeffizienten (getestet wird die H 0, dass der Koeffizient in der Population Null ist, dass also der Prädiktor unbedeutend ist) unstandardisierte Werte für b 0 und b i y ˆ i = b0 + b i x y = 4, ,458*x i standardisierter Wert für b i z B wenn Klaviermusik in höchstem Maße (= 10) beim Nachdenken z.b. wenn Klaviermusik in höchstem Maße (= 10) beim Nachdenken hilft, ist die Vorhersage für die Musikpräferenz 9,2 (9,261 = 4,681+0,458*10).
27 Regressionsanalyse (1) Globale Gütemaße (2) Voraussetzungen (3) SPSS Welche Methode wählen wir?
28 Hier gibt es im Gegensatz zur einfachen linearen Regression mehrere Prädiktoren. x b x b x b b y ˆ i i i x b x b x b b y =
29 Analysieren Regression Linear
30 Wie präzise sagt die Regressions- gleichung die Werte der Kriteriumsvariablen vorher? Regressionsanalyse a) Multipler Korrelationskoeffizient R b) Multipler Determinationskoeffizient R 2 c) Standardschätzfehler s e d) F-Statistik
31 entspricht der Korrelation zwischen vorhergesagten und tatsächlichen y-werten. ist ein Maß für den Zusammenhang des Kriteriums mit allen berücksichtigten Prädiktoren. sagt aus, wie gut die Vorhersage ist.
32 Kann unser Regressionsmodell überhaupt signifikant Varianz in der AV aufklären? Gesamte Varianz von y unerklärte Varianz = Fehlervarianz = Residuenvarianz y-^y erklärte Varianz = Varianz von ^y
33 Wieviel Varianz wird aufgeklärt? R 2 gibt die Gesamtvarianzaufklärung wieder. R 2 = 0,815 = 67,907 (erklärte Varianz) 83,318 (Gesamtvarianz)
34
35 (auch Bestimmtheitsmaß th it genannt) gibt an, welcher Anteil der Varianz des Kriteriums durch alle Prädiktoren aufgeklärt werden kann bzw. wie viel Prozent Streuung in der abhängigen Variable sich auf die unabhängige(n) Variable(n) zurückführen lassen. wird in der Regel geringer ausfallen, als die Summe der einzelnen Determinationskoeffizienten, weil die Prädiktoren zumeist redundante Informationen über das Kriterium enthalten. K ( yˆ k= 1 R² = K ( y k= 1 k y)² y)² yk y = erklärte Streung Gesamtstreuung
36 Achtung! Man kann R² künstlich durch die Zahl der Prädiktoren erhöhen, da R² nie kleiner werden kann, wenn die Zahl der Prädiktoren steigt. Je mehr Prädiktoren, desto mehr wird R² überschätzt! korrigiertes R²
37 Warum wird R-Quadrat korrigiert? Je mehr UV in die Berechnung eingehen, desto eher wird ihr Einfluss überschätzt. Je mehr Prädiktoren man benutzt, desto wichtiger ist es das korrigierte R-Quadrat zu benutzen und desto stärker weicht dieses von R-Quadrat ab. korrigiert auch um die Größe der Stichprobe (N), wobei gilt: Je größer die Stichprobe, desto eher entspricht das korrigierte dem originalen R-Quadrat. Wie? indem Bestimmtheitsmaß th it um eine Korrekturgröße vermindert wird Fazit: Das korrigierte R-Quadrat wird besonders bei der Verwendung vieler UV und/ oder kleiner Stichproben benutzt.
38 ist die Standardabweichung d der Residuen. Je geringer der Fehler, desto genauer die Vorhersage. ist ein Maß dafür, wie stark die wahren Kriteriumswerte (y- Werte) von den vorhergesagten Werten abweichen. gibt die Streuung der y-werte um die Regressionsgerade an: s n ( y ˆ )² i y i i= 1 2 y. x = = sy 1 rxy n
39 prüft jeden einzelnen Prädiktor auf statistische i Signifikanz. ifik Im vorliegenden Fall können nachdenken und aufstehen auf dem 5 %-Signifikanzniveau abgesichert werden.
40 Besitzt das geschätzte Modell auch über die Stichprobe hinaus für die Grundgesamtheit Gültigkeit? testet, ob alle im Schätzmodell enthaltenen UV gemeinsam keinen Einfluss auf die AV ausüben. Der F-Wert ist mit einem p-wert von < 0,05 statistisch signifikant. Bei Werten < 0,05 erfolgt Ablehnung der H 0, d.h. die UV üben einen Einfluss auf die AV aus. Das vorliegende Modell kann also gegen den Zufall abgesichert werden.
41 Regressionsanalyse
42 keine Ausreißer ( Boxplot) Normalverteilung der Variablen ( Histogramm) Linearität Homoskedastizität: Streuung der Residuen konstant Normalverteilung der Residuen keine Autokorrelation der Residuen: statistische Unabhängigkeit der Residuen voneinander keine Multikollinearität: Unabhängigkeit der unabhängigen Variablen voneinander
43 Diagramme Veraltete Dialogfelder Streu-/Punkt-Diagramm Matrix-Streudiagramm
44 AV und UV in Matrixvariablen ziehen (zur Übersichtlichkeit haben wir nur die ersten 3 UV zur Demonstration benutzt) OK
45 Doppelklick auf Diagramm Diagramm-Editor Elemente Anpassungslinie bei Gesamtwert Anpassungsmethode: Lo(w)ess Glättungsfaktor wählen (Wieviel % der Nachbarpunkte sollen in Berechnung einbezogen werden?)
46
47 = Varianzhomogenität (konstante Streuung) der Residuen/Fehler Es sollte im Streudiagramm kein Muster erkennbar sein. Y: ZRESID X: ZPRED
48 Hohe Werte der X-Achse können weniger gut vorhergesagt werden als niedrige Werte. Niedrige Werte der X- Achse können weniger gut vorhergesagt werden als hohe Werte.
49 Y ZRESID X - ZPRED Beide Diagramme überprüfen an den Residuen, ob Normalverteilung vorliegt.
50 Das Histogramm zeigt nur leichte Abweichungen von der Normalverteilung. Im P-P-Diagramm werden die beobachteten gegen g die erwarteten standardisierten Residuen geplottet. Bei Normalverteilung müssten die Werte auf der eingezeichneten Diagonalen liegen. Dies ist annähernd der Fall. Abweichungen von der Normalverteilung nicht sehr schwerwiegend!
51 = Fehler sind nicht wie im Modell gefordert unabhängig, sondern weisen eine spezifische Form der Abhängigkeit auf Wo tritt sie auf? häufig bei zeitlich erhobenen Daten zwischen den aufeinanderfolgenden f d Beobachtungen Zeit als Regressor Test auf das Vorhandensein von Autokorrelation: Durbin-Watson-Test kann Werte zwischen 0 und 4 annehmen. e DW bei 2 zentriert Annahme der H 0 : Die Fehler sind nicht autokorreliert. DW in der Nähe von 0 oder 4 Verwerfen der H 0 Autokorrelation besteht
52 keine Autokorrelation, da Wert nahe 2
53 Visualisierung i via Streudiagramm bei Unabhängigkeit und Normalverteilung: kreisförmig bei positiver Abhängigkeit: ansteigend gestreckt
54 bedeutet, dass die Prädiktoren miteinander korreliert sind. orthogonale (unkorrelierte) vs. korrelierte UV x y 2 x x 1 2 x 1 y
55 hat einen großen Einfluss auf den Standardfehler, der dann unter Umständen sehr anwächst. Die Lösungen werden sehr instabil. Inwieweit lassen sich lineare Abhängigkeiten unter den Prädiktoren tolerieren? Der Toleranzwert ist daher für die Kollinearitätsdiagnose wichtig: (1 - R i2 ), d.h. 1 - der multiplen Korrelation des jeweiligen Prädiktors mit den anderen Prädiktoren. geringe Toleranz lineare Abhängigkeiten mit anderen Prädiktoren VIF (variance inflation factor) baut auf TOLERANCE auf. VIF = 1 Unabhängigkeit Er steigt mit wachsender linearer Abhängigkeit. VIF nahe bei 1 nur geringe Anzeichen auf Kollinearität Daumenregel : Toleranzwert sollte nicht unter 0,25 sein VIF-Wert sollte nicht über 5,0 gehen.
56 einziger leicht kritischer Wert lt. Daumenregel
57 tritt auf, wenn der multiple l Determinationskoeffizient i i größer als die Summe der einzelnen Determinationskoeffizienten ist. ein Prädiktor = ein Suppressor, wenn er zur Vorhersage des Kriteriums beiträgt, da er unerwünschte (= nicht mit Kriterium korrelierende) Einflüsse eines anderen Prädiktors unterdrückt (d.h. Suppressor korreliert mit einem der Prädiktoren aber nicht oder nur wenig mit Kriterium) und somit dessen Vorhersagekraft bzgl. des Kriteriums erhöht.
58 Regressionsanalyse in SPSS a) Einschluss a) Einschluss b) schrittweise
59
60 Alle angegebenen Variablen werden für die Vorhersage benutzt. WANN? falls man genau weiß, welche Variablen in der Regressionsgleichung aufgenommen werden müssen wenn man anhand der Beta-Koeffizienten den relativen Beitrag aller Variablen zur Regression vergleichen will
61 Lediglich nachdenken und aufstehen liefern signifikante Beiträge zur Varianzaufklärung an dem Kriterium, i dennoch müssen auf der Basis dieser Modellberechnung alle Prädiktoren in die Gleichung mit aufgenommen werden.
62 WANN? wenn von vorneherein nur Variablen in die Regressionsgleichung aufgenommen werden sollen, die einen signifikanten Beitrag zur Vorhersage des Kriteriums leisten VORTEILE redundante Prädiktoren werden nicht in die Regressionsgleichung aufgenommen Gleichung wird einfacher, kann aber trotzdem einen relativ hohen Varianzanteil erklären Schlussfolgerung: Die schrittweise Regression sollte nicht als hypothesentestendes Verfahren, sondern als ein hypothesengenerierendes Verfahren eingesetzt werden
63 Vergleich zweier Regressionsmodelle: Modell 1: nachdenken / Modell 2: nachdenken und tanzen Prüfen auf Signifikanz über F-Test Vergleich zwischen F emp und F krit Ergebnis: F emp > F krit Nullhypothese abgelehnt, d.h. man kann davon ausgehen, dass ein signifikanter Unterschied zwischen den zwei Regressionsmodellen besteht und somit zwischen den zwei standardisierten Beta-Gewichten. Vergleichen der jeweiligen R-Quadrat-Werte Bei der Modellzusammenfassung ist immer das Modell mit der höchsten Varianzaufklärung zu wählen (hier Modell 2).
64 (= Indikator-, Kategorien-, binäre oder dichotome Variablen) sind qualitative Variablen, die keine Ordnung im mathematischen Sinne angeben. werden verwendet, um kategoriale Merkmale in Modellen zu berücksichtigen. nehmen nur 2 Werte an 0 oder 1, die das Vorhandensein (1) oder Fehlen (0) eines Merkmales beschreiben. z.b.: x=1, falls Frau x=0, falls Mann Bei uns z.b. ob VP Instrument spielt: Ja = 1 Nein = 0 Transformation der Daten mittels Transformation der Daten mittels Transformieren Umkodieren in andere Variablen
65 Wirkungen im Regressionsmodell yi ˆ = b 0 + b1x1 + b 2 D + 2 für D=0 ˆ für D=1 yi = b 2 { b b x yi ˆ = b 0 + b1x1 + b 0 { b 2
66
67 Im Plot sind die e i die vertikalen Abstände der Datenpunkte vom Regressionsmodell. y e k = y k yˆ k x
Teil: lineare Regression
Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge
MehrMultiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)
Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang
MehrHypothesentests mit SPSS
Beispiel für eine einfache Regressionsanalyse (mit Überprüfung der Voraussetzungen) Daten: bedrohfb_v07.sav Hypothese: Die Skalenwerte auf der ATB-Skala (Skala zur Erfassung der Angst vor terroristischen
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de
MehrGliederung. 1. Einführung. Heute schon Musik gehört?
Regressionsanalyse Technische Universität Chemnitz Seminar: Forschungsmethodik und Evalua
MehrDie Funktion f wird als Regressionsfunktion bezeichnet.
Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht
MehrSozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS
Sommersemester 2009 Statistik mit SPSS 15. Mai 2009 15. Mai 2009 Statistik Dozentin: mit Esther SPSSOchoa Fernández 1 Überblick 1. Korrelation vs. Regression 2. Ziele der Regressionsanalyse 3. Syntax für
MehrB. Regressionsanalyse [progdat.sav]
SPSS-PC-ÜBUNG Seite 9 B. Regressionsanalyse [progdat.sav] Ein Unternehmen möchte den zukünftigen Absatz in Abhängigkeit von den Werbeausgaben und der Anzahl der Filialen prognostizieren. Dazu wurden über
MehrStatistik II Übung 1: Einfache lineare Regression
Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt Methodenlehre Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-06 Dr. Malte Persike persike@uni-mainz.de
MehrKorrelation Regression. Wenn Daten nicht ohne einander können Korrelation
DAS THEMA: KORRELATION UND REGRESSION Korrelation Regression Wenn Daten nicht ohne einander können Korrelation Korrelation Kovarianz Pearson-Korrelation Voraussetzungen für die Berechnung die Höhe der
MehrEinführung in die Statistik für Politikwissenschaftler Sommersemester 2011
Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011 Es können von den Antworten alle, mehrere oder keine Antwort(en) richtig sein. Nur bei einer korrekten Antwort (ohne Auslassungen
MehrEigene MC-Fragen SPSS. 1. Zutreffend auf die Datenerfassung und Datenaufbereitung in SPSS ist
Eigene MC-Fragen SPSS 1. Zutreffend auf die Datenerfassung und Datenaufbereitung in SPSS ist [a] In der Variablenansicht werden für die betrachteten Merkmale SPSS Variablen definiert. [b] Das Daten-Editor-Fenster
MehrTest von Hypothesen: Signifikanz des Zusammenhangs (F-Test)
Test von Hyothesen: Signifikanz des Zusammenhangs (F-Test) Die Schätzung der Regressionsfunktion basiert auf Daten einer Stichrobe Inwiefern können die Ergebnisse dieser Schätzung auf die Grundgesamtheit
MehrDie Regressionsanalyse
Die Regressionsanalyse Zielsetzung: Untersuchung und Quantifizierung funktionaler Abhängigkeiten zwischen metrisch skalierten Variablen eine unabhängige Variable Einfachregression mehr als eine unabhängige
MehrDiagnostik von Regressionsmodellen (1)
Diagnostik von Regressionsmodellen (1) Bei Regressionsanalysen sollte immer geprüft werden, ob das Modell angemessen ist und ob die Voraussetzungen eines Regressionsmodells erfüllt sind. Das Modell einer
MehrStatistik II Übung 4: Skalierung und asymptotische Eigenschaften
Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden
Mehr2. Generieren Sie deskriptive Statistiken (Mittelwert, Standardabweichung) für earny3 und kidsunder6yr3 und kommentieren Sie diese kurz.
Statistik II Übung : Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (6-24 Jahre alt) und der Anzahl der unter
MehrKapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen.
Kapitel 3 Schließende lineare Regression 3.1. Einführung induktiv Fragestellungen Modell Statistisch bewerten, der vorher beschriebenen Zusammenhänge auf der Basis vorliegender Daten, ob die ermittelte
MehrDrittvariablenkontrolle in der linearen Regression: Trivariate Regression
Drittvariablenkontrolle in der linearen Regression: Trivariate Regression 14. Januar 2002 In der Tabellenanalyse wird bei der Drittvariablenkontrolle für jede Ausprägung der Kontrollvariablen eine Partialtabelle
MehrSozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester 2009, Statistik mit SPSS
Sommersemester 2009, Statistik mit SPSS 28. August 2009 28. August 2009 Statistik Dozentin: mit Anja SPSS Mays 1 Überblick 1. Korrelation vs. Regression 2. Ziel der Regressionsanalyse 3. Syntax für den
MehrStatistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
MehrRegression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate
Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für
MehrKorrelation - Regression. Berghold, IMI
Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines
Mehr4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
MehrMultiple Regressionsanalyse - Kurzabriss
Multiple Regressionsanalyse - Kurzabriss Ziele: Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Meist zu Screening-Untersuchungen, um den Einfluß von vermuteten Ursachenvariablen
MehrLösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1
LÖSUNG 9B a) Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 Man kann erwarten, dass der Absatz mit steigendem Preis abnimmt, mit höherer Anzahl der Außendienstmitarbeiter sowie mit erhöhten
MehrKommentierter SPSS-Output für die multiple Regressionsanalyse (SPSS-Version 17)
R.Niketta Multiple Regressionsanalyse Kommentierter SPSS-Output für die multiple Regressionsanalyse (SPSS-Version 17) Daten: Selbstdarstellung und Kontaktsuche in studi.vz (POK VIII, AG 3) Fragestellung:
MehrÜbung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
MehrDeskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien
Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische
MehrSchätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO
Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung
MehrInformationen zur KLAUSUR am
Wiederholung und Fragen 1 Informationen zur KLAUSUR am 24.07.2009 Raum: 032, Zeit : 8:00 9:30 Uhr Bitte Lichtbildausweis mitbringen! (wird vor der Klausur kontrolliert) Erlaubte Hilfsmittel: Alle Unterlagen,
MehrStatistik II Übung 1: Einfache lineare Regression
Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der
MehrLösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 9A a.
LÖSUNG 9A a. Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 Das Regressionsmodell soll nur für Büropersonal angewendet werden Management- und Bewachungspersonal (MIND =0) soll nicht einbezogen
MehrZiel: Vorhersage eines Kriteriums/Regressand Y durch einen Prädiktor/Regressor X.
Lineare Regression Einfache Regression Beispieldatensatz: trinkgeld.sav Ziel: Vorhersage eines Kriteriums/Regressand Y durch einen Prädiktor/Regressor X. H0: Y lässt sich nicht durch X erklären, das heißt
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt Statistik & Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Dr. Malte Persike persike@uni-mainz.de
MehrWeitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression
Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression Speziell im Zusammenhang mit der Ablehnung der Globalhypothese werden bei einer linearen Einfachregression weitere Fragestellungen
MehrInstitut für Soziologie Christian Ganser. Methoden 2. Regressionsanalyse II: Lineare multiple Regression
Institut für Soziologie Christian Ganser Methoden 2 Regressionsanalyse II: Lineare multiple Regression Inhalt 1. Anwendungsbereich 2. Vorgehensweise bei multipler linearer Regression 3. Beispiel 4. Modellannahmen
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
MehrStatistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
Mehr» S C H R I T T - F Ü R - S C H R I T T - A N L E I T U N G «M U L T I P L E L I N E A R E R E G R E S S I O N M I T S P S S / I B M Daniela Keller
» SCHRITT-FÜR-SCHRITTANLEITUNG«MULTIPLE LINEARE REGRESSION MIT SPSS/IBM Daniela Keller Daniela Keller - MULTIPLE LINEARE REGRESSION MIT SPSS/IBM Impressum 2016 Statistik und Beratung Dipl.-Math. Daniela
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Ausgangsdaten Bundesliga 2008/2009 Gegeben: Daten zu den 18 Vereinen der ersten Bundesliga
MehrBivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154
Bivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.154 Grundidee und Typen der Regression Die Regressionsanalyse dient zur Quantifizierung des Zusammenhangs und der statistisch
MehrSeminar zur Energiewirtschaft:
Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable
MehrVS PLUS
VS PLUS Zusatzinformationen zu Medien des VS Verlags Statistik II Inferenzstatistik 2010 Übungsaufgaben und Lösungen Inferenzstatistik 2 [Übungsaufgaben und Lösungenn - Inferenzstatistik 2] ÜBUNGSAUFGABEN
MehrInhaltsverzeichnis. 1 Über dieses Buch Zum Inhalt dieses Buches Danksagung Zur Relevanz der Statistik...
Inhaltsverzeichnis 1 Über dieses Buch... 11 1.1 Zum Inhalt dieses Buches... 13 1.2 Danksagung... 15 2 Zur Relevanz der Statistik... 17 2.1 Beispiel 1: Die Wahrscheinlichkeit, krank zu sein, bei einer positiven
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de
MehrEinführung in Quantitative Methoden
in Quantitative Methoden Mag. Dipl.Ing. Dr. Pantelis Christodoulides & Mag. Dr. Karin Waldherr SS 2011 Christodoulides / Waldherr in Quantitative Methoden- 2.VO 1/47 Historisches Regression geht auf Galton
MehrModul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.
Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes
MehrVorlesung: Multivariate Statistik für Psychologen
Vorlesung: Multivariate Statistik für Psychologen 6. Vorlesung: 28.04.2003 Organisatorisches Terminverlegung Übungsgruppen Gruppe 5 alter Termin: Donnerstag, 01.05.03, 12 14 Uhr, IfP SR 9 neuer Termin:
MehrZiel der linearen Regression
Regression 1 Ziel der linearen Regression Bei der linearen Regression wird untersucht, in welcher Weise eine abhängige metrische Variable durch eine oder mehrere unabhängige metrische Variablen durch eine
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrFranz Kronthaler. Statistik angewandt. Datenanalyse ist (k)eine Kunst. mit dem R Commander. A Springer Spektrum
Franz Kronthaler Statistik angewandt Datenanalyse ist (k)eine Kunst mit dem R Commander A Springer Spektrum Inhaltsverzeichnis Teil I Basiswissen und Werkzeuge, um Statistik anzuwenden 1 Statistik ist
MehrDr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:
Mehr1 Beispiel zur Methode der kleinsten Quadrate
1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25
MehrForschungsstatistik I
Psychologie Prof. Dr. G. Meinhardt 6. Stock, TB II R. 06-206 (Persike) R. 06-321 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
MehrStatistik II Übung 3: Hypothesentests
Statistik II Übung 3: Hypothesentests Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier Stichproben). Verwenden
MehrEinfache lineare Regressionsanalyse
Dr. Matthias Rudolf Modul M3: Multivariate Statistik Aufgaben und Lösungshinweise zum Computerseminar ERA: Einfache lineare Regressionsanalyse Dr. Matthias Rudolf: Modul BA-M3 Multivariate Statistik Seite
MehrEinführung in einige Teilbereiche der Wirtschaftsmathematik für Studierende des Wirtschaftsingenieurwesens
in einige Teilbereiche der für Studierende des Wirtschaftsingenieurwesens Sommersemester 2013 Hochschule Augsburg Graphische Repräsentation von Kontingenztabellen Beispiel Autounfälle Verletzung leicht
MehrÜbungen (HS-2010): Urteilsfehler. Autor: Siegfried Macho
Übungen (HS-2010): Urteilsfehler Autor: Siegfried Macho Inhaltsverzeichnis i Inhaltsverzeichnis 1. Übungen zu Kapitel 2 1 Übungen zu Kontingenz- und Kausalurteile 1 Übung 1-1: 1. Übungen zu Kapitel 2 Gegeben:
MehrJohn Komlos Bernd Süssmuth. Empirische Ökonomie. Eine Einführung in Methoden und Anwendungen. 4y Springer
John Komlos Bernd Süssmuth Empirische Ökonomie Eine Einführung in Methoden und Anwendungen 4y Springer 1 Einführung 1 1.1 Ökonometrie 1 2 Vorüberlegungen und Grundbegriffe 7 2.1 Statistik als Grundlage
MehrProf. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006
Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand
Mehr1 Einführung Ökonometrie... 1
Inhalt 1 Einführung... 1 1.1 Ökonometrie... 1 2 Vorüberlegungen und Grundbegriffe... 7 2.1 Statistik als Grundlage der Empirischen Ökonomie... 7 2.2 Abgrenzung und Parallelen zu den Naturwissenschaften...
MehrAnalyse von Querschnittsdaten. Spezifikation der unabhängigen Variablen
Analyse von Querschnittsdaten Spezifikation der unabhängigen Variablen Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Annahmen gegeben? kategoriale Variablen Datum 3.0.004 0.0.004
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur
MehrStatistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II
Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen
MehrEmpirische Analysen mit dem SOEP
Empirische Analysen mit dem SOEP Methodisches Lineare Regressionsanalyse & Logit/Probit Modelle Kurs im Wintersemester 2007/08 Dipl.-Volksw. Paul Böhm Dipl.-Volksw. Dominik Hanglberger Dipl.-Volksw. Rafael
MehrMultivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167
Multivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.167 Multivariate Regression Verfahren zur Prüfung des gemeinsamen linearen Einflusses mehrerer unabhängiger Variablen auf eine
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
MehrStatistische Methoden in den Umweltwissenschaften
Statistische Methoden in den Umweltwissenschaften Korrelationsanalysen Kreuztabellen und χ²-test Themen Korrelation oder Lineare Regression? Korrelationsanalysen - Pearson, Spearman-Rang, Kendall s Tau
MehrMultivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
MehrÜbung 3 im Fach "Biometrie / Q1"
Universität Ulm, Institut für Epidemiologie und Medizinische Biometrie, D-89070 Ulm Institut für Epidemiologie und Medizinische Biometrie Leiter: Prof. Dr. D. Rothenbacher Schwabstr. 13, 89075 Ulm Tel.
MehrTrim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19
Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, 2016 6:34 P.M. Page 11 Inhaltsverzeichnis Über die Übersetzerin 9 Einleitung 19 Was Sie hier finden werden 19 Wie dieses Arbeitsbuch aufgebaut ist
MehrMethodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg
Methodenlehre Vorlesung 12 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre II Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 18.2.15 Psychologie als Wissenschaft
MehrÜbung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010
MehrProseminar Forschungsmethoden SS 11
Dipl.-Hdl. Stephanie Starke, MBR Dipl.-Hdl. Sabine Funke Proseminar Forschungsmethoden SS 11 5. Plenum Tutoren: Carolin Dollinger Margarete Bast Monika Doll Was bisher geschah: Seminarkonzeption in Bildern
Mehr1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt:
Beispiele zum Üben und Wiederholen zu Wirtschaftsstatistik 2 (Kurs 3) 1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Haushaltseinkommen 12 24 30 40 80 60
MehrInhaltsverzeichnis. Über die Autoren Einleitung... 21
Inhaltsverzeichnis Über die Autoren.... 7 Einleitung... 21 Über dieses Buch... 21 Was Sie nicht lesen müssen... 22 Törichte Annahmen über den Leser... 22 Wie dieses Buch aufgebaut ist... 23 Symbole, die
MehrName Vorname Matrikelnummer Unterschrift
Dr. Hans-Otfried Müller Institut für Mathematische Stochastik Fachrichtung Mathematik Technische Universität Dresden Klausur Statistik II (Sozialwissenschaft, Nach- und Wiederholer) am 26.10.2007 Gruppe
MehrRegressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall )
Zusammenhänge von Variablen Regressionsanalysen linearer Zusammenhang ( Idealfall ) kein Zusammenhang nichtlinearer monotoner Zusammenhang (i.d.regel berechenbar über Variablentransformationen mittels
MehrInhaltsverzeichnis. Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden
Inhaltsverzeichnis Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden 1 Statistik ist Spaß 3 Warum Statistik? 3 Checkpoints 4 Daten 4 Checkpoints 7 Skalen - lebenslang wichtig bei der Datenanalyse
MehrSozialwissenschaftlerInnen II
Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Varianzanalyse Statistik
MehrMethodenlehre. Vorlesung 11. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg
Methodenlehre Vorlesung 11 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 03.12.13 Methodenlehre I Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 25.9.13 Psychologie
MehrTeil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller
Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit
MehrAufgaben zu Kapitel 4
Rasch, Friese, Hofmann & aumann (2006). Quantitative Methoden. Band (2. Auflage). Heidelberg: Springer. Aufgaben zu Kapitel 4 Aufgabe a) Berechnen Sie die Korrelation zwischen dem Geschlecht und der Anzahl
MehrHypothesentests mit SPSS
Beispiel für eine zweifaktorielle Varianzanalyse mit Messwiederholung auf einem Faktor (univariate Lösung) Daten: POKIII_AG4_V06.SAV Hypothese: Die physische Attraktivität der Bildperson und das Geschlecht
MehrEine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
MehrInhaltsverzeichnis. Vorwort
V Vorwort XI 1 Zum Gebrauch dieses Buches 1 1.1 Einführung 1 1.2 Der Text in den Kapiteln 1 1.3 Was Sie bei auftretenden Problemen tun sollten 2 1.4 Wichtig zu wissen 3 1.5 Zahlenbeispiele im Text 3 1.6
MehrDas Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear":
Lineare Regression Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear": Im einfachsten Fall werden mehrere Prädiktoren (oder nur
MehrLineare Regression: Grundlagen und BLUE-Annahmen
Fakultät für Humanwissenschaften Sozialwissenschaftliche Methodenlehre Prof. Dr. Daniel Lois Lineare Regression: Grundlagen und BLUE-Annahmen Stand: Juni 2015 (V2.0) Inhaltsverzeichnis 1. Lineare Regression:
MehrStatistik II Übung 3: Hypothesentests Aktualisiert am
Statistik II Übung 3: Hypothesentests Aktualisiert am 12.04.2017 Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier
MehrEinführung in die Statistik für Politikwissenschaftler Wintersemester 2011/2012
Einführung in die Statistik für Politikwissenschaftler Wintersemester 2011/2012 Es können von den Antwortmöglichkeiten alle, mehrere, eine oder keine Antwort(en) richtig sein. Nur bei einer korrekten Antwort
MehrDemokurs. Modul Vertiefung der Wirtschaftsmathematik Vertiefung der Statistik
Demokurs Modul 3741 Vertiefung der Wirtschaftsmathematik und Statistik Kurs 41 Vertiefung der Statistik 15. Juli 010 Seite: 14 KAPITEL 4. ZUSAMMENHANGSANALYSE gegeben, wobei die Stichproben(ko)varianzen
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
MehrSTATISTIK 2 Teil 1 Regressionsanalyse Von: Anne Schmidt. Anordnung von Zahlen in Zeilen und Spalten (Tabelle)
Kapitel 2 Deskriptive lineare Regression 2.1. Einführung Definition Regressionsanalyse Unterschied zu Varianzanalyse Matrix/ Matrizen Indices Vektor Decken Zusammenhänge zwischen Beobachtungsreihen auf,
MehrKapitel 4: Merkmalszusammenhänge
Kapitel 4: Merkmalszusammenhänge Streudiagramme 1 Korrelationen 3 Lineare Regression 6 Zusammenhang zwischen Korrelation, Regression und t-test 8 Streudiagramme SPSS bietet die Möglichkeit, verschiedene
MehrDr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9.
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Januar 2011 BOOTDATA11.GDT: 250 Beobachtungen für die Variablen...
MehrBonus-Lektion: Prüfung der Voraussetzungen und Transformationen
Seite 1 von 8 Bonus-Lektion: Prüfung der Voraussetzungen und Transformationen Ziel dieser Lektion: Du weißt, wie Du die einzelnen Voraussetzungen für die Signifikanztests und komplexeren Modelle prüfen
Mehr