KOMPLEXE STATISTISCHE VERFAHREN

Größe: px
Ab Seite anzeigen:

Download "KOMPLEXE STATISTISCHE VERFAHREN"

Transkript

1 1 1. THEORETISCHES: KOMPLEXE STATISTISCHE VERFAHREN Wofür braucht man komplexe statistische Verfahren? um objektivere Antworten auf Fragen (z.b. Schadet Rauen?) geben zu können Im Alltag hier oft Heranziehung von Einzelfällen (z.b. Opa = Kettenraucher, wurde 100, daher Rauchen schadet nicht) ABER: Einzelfall kann höchstens zeigen, dass etwas existiert kann hilfreich sein, ist aber nicht beweiskräftig ( anekdotisches Niveau ) aufgrund Einzelfalls Entscheidung nicht möglich Frage kann nicht global beantwortet werden (z.b. nie, immer,...), sondern immer mit bestimmter Wahrscheinlichkeit (eher, wahrscheinlich,...) Wofür braucht man komplexe statistische Verfahren? (= multivariate Verfahren) Variablen, die in Psychologie interessieren, sind kaum isolierbar, sondern meist Teil eines komplexen Ganzen (z.b. Sympathie, Leistung,...) komplexe Bedingungsgefüge, d.h. ob Vorhersage zutrifft oder nicht, hängt von X Bedingungen ab. Für Feststellung eines Zusammenhanges muss man daher viele Variablen miterhaben, um ihre Effekte auf den Zusammenhang ausschließen zu können (Beispiel: Kaiser Joseph II Mozart Salieri) Aufgaben statistischer Betrachtung: 1) Überblicksgewinnung: BEISPIEL: Was trägt zum Gelingen einer OP bei? aus vielen Daten Errechnung eines Durchschnitts, ABER: dabei kommt es zur Informationsreduktion! - ist gut, wenn aufs Wesentliche reduziert wird - ist schlechte, wenn Wichtiges übersehen wird BEISPIEL: Durchschnittsgehalt einer Minderheit kann durchschnittlich gleich hoch sein wie Durchschnittsgehalt der Mehrheit; ABER: Minderheit sehr inhomogen -> große Streuung; extreme Werte oben und unten, Mehrheit sehr homogen. 2) Objektivität: BEISPIEL: Gibt es Erdstrahlen? Zahlen sind Zahlen (viele Personen spüren an gleicher Stelle Erdstrahlen; DAHER: es gib sie eventuell)

2 2 3) Hypothesentesten: BEISPIEL: Parken Frauen schlechter als Männer ein? Qualitative vs. quantitative Verfahren: 1) quantitative Verfahren: hypothesentestend verwenden Statistik (z.b. t-test, VA, MW, SD,...) geschlossenes Antwortformat 2) qualitative Verfahren: hypothesenerkundend verwenden Interviews, Tagebücher,... offenes Antwortformat ideal = Kombination der beiden BEISPIEL: Ist Einkommen schuld an Straffälligkeit? - quantitatives Vorgehen: Korrelationen zwischen Einkommenshöhe und Anzahl der Straftaten ausrechen - qualitatives Vorgehen: Befragung der Leute (hier kriegt man andere Info [Meinungen,...]!) Ausrichtung statistischer Verfahren: 1) deskriptiv: = beschreibend arbeitet mit Häufigkeiten, MW, SD, Korrel,... 2) explorativ: = erforschend, strukturierend arbeitet mit FA, Clusteranalyse,... 3) inferenzstatistisch: = hypothesentestend arbeitet mit t-test, VA, Chi-Quadrat-Test,...

3 Inferenzstatistik: Wie funktioniert ein statistischer Test? BEISPIEL: Parkschaden: 6 x von Frauen, 5 x von Männern Frage: Sind Männer bessere Einparker oder ist das Zufall? D.h. Gibt es einen stochastischen Zusammenhang oder ist dieses Ergebnis ein Störrauschen in den Daten. Nullhypothese: Alternativhypothese: Es gibt keinen Zusammenhang zwischen Geschlecht und Einparkfähigkeiten Es gibt einen Zusammenhang; Frauen sind besser wissenschaftliches Prinzip: Hypothese bestätigt sich, solange sie richtige Vorhersagen trifft; ABER: dadurch ist sie NICHT bewiesen! BEISPIEL: These: 0 = 1 Obwohl richtiges Ergebnis Antithese: 1 = 0 herauskommt, sind die Thesen Synthese: 1 = 1 trotzdem falsch! Merke: 1) Hypothesen sind nicht beweisbar, sondern nur falsifizierbar (Grund: Um Hypothese verifizieren zu können, müssten ALLE Fälle, also gesamte Population untersucht werden -> ist unmöglich!) 2) Verschiedene Hypothesen können gleiche Vorhersagen treffen [können dann aber nicht H0 und dazugehörige H1 sein!] BEISPIEL: Turiner Grabtuch: - Flecken sind Blut (enthalten Eisen) - Flecken sind rote Farbe (enthält Eisen) 3) Hellseher Beispiel: - Hellseher behauptet, von 10 Münzwürfen 9x richtig vorherzusehen (p = 0.9) - ich behaupte, er kann maximal 5 Würfe vorhersehen (p = 0.5) dann 1 Münzwurf... BEIDE haben recht! 4) Hypothese Es gibt Unterschiede ist erst belegt, wenn Hypothese Es gibt keine Unterschiede falsifiziert. ABER: H0 ist nicht wirklich falsifizierbar, sondern kann nur unwahrscheinlicher gemacht werden.

4 4 H0 und H1: Ho: kein Unterschied, kein Zusammenhang, keine Abweichung von bestimmter Verteilung (= immer EINE Wahrscheinlichkeitsverteilung) H1: viele Möglichkeiten (z.b. Kreuztabelle) Frage: Wie wahrscheinlich / unwahrscheinlich ist Ho angesichts der erhobenen Daten? ABER: ist nicht direkt beobachtbar! Beim Hypothesentesten schaue ich, wie wahrscheinlich / unwahrscheinlich meine Ho ist Dabei indirekte Argumentation: Meine Annahme A = wohl falsch, wenn unter Annahme von A das beobachtete Ereignis (also meine Daten) sehr unwahrscheinlich ist. BEISPIEL: Ho: Es gibt keinen Unterschied zwischen Männern und Frauen hinsichtlich der Körpergröße Datenerhebung (= beobachtetes Ereignis) ergibt: - durchschnittliche Größe Männer = 1,85 cm - durchschnittliche Größe Frauen = 1,65 cm Angesichts dieser Daten ist es unwahrscheinlich, dass es keinen Unterschied zwischen Männern und Frauen hinsichtlich der Körpergröße gibt; DAHER: Ho ist wahrscheinlich falsch Aus dem Ereignisraum [= alle beobachteten Ereignisse] wählt man einen Verwerfungsbereich aus. Grenze dafür: Alpha = 5% oder Alpha = 1% Verwerfungsbereich hat unter Ho eine Wahrscheinlichkeit von maximal Alpha = 5% (oder 1%) H1 sagt ein Ereignis im Verwerfungsbereich vorher, was unter Ho zu unwahrscheinlich ist. Unter SPSS muss man keinen Verwerfungsbereich konstruieren, SPSS gibt automatisch p-wert an. BEISPIEL: Hat Herr P. hellseherische Fähigkeiten? 10 Münzwürfe -> wie viele ist wahrscheinlich, dass er errät? Man beginnt mit extremsten Ereignissen (d.h. den höchsten Testgrößen) - bei 10 Würfen hat er 10 richtige: p = Summe = bei 10 Würfen hat er 9 richtige: p = > größer als Alpha - bei 10 Würfen hat er 8 richtige: p = 0.4 (0.05), daher: - bei 10 Würfen hat er 7 richtige, usw. Ho gilt

5 5 Berechnung: Binomialtest 1) Ratewahrscheinlichkeit bei 2 Möglichkeiten: p = günstige (z.b. Adler) / mögliche (Kopf + Adler) = ) Binomialtest rechnen: Formel: (n über k) mal p hoch x mal q hoch 1-X n über k = n faktorielle durch x faktorielle mal (n X) faktorielle für 8 richtige: 10 8 * * = 45 * * 0.25 = über 8 = 10 * 9 * 8! / 8! * 2! = 90/2 = 45 p Wert (Signifikanz) = Wahrscheinlichkeit, zufällig (also unter Ho) eingleich großes oder noch größeres Ergebnis zu erhalten. Grenze dafür = Alpha (ab da Verwerfungsbereich) Für Testung = Ho wichtig -> bestimmte Wahrscheinlichkeitsverteilung (oft NV) Alpha berechnet sich NUR nach Ho (aufpassen, wenn Verteilung falsch ist -> z.b. ich glaub, es ist NV, in Wirklichkeit ist es aber keine) Macht (= Wahrscheinlichkeit, mit der Test richtig vorhersagt) hängt ab von Ho UND H1 (bzw. von der Anzahl der n) Statistische Fehlurteile: Verwerfung der Ho, obwohl sie gilt (= Alpha Fehler) Beibehaltung der Ho, obwohl H1 gilt (= Beta Fehler) Kann zustande kommen bei: 1) Zufallsfehler: z.b. in meiner Stichprobe sind mehr Frauen, die schlecht einparken als in Population 2) Asymptotik schlecht / falsch gewählt: vor allem bei kleinen Stichproben bzw. bei komplexen Modellen) 3) Modellfehler: z.b. NV wurde angenommen, Variable ist aber NICHT normalverteilt 4) Modell = inhaltlich falsch

6 6 Modelltests (= Goodness for fit; Anpassung): z.b. Kolmogorow Smirnow Test (auf NV); NICHT SIGNIFIKANT!!! Levene Test (auf homogene Varianzen) (d.h. p > 0.05) Modelltest = signifikant (p kleiner als 0.05); das bedeutet: Modell gilt NICHT [d.h. keine NV, keine homogenen Varianzen, etc.] D.h. es gibt überzufällige Abweichungen vom Modell; daher ist bestimmtes Verfahren (z.b. VA) NICHT zulässig. Mach ich es trotzdem, dann riesiger Alpha Fehler. Gewählter Test kann Alpha Risiko nicht unter 5% kontrollieren. ACHTUNG: Nicht sagen: Es gilt NV, sondern Es kann näherungsweise NV angenommen werden. Grund: Modell kann nicht bewiesen werden, sondern nur widerlegt [vgl. Falsifizierbarkeit] Modelle = relativ robust, d.h. Abweichungen werden bis zu einem bestimmten Grad toleriert; ABER: Probleme wenn - Gruppengröße unter 10 - bei ungleichen Stichproben Problem des multiplen Testens: In Praxis meist viele Variablen erhoben (z.b. Geschlecht, Einkommen, Alter,...); ABER: wenn ich ALLE teste -> großer Alpha Fehler! (gilt für alle Tests, die Signifikanzniveau vorgeben, z.b. t-test, VA, U-Test,...). Bei k Tests: p = k mal Alpha (= Alpha Akkumulation). Außerdem bei vielen Tests mehr Gefahr, dass irgendwo ein Alpha Fehler. DAHER: 1) Hypothesenreduktion: - möglichst wenige Hypothesentests pro Untersuchung (nur sinnvolle Hypothesen testen!) - einzelne Variablen zusammenfassen zu Summenscores; FA zur Gewinnung von Subskalen - vorher überlegen, WAS man eigentlich wissen will [das testen, wo man sich einseitig testen trauen würde, weil man Richtung z.b. schon aus Theorie kennt; möglichst kein komplizierteres Verfahren für Haupthypothese als einfache VA-> Design überlegen!] 2) Kreuzvalidierung (d.h. ist das, was ich Stichprobe 1 signifikant ist, auch in Stichprobe 2 signifikant? vgl. Jackknife) 3) Alpha Adjustierung durchführen; ABER: Macht leidet darunter!

7 7 Alpha Adjustierung nach Bonferoni: Bei k Einzeltests prüfe Einzeltest nicht nach p kleiner als Alpha, sondern nach p kleiner Alpha durch k (p < α/k) BEISPIEL: 10 Einzeltests (z.b. Korrelationen), jeder davon getestet mit p = 0.05 / 10 = Das ergibt insgesamt Alpha = 5% (= Wahrscheinlichkeit für mindestens 1 Alpha Fehler bei allen Einzeltests gemeinsam betrachtet) ungünstig dabei: Macht wird sehr klein, daher nur sehr große Unterschiede nachweisbar! Alpha Adjustierung nach Bonferoni Holm: = serielle Korrektur des Alpha kleinstes Testergebnis wird verglichen mit α/k, zweitkleinstes mit α/k-1, drittkleinstes mit α/k-2, usw. Solange diese Alpha kleiner als 0.05 sind -> alle Tests unter 0.05 weniger streng als Bonferoni Korrektur BEISPIEL: Gibt es Geschlechtsunterschiede beim Autofahren? UV = Geschlecht (Männer, Frauen) AV = Autofahren (6 Ausprägungen: Rasen, Auffahren, Rechtsüberholen, Falschparken, Einstellung zum Benzinverbrauch, Einstellung zum Rauchen im Auto) 1. AV (Rasen): p = AV (Auffahren): p = AV (Rechtsüberholen): p = AV (Falschparken): p = Einstellung Benzinverbrauch: p = Einstellung Rauchen: p = 0.2 Fall 1: ohne Alpha Adjustierung alle p Werte der Einzeltests mit p = 0.05 vergleichen -> bei Test 1 4 ist p jeweils kleiner als 0.05, daher sind diese Tests signifikant. ABER: D.h. für die globale Ho gilt Folgendes: Alpha Akkumulierung, d.h. sehr großer Alpha Fehler, und zwar: α = p = 1 (1 α) m = 1 (1 0.05) 6 = = 0.26 D.h. Mit 26% Wahrscheinlichkeit wird Ho verworfen, obwohl sie gilt.

8 8 Fall 2: mit Alpha Adjustierung nach Bonferoni p Werte der Einzeltests vom kleinsten zum größten aufschreiben: korrigiertes Alpha ausrechnen: α/m = 0.05/6 = jetzt p Werte der Einzeltests damit vergleichen nur Test 1 = signifikant, da p = < ; ABER: Gesamttest hat geringe Macht! Fall 3: mit Alpha Adjustierung nach Bonferoni Holm Testwerte vom kleinsten zum größten aufschreiben korrigiertes Alpha für jeden Test ausrechnen, und zwar: - Test 1: p = α/m = 0.05/6 = Test 2: p = α/m-1 = 0.05/5 = Test 3: p = α/m-2 = Test 4: p = α/m-3 = Test 5: p = α/m-4 = Test 6: p = α/m-5 = 0.05 jetzt jedes dieser korrigierten Alpha mit dem unkorrigierten vergleichen - Test 1: p = < > signifikant - Test 2: p = 0.01 = > signifikant - Test 3: p = > > nicht signifikant Test 1 + Test 2 = signifikant, alle andren nicht Fall 4: Nur einen Teil der Tests prüfen (mit Bonferoni Korrektur), z.b. Tests Alpha korr = 0.05/3 = alle 3 Tests = signifikant [ABER Alpha insgesamt = 14%!] Hätte man die Ausprägungen der AV (= Test 4, 5, 6) NICHT erhoben, wäre globale Ho zu verwerfen gewesen...

9 9 2. LINEARE MODELLE: Folgende Verfahren bauen auf linearen Modellen auf: t Test VA (X iv = µ + αi + εv) Regression (Y = ax + b) multiple Regression (Z = ax + by+.. + c) Kovarianzanalyse Diskriminationsanalyse lineare Regression partielle Regression multivariate VA kanonische Korrelation lineare Modelle bestehen aus unabhängigen Variablen, die mit Gewichtung zusammengezählt werden und eine AV erklären sollen Verteilungsannahme = NV sind vereinfachendere Annahmen (zu allgemeine Strukturen sind kaum untersuchbar) In Daten gibt es potentiell ALLE Zusammenhänge, aber: - linearer Zusammenhang ist am einfachsten; - NV in Natur sehr häufig; - robuste Verfahren; - Zusammenhänge zumindest annäherungsweise mögliche Zusammenhänge in den Daten: - linearer Zusammenhang - quadratischer, kubischer, polynomialer, exponentieller, log-linearer Zusammenhang - Clusterbildung - Loch in der Mitte - Dreieckszusammenhang (z.b. bei Intelligenz und Kreativität) - Streifen, Muster, usw. In Praxis können sehr viele davon Sinn machen und Unterschiede erklären!

10 10 1) Einfache Varianzanalyse: => wird verwendet bei: 1 UV mit mehr als 2 Ausprägungen 1 AV BEISPIEL: Test eines Medikaments: UV: Dosierung (Placebo / einfache Dosis / doppelte Dosis) AV: Befindlichkeit Hypothesen: Ho: Es gibt keine Unterschiede zwischen den Gruppen H1: Es gibt einen Unterschied zwischen den Gruppen Varianz der Mittelwerte der Gruppen ist zu groß, daher muss irgendwo ein signifikanter Unterschied sein! MERKE: Beim Verwerfen der Ho verwirft das gesamte Modell; Grund für Verwerfen können sein Mittelwertsunterschiede oder Modellfehler! Ob Modell passt, testet man, wenn man schaut, ob Voraussetzungen für VA erfüllt sind. Trotzdem kann es zu Modellfehlern kommen, weil Modelltest nur jede Gruppe einzeln prüft! [d.h. innerhalb der Gruppen kann zwar NV sein, insgesamt aber nicht...] => Modellannahme: X = µ + αi + ε D.h. Vorhergesagter Wert setzt sich zusammen aus allgemeinem Mittelwert, Effekt der Gruppe und Messfehler. Werte innerhalb jeder Gruppe = NV (d.h. Fehler streut zufällig um Gruppenmittelwert) Jede Gruppe hat dieselbe Varianz -> Streuung 1 wird angenommen, die bei allen Gruppen gleich sein muss [homogene Varianzen] Verwerfungsbereich bei allen Gruppen derselbe. D.h. Jede Gruppe ist eine Gauß sche Glocke (-> NV); Position auf der X Achse kann unterschiedlich sein (-> Mittelwertsunterschiede), aber Schiefe und Wölbung der Kurve muss gleich sein (-> gleiche Streuung!) => Voraussetzungen für VA: (überprüft durch Modelltests) NV innerhalb jeder Gruppe -> Kolmogorow Smirnow Test Homogenität der Varianzen -> Levene Test, Cochran Test, Bartlett Test wenn alles signifikant (also jeweiliges p > 0.05), dann KEINE NV, KEINE homogenen Varianzen -> parameterfreie Verfahren verwenden (z.b. Kruskal Wallis Test = Rangvarianzanalyse)

11 11 Merke: Modell = relativ robust, Probleme gibt s aber, wenn: - Gruppengröße unter 10 - ungleich große Stichproben => Mathematik der VA: Quadrierte Abweichungen vom Mittelwert werden in voneinander statistisch unabhängige Bestandteile zerlegt (= Quadratsummenzerlegung), und zwar: 1) in Abweichungen der Messwerte innerhalb der Gruppen vom jeweiligen Gruppenmittelwert (F Test prüft, ob Abweichungen zu groß) und 2) in Abweichungen der Gruppenmittelwerte vom Gesamtmittelwert Quadratsummenzerlegung führt zu Chi - Quadrat-verteilter Größe; mit ihr sind Vergleiche auf F Test Basis möglich Varianz der Gruppenmittelwerte sollte: - unter Ho ca. so groß sein, wie die Varianz der Messwerte innerhalb der Gruppe, aber dividiert durch den Faktor Wurzel n - unter H1: eine Varianz größer, daher immer einseitige Testung => Interpretation der Unterschiede der VA: Signifikanz im F Test bedeutet: Es gibt irgendwo einen signifikanten Unterschied. Jetzt Frage: WO? Welche Gruppen unterscheiden sich? würde ich jetzt paarweise t Tests machen -> Alpha Kumulierung! DAHER: Lösung 1: A posteriori Test (post hoc) Nach der VA über die Daten laufen lassen; wird gemacht, wenn man noch nichts über die Unterschiede weiß (PC sucht sie mir), und zwar: Scheffé Test: adjustiert Daten so, dass Paarvergleich mit größtmöglichem F (und damit auch mit allen anderen!) auf demselben Niveau verwirft wie die VA macht Paarvergleiche (jede Gruppe mit jeder); ABER: bei zu vielen Vergleichen -> Verringerung der Macht!

12 12 Lösung 2: A priori Test = Kontraste: SPSS Output dazu: wenn man gezielte Hypothese, wo die Unterschiede liegen könnten, machen kann dafür weniger Paarvergleiche notwendig -> größere Macht ABER: Ich muss vorher richtig geraten haben, wo die Unterschiede liegen = Trendhypothese (z.b. Gruppe 1 ist besser als Gruppe 2 und 3) 1) Prüfen auf NV (Kolmogorow Smirnow Test): jede Gruppe 1x testen asymptotische Sign. (2 tailed) größer als 0.05 => Ho bleibt, d.h. NV darf angenommen werden. 2) Test auf Homogenität der Varianzen (Levene Test): detto 3) Varianzanalyse (ANOVA): Sign. < 0.05 => Ho verwerfen, d.h. es gibt einen Unterschied zwischen den Gruppen 4) Deskriptivstatistik: - schauen, wo MW am höchsten, niedrigsten, usw. - Stichprobengröße anschauen! (unter 10 schlecht, ungleiche n detto) 5) multiple comparisons (Scheffé Test): prüft, welche der Unterschiede signifikant sind (Paarvergleiche) -> Wert unter 0.05 = sign., d.h. dort sind Unterschiede 6) Kontraste (Contrast Test): jetzt Vergleich Gruppe 1 mit Gruppe 2 und 3; einmal mit, einmal ohne homogene Varianzen. Da Levene Test nicht signifikant war, Zeile mit homogenen Varianzen anschauen; wenn dort p < >sign. D.h. Gruppe ist wirksamer als Gruppe 1 allein 7) ANOVA Trendhypothese: between groups: linear term (bei unterschiedlichen Gruppengrößen weighted anschauen!) Deviation bei linear term: wenn hier sign, d.h. es gibt nicht nur einen linearen Zusammenhang quadrativ term / weighted: wenn hier sign., schauen wo. Hier: Wirkung des Medikaments am besten bei schwacher Dosis.

13 13 8) Inhaltliche Bewertung: Signifikanz allein ist KEINE Aussage! (Merke: Bei großen Stichproben ist kleiner Unterschied bald signifikant...) wichtig = erklärter Varianzanteil (η 2 ): gibt an den Anteil der durch die Gruppenunterschiede erklärten Varianz an der Gesamtvarianz (der AV) = Bestimmtheitsmaß der VA (Eta- Quadrat) anderer Varianzanteil bleibt unerklärt Eta liegt zwischen 0 1: - Eta = 0 heißt: keine Gruppenunterschiede - Eta = 1 heißt: Gruppenunterschiede erklären Gesamtvarianz 2) Kovarianzanalyse => wird verwendet: wenn zusätzlich zur Gruppenzugehörigkeit noch quantitativ mögliche Einflussgrößen existieren (vor allem Alter) BEISPIEL: UV = Geschlecht AV = Glaube an Teufel Kovariate = Glaube an Gott => Kovariate = mögliche Einflussgröße, die linearen Effekt auf AV oder UV hat. Dieser wird analog zur linearen Regression herausgerechnet. BEISPIEL: UV = Bildungsstand (niedrig / hoch) AV = Antisemitismus (stark / schwach) Ergebnis: je höher Bildung, desto geringer Antisemitismus => Modellannahme: ABER: Bildung hängt auch zusammen mit Alter, Alter hängt zusammen mit Antisemitismus (= Kohorteneffekt!) DAHER: Rechne ich Alter heraus -> kein Zusammenhang zwischen Bildung und Anitsemitismus Y (AV) = Gesamtmittelwert + Gruppeneffekt (UV) + Einfluss der Kovariate (bx + a) + Messfehler

14 14 => Mathematische Erklärung: Kovarianzanalyse = VA über die Residuen bei der Vorhersage der aus Kontrollvariable. 1) Residuen berechnen (= alles, was nach Abzug des Effekts der Kovariate übrigbleibt) BEISPIEL: X = a (Alter) + b X (Messwert) X = (Residuen) Regression der Kovariate auf AV (X) ergibt vorhergesagtes X dann pro Person Differenzen (X X ) bilden = Residuen was da übrigbleibt, kann durch Kovariate nicht vorhergesagt werden, geht über deren Vorhersage hinaus (= das was eigentlich interessiert, wenn Kovariate kontrolliert wird). D.h. Einfluss des Alters ist bereinigt 2) Mit Residuen macht man eine normale VA => Voraussetzungen für Kovarianz Analyse: homogene Varianzen wie bei VA NV homogene Steigerung der Regressionsgeraden der einzelnen Gruppen SPSS Output dazu: Frage: Gibt es einen Zusammenhang zwischen Teufelsglauben und Geschlecht? UV = Geschlecht AV = Glaube an Teufel Kovariate = Glaube an Gott Effekt des Glaubens an Gott wird herausgerechnet, mit dem Rest VA korrigiertes Modell [= Kovarianzanalyse] (setzt sich aus allen Einflüssen zusammen). Hier sign. Unterschied zwischen den Gruppen (p = 0.00) 1) Frage: WO ist dieser? sign. Unterschied zwischen Teufelglauben und Gottglauben (p = 0.00). D.h. aus dem Glauben an den Teufel lässt sich den Glaube an Gott vorhersagen. kein sign. Unterschied zwischen Teufelsglauben und Geschlecht (p = 0.076). D.h. keine Unterschiede zwischen Männern und Frauen hinsichtlich des Glaubens an den Teufel

15 15 2) Einfluss der Kovariate (Gottglauben) auf das Resultat: VA OHNE Kovariate noch einmal rechnen und die beiden Ergebnisse vergleichen Geschlecht hier nicht sign. (p = 0.102), d.h. Geschlecht hat noch immer keinen Einfluss auf Teufelsglauben! ABER: Modell insgesamt ist NICHT mehr signifikant (korr. Modell jetzt p = 0.102), d.h. Glaube an Gott beeinflusst den Glauben an den Teufel kaum. 3) Mehrfache Varianzanalyse: => verwendet bei: mehr als 1 UV und 1 AV BEISPIEL: UV = Dosis von Medikament (Placebo / schwach / stark) UV = Art des Medikaments (A, B) AV = Befinden => Untersucht werden: = 2faktorielle VA ( 2*3 Design -> 6 Zellen) D.h. es geht um Abhängigkeit einer Variablen von mehreren Effekten. * Effekte von A [= 1. UV], Effekte von B [= 2. UV] (= Haupteffekte) und * Wechselwirkungen A x B (= Interaktionen) BEISPIEL: Haupteffekt: Medikament A ist bei gleicher Dosierung um 3 Punkte besser auf Befindlichkeitsskala [= Haupteffekt von 2. UV] Wechselwirkung: Ww ja: je nach Dosis ändert sich, um wie viel Medikament A durchschnittlich besser ist als Medikament B keine Wechselwirkung heißt: mittlere Dosis ist bei jedem Medikament um durchschnittlich 3 Punkte besser. mögliche Wechselwirkungen in Bezug auf eine Zelle: => kombinierter Effekt auf AV ist: - noch höher als vorhergesagt (= multiplikativer Effekt) - nicht so hoch wie vorhergesagt (= Deckeneffekt) - Effekt verschwindet überhaupt (z.b. bei hohen Dosen kein Unterschied, bei niedrigen schon) - Effekt kehrt sich um (z.b. Medikament A in kleinen Dosen wirksamer, Medikament B in großen Dosen) bei mehr als 2 Faktoren kann es auch drei-, vierfache WW geben (hängt von Faktoranzahl ab)

16 16 => Modell: x ij = µ + α i + β j + αβ ij + ε ijm D.h. vorausgesagter Testwert setzt sich zusammen aus Gesamtmittelwert + Haupteffekt A + Haupteffekt B + WW AxB + Fehler => Voraussetzungen: Normalverteilung pro ZELLE! homogene Varianzen Intervallskalierte Daten, da Berechnung auf Unterschiede angelegt ist. => Problem: Bei 5 Variablen braucht man 2 5 = 32 VB, d.h. 32 Zellen (mit ca. 30 Personen wegen NV; bei weniger Personen -> hohe Zufallsschwankungen!) -> sehr hohe VPn - Zahlen! gesättigtes Modell: mit allen Haupteffekten und Wechselwirkungen Anpassung : Vergleich der WW wird unterdrückt (z.b. nur 2fache WW anschauen; 3-, 4-, 5fache nicht) Merke: Je größer die Stichprobe, umso mehr WW kann man zulassen. => ACHTUNG: Passt Modell nicht zu den Daten -> parameterfreie Verfahren; ABER: im SPSS gibt es keine... Lösung: Daten rangreihen und als 2-fache VA rechnen -> schwierige Interpretation (WW werden betrachtet als Differenzen von Differenzen ; geht aber NUR bei Intervallskala!) = rating after alignment: 1) für Berechnung der WW werden von Ursprungswerten, die durch die Haupteffekte erwarteten MW abgezogen, 2) dann rangreihen, 3) Kruksal-Wallis Test über die verschiedenen Zellen rechnen

17 17 SPSS Output dazu: UV1 = Geschlecht (M/W) UV2 = Religiosität AV = Glaube an Psy (erhoben mittels entsprechender Skala) 1) VA: korrigiertes Modell: p = > d.h. es gibt einen signifikanten Einfluss der UVs auf die AVs. als Kovariate dabei = Alter: p = > kein erkennbarere Einfluss auf AV WW zwischen Geschlecht und Religiosität wirken sich nicht aus (p = 0.085) 2) Interaktionsdiagramm dazu: deutet an, dass wenig religiöse Männer wenig an Psy glauben (weniger als wenig religiöse Frauen) [darf ich aber SO nicht behaupten, da WW nicht Interaktionsdiagramm: Was sehe ich an den Linien? parallele Linien = keine WW Scheren = z.b. Unterschiede zwischen Medikament 1 und Medikament 2 werden mit zunehmender Dosis größer / kleiner (Anstieg in 1 Gruppe kleiner / größer; Effekt verschiebt sich in einer Gruppe) Überkreuzungen = Umkehr der Effekte in Untergruppen Merke: Wenn es WW gibt, kann man nicht von Haupteffekten sprechen, besser = bedingte R2 = erklärte Varianz [steht unter der Tabelle mit der VA] = Anteil der Änderungen der AV durch Änderungen der UV Merke: Durch Quadratsummenzerlegung in voneinander unabhängige Teile passiert folgendes: -> unabhängige Tests werden durchgeführt, OHNE Post hoc Test bei mehrfachen VA: im SPSS einzeln pro Faktor durchgeführt (nur zwischen Subjektfaktoren) ebenso bei Kontrasten -> einzelne Haupteffekte bzw. WW des gesättigten Modells können so ausgeschlossen werden.

18 18 4) Einfache Varianzanalyse mit Messwiederholung: => wird verwendet bei: 1UV in mehr als 2 Zeitpunkten / Faktorstufen (bei 2 Ausprägungen der UV -> t Test für unabhängige Stichproben) 1AV BEISPIEL: UV = Therapieeffekt (vor / während / nach) bei jeweils EINER VP (d.h. hier wird jede VP 3x getestet) AV = Befindlichkeit => Vorteil: - man braucht weniger Personen - Fehlervarianz durch Zufallsunterschiede zwischen den Stichproben wird vermieden (= zufällige Unterschiede, die dadurch entstehen, welche VPn bei Randomisierung in welcher VG gelandet sind) Merke: unabhängige Stichproben: => Nachteil: unterschiedliche Ausgangslage bei den Gruppen, je nachdem, welche VPn bei Randomisierung in welcher VG gelandet sind. Verfahren berücksichtigen dies durch vorsichtigeres Vorgehen beim Verwerfen der Ho. abhängige Stichproben (bei Messwiederholung!): gleiche Ausgangslage zwischen den Gruppen, weil ja immer dieselbe Person getestet wird. Höhere Macht. - Reihenfolgeneffekte (Lösung = ausbalanciertes Design) - Lerneffekte - manches kann man so nicht testen (z.b. Person soll sich 2X Film mit derselben Ausgangserwartung ansehen) => Modell: Y= µ + α i + π m + απ im + s D.h. vorhergesagter Wert = globaler Erwartungswert + Effekt des Zeitpunkts + Person (Ausgangslage) + WW Zeit x Person + Fehler Annahme: Zeitpunkt wirkt auf jede Person gleich. = in Praxis unrealistisch (Person kann sich zwischen Zeitpunkten verbessern; Tagesverfassung schlecht -> Person kann normale Ausgangslage nicht erbringen) JEDE Person verbessert sich bei Vergleich 1. Testung mit 2. Testung und 3. Testung, in Wirklichkeit aber eine Person mehr, eine andere weniger...

19 19 => Mathematik: Varianzzerlegung 1) within subjects (innerhalb der Personen [also zwischen den Testzeitpunkten! = VA zwischen] = eigentlich interessante Varianz 2) between subjects (innerhalb der zu einem Zeitpunkt jeweils getesteten Gruppe [= VA innen] Gerechnet wird mit Messwertdifferenzen -> NV dieser Differenzen = Voraussetzung! Sphärizität: Bei mehr als 2 Zeitpunkten müssen Varianzen der Messwertdifferenzen zwischen den Zeitpunkten [also Zeitpunkt 1 Zeitpunkt 2, Zeitpunkt 1 Zeitpunkt 3, Zeitpunkt 2 Zeitpunkt 3] homogen sein. Wenn das nicht so ist, wird Verfahren progressiv, d.h. Alpha Fehler wird größer (Ho wird leicht verworfen!) Prüfung der Spärizität: 3) Mauchly Test: - wenn NICHT signifikant (p < 0.05) -> Varianzen der Messwertdifferenzen sind homogen - wenn signifikant (p > 0.05) -> Varianzen der Messwertdifferenzen sind nicht homogen. D.h. Werte korrelieren zu stark miteinander -> Folge: statistische Info wird weniger (redundant); F Test (Mauchly ist so einer) geht von unabhängigen Werten aus. Bei nicht homogenen Varianzen der Messwertdifferenzen: Verlust an Personen, an Freiheitsgraden. Ist Mauchly Test signifikant, dann: 4) Greenhouse Geisser Korrektur: - Freiheitsgrade werden beim F Test mit passendem Wert ε (zwischen 0 1; wird aus den Daten geschätzt) multipliziert. - Folge: o Freiheitsgrade werden kleiner o Progressivität wird verhindert - Nachteil: Bei kleinen Stichproben wird Korrektur konservativ (= schlecht)

20 20 DAHER bei kleinen Stichproben statt Greenhouse Giesser: 5) Huynh Feldt Korrektur: - wenn Stichprobe klein - immer wenn ε > ) dann Scheffé Test (geht aber mit SPSS nicht...) => Sind Voraussetzungen für VA nicht erfüllt -> parameterfreies Verfahren: Friedmann Test [ABER weniger Macht als Kruskal Wallis im Verhältnis zu VA!!!]: 2. Messwiederholungen werden wie Faktoren behandelt. Nur sinnvoll, wenn jede Stufe des einen Faktors mit jeder Stufe des anderen kombiniert bei jeder VP beobachtet werden kann (dann werden WW geprüft). Voraussetzungen für Friedmann Test: SPSS Output dazu: UV = Zeitpunkte AV = Beschwerden - abhängige Daten - mehr als 2 Stichproben (Messzeitpunkte) - mindestens 5 Fälle pro Gruppe (Messzeitpunkt) 1) Mauchly Test auf Sphärizität: Intersubjekteffekt nicht signifikant (p = 0.25) -> Sphärizität ist gegeben, ε nahe 1. Korrektur mit Greenhouse Gneisser / Huyndt Feldt nicht notwendig (schadet aber auch nix) 2) Test der Intersubjekteffekte [= VA mit Messwiederholung] Da Sphärizität angenommen werden kann, bleiben Freiheitsgrade gleich (df = 2 bei 3 Gruppen). Darunter stehen die df bei den jeweiligen Korrekturen (wird ε korrigiert -> df werden kleiner). p = > signifikant; DAHER: Effekt ist signifikant (Beschwerden ändern sich während der Messzeitpunkte) 3) Intersubjekteffekte Kontraste: - bei linearem Trend: p = > signifikant; d.h. es gibt Trend zu einem linearen Zusammenhang - bei quadratischem Zusammenhang p = nicht signifikant 4) Profildiagramm: hier sieht man auch den linearen Trend

21 21 5) Mehrfache Varianzanalyse mit Messwiederholung: => wird verwendet: mehr als 1 UV + mehr Zeitpunkte BEISPIEL: UV1 = Zeitpunkt (vor / während / nach) UV2 = Geschlecht (M / W) UV3 = Alter (jung / mittel / alt) AV = Befindlichkeit => Modell: Merke: dieselben Personen werden hier 3x getestet -> abhängige Stichproben Verbindung von Intersubjektfaktoren und Zwischensubjektfaktoren (eventuell mit Kovariaten); getestet werden: - Haupteffekte und - WW Effekte der UV und - Messwiederholungsvarianz Nachteil: je komplexer alles wir, umso größere Stichprobe braucht man, um Modell zuverlässig schätzen zu können! => Voraussetzungen: NV pro Zelle homogene Varianzen pro Zelle Sphärizität Homogenität der Kovarianzmatrix d.h. Kovarianzmatrizen der abhängigen Variable über die Gruppen müssen gleich sein -> schwierig bei kleinen Stichproben! wird geprüft mit: Box s M Test: ist er NICHT signifikant, so kann angenommen werden, dass die Strukturen in den Gruppen gleich sind.

Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse

Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse Univariate Varianz- und Kovarianzanlyse, Multivariate Varianzanalyse und Varianzanalyse mit Messwiederholung finden sich unter

Mehr

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Einfaktorielle Versuchspläne 27/40 Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Abweichung Einfach Differenz Helmert Wiederholt Vergleich Jede Gruppe mit Gesamtmittelwert

Mehr

6. METRISCHE UND KATEGORIALE MERKMALE

6. METRISCHE UND KATEGORIALE MERKMALE 6. METRISCHE UND KATEGORIALE MERKMALE wenn an einer Beobachtungseinheit eine (oder mehrere) metrische und eine (oder mehrere) kategoriale Variable(n) erhoben wurden Beispiel: Haushaltsarbeit von Teenagern

Mehr

V A R I A N Z A N A L Y S E

V A R I A N Z A N A L Y S E V A R I A N Z A N A L Y S E Ziel / Funktion: statistische Beurteilung des Einflusses von nominal skalierten (kategorialen) Faktoren auf intervallskalierte abhängige Variablen Vorteil: die Wirkung von mehreren,

Mehr

Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel

Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel 16.11.01 MP1 - Grundlagen quantitativer Sozialforschung - (4) Datenanalyse 1 Gliederung Datenanalyse (inferenzstatistisch)

Mehr

Kapitel 7: Varianzanalyse mit Messwiederholung

Kapitel 7: Varianzanalyse mit Messwiederholung Kapitel 7: Varianzanalyse mit Messwiederholung Durchführung einer einfaktoriellen Varianzanalyse mit Messwiederholung 1 Durchführung einer zweifaktoriellen Varianzanalyse mit Messwiederholung auf einem

Mehr

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen. Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes

Mehr

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang

Mehr

Tabelle 6a: Deskriptive Statistiken der metrischen Variablen

Tabelle 6a: Deskriptive Statistiken der metrischen Variablen Ergebnisse 77 5 Ergebnisse Das folgende Kapitel widmet sich der statistischen Auswertung der Daten zur Ü- berprüfung der Hypothesen. Die hier verwendeten Daten wurden mit den in 4.3 beschriebenen Instrumenten

Mehr

Beispiel für eine multivariate Varianzanalyse (MANOVA) Daten: POKIV_Terror_V12.sav

Beispiel für eine multivariate Varianzanalyse (MANOVA) Daten: POKIV_Terror_V12.sav Beispiel für eine multivariate Varianzanalyse () Daten: POKIV_Terror_V12.sav Es soll überprüft werden, inwieweit das ATB-Syndrom (Angst vor mit den drei Subskalen affektive Angst von, Terrorpersistenz,

Mehr

2. Korrelation, lineare Regression und multiple Regression

2. Korrelation, lineare Regression und multiple Regression multiple 2.2 Lineare 2.2 Lineare 1 / 130 2.2 Lineare 2 / 130 2.1 Beispiel: Arbeitsmotivation Untersuchung zur Motivation am Arbeitsplatz in einem Chemie-Konzern 25 Personen werden durch Arbeitsplatz zufällig

Mehr

Varianzananalyse. How to do

Varianzananalyse. How to do Varianzananalyse How to do Die folgende Zusammenfassung zeigt beispielhaft, wie eine Varianzanalyse mit SPSS durchgeführt wird und wie die Ergebnisse in einem Empra-Bericht oder in einer Bachelor- oder

Mehr

Übungsserie Nr. 10 mit Lösungen

Übungsserie Nr. 10 mit Lösungen Übungsserie Nr. 10 mit Lösungen 1 Ein Untersuchungsdesign sieht einen multivariaten Vergleich einer Stichprobe von Frauen mit einer Stichprobe von Männern hinsichtlich der Merkmale X1, X2 und X3 vor (Codierung:

Mehr

(2) Mittels welcher Methode ist es im ALM möglich kategoriale Variablen als Prädiktoren in eine Regressionsgleichung zu überführen?

(2) Mittels welcher Methode ist es im ALM möglich kategoriale Variablen als Prädiktoren in eine Regressionsgleichung zu überführen? Beispielaufgaben LÖSUNG (1) Grenzen Sie eine einfache lineare Regression von einem Random Intercept Modell mit nur einem Level1-Prädiktor ab! a. Worin unterscheiden sich die Voraussetzungen? - MLM braucht

Mehr

3 Zusammenhangsmaße Zusammenhangshypothesen

3 Zusammenhangsmaße Zusammenhangshypothesen 3 Zusammenhangsmaße Zusammenhangshypothesen Zusammenhänge (zwischen 2 Variablen) misst man mittels Korrelationen. Die Wahl der Korrelation hängt ab von: a) Skalenniveau der beiden Variablen: 1) intervallskaliert

Mehr

Varianzanalytische Methoden Zweifaktorielle Versuchspläne 4/13. Durchführung in SPSS (File Trait Angst.sav)

Varianzanalytische Methoden Zweifaktorielle Versuchspläne 4/13. Durchführung in SPSS (File Trait Angst.sav) Zweifaktorielle Versuchspläne 4/13 Durchführung in SPSS (File Trait Angst.sav) Analysieren > Allgemeines Lineares Modell > Univariat Zweifaktorielle Versuchspläne 5/13 Haupteffekte Geschlecht und Gruppe

Mehr

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression Institut für Soziologie Methoden 2 Regressionsanalyse I: Einfache lineare Regression Programm Anwendungsbereich Vorgehensweise Interpretation Annahmen Zusammenfassung Übungsaufgabe Literatur # 2 Anwendungsbereich

Mehr

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank

Mehr

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1 Inhaltsverzeichnis Regressionsanalyse... 2 Lernhinweise... 2 Einführung... 2 Theorie (1-8)... 2 1. Allgemeine Beziehungen... 3 2. 'Best Fit'... 3 3. 'Ordinary Least Squares'... 4 4. Formel der Regressionskoeffizienten...

Mehr

Univariate/ multivariate Ansätze. Klaus D. Kubinger. Test- und Beratungsstelle. Effektgrößen

Univariate/ multivariate Ansätze. Klaus D. Kubinger. Test- und Beratungsstelle. Effektgrößen Univariate/ multivariate Ansätze Klaus D. Kubinger Effektgrößen Rasch, D. & Kubinger, K.D. (2006). Statistik für das Psychologiestudium Mit Softwareunter-stützung zur Planung und Auswertung von Untersuchungen

Mehr

25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche

25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche Ruhr-Universität Bochum 25. Januar 2010 1 / 75 2 / 75 4.1 Beispiel: Vergleich von verschiedenen Unterrichtsmethoden Zwei Zufallsstichproben (A und B) mit je 10 Schülern und 8 Schülern Gruppe A wird nach

Mehr

Kommentierter SPSS-Ausdruck zur logistischen Regression

Kommentierter SPSS-Ausdruck zur logistischen Regression Daten: POK V AG 3 (POKV_AG3_V07.SAV) Kommentierter SPSS-Ausdruck zur logistischen Regression Fragestellung: Welchen Einfluss hat die Fachnähe und das Geschlecht auf die interpersonale Attraktion einer

Mehr

Varianzanalyse * (1) Varianzanalyse (2)

Varianzanalyse * (1) Varianzanalyse (2) Varianzanalyse * (1) Einfaktorielle Varianzanalyse (I) Die Varianzanalyse (ANOVA = ANalysis Of VAriance) wird benutzt, um Unterschiede zwischen Mittelwerten von drei oder mehr Stichproben auf Signifikanz

Mehr

Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear":

Das Dialogfeld für die Regressionsanalyse (Lineare Regression) findet sich im Statistik- Menu unter Regression-Linear: Lineare Regression Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear": Im einfachsten Fall werden mehrere Prädiktoren (oder nur

Mehr

Varianzanalyse. Seminar: Multivariate Verfahren Dr. Thomas Schäfer. Datum: 25. Mai 2010

Varianzanalyse. Seminar: Multivariate Verfahren Dr. Thomas Schäfer. Datum: 25. Mai 2010 Varianzanalyse Seminar: Multivariate Verfahren Dozent: Dr. Thomas Schäfer Referenten: Ralf Hopp, Michaela Haase, Tina Giska Datum: 25. Mai 2010 Gliederung I Theorieteil 1. Das Prinzip der Varianzanalyse

Mehr

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall )

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall ) Zusammenhänge von Variablen Regressionsanalysen linearer Zusammenhang ( Idealfall ) kein Zusammenhang nichtlinearer monotoner Zusammenhang (i.d.regel berechenbar über Variablentransformationen mittels

Mehr

Anhang A: Fragebögen und sonstige Unterlagen

Anhang A: Fragebögen und sonstige Unterlagen Anhang Anhang A: Fragebögen und sonstige Unterlagen A.: Flyer zur Probandenrekrutierung 46 A.: Fragebogen zur Meditationserfahrung 47 48 A.3: Fragebogen Angaben zur Person 49 5 5 A.4: Termin- und Einladungsschreiben

Mehr

Willkommen zur Vorlesung Statistik

Willkommen zur Vorlesung Statistik Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang

Mehr

Webergänzung zu Kapitel 10

Webergänzung zu Kapitel 10 Webergänzung zu Kapitel 10 10.1.4 Varianzanalyse (ANOVA: analysis of variance) Im Kapitel 10 haben wir uns hauptsächlich mit Forschungsbeispielen beschäftigt, die nur zwei Ergebnissätze hatten (entweder

Mehr

Kapitel 3: Interpretationen

Kapitel 3: Interpretationen Kapitel 3: 1. Interpretation von Outputs allgemein... 1 2. Interpretation von Signifikanzen... 1 2.1. Signifikanztests / Punktschätzer... 1 2.2. Konfidenzintervalle... 2 3. Interpretation von Parametern...

Mehr

Korrelation - Regression. Berghold, IMI

Korrelation - Regression. Berghold, IMI Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines

Mehr

Quantitative Methoden der Bildungsforschung

Quantitative Methoden der Bildungsforschung Glieung Wieholung Korrelationen Grundlagen lineare Regression Lineare Regression in SPSS Übung Wieholung Korrelationen Standardisiertes Zusammenhangsmaß (unstandardisiert: Kovarianz) linearer Zusammenhang

Mehr

Auswertung mit dem Statistikprogramm SPSS: 30.11.05

Auswertung mit dem Statistikprogramm SPSS: 30.11.05 Auswertung mit dem Statistikprogramm SPSS: 30.11.05 Seite 1 Einführung SPSS Was ist eine Fragestellung? Beispiel Welche statistische Prozedur gehört zu welcher Hypothese? Statistische Berechnungen mit

Mehr

Grundlagen von Versuchsmethodik und Datenanalyse

Grundlagen von Versuchsmethodik und Datenanalyse Grundlagen von Versuchsmethodik und Datenanalyse Der Anfang: Hypothesen über Ursache-Wirkungs-Zusammenhänge Ursache Wirkung Koffein verbessert Kurzzeitgedächtnis Gewaltfilme führen zu aggressivem Verhalten

Mehr

Diskriminanzanalyse Beispiel

Diskriminanzanalyse Beispiel Diskriminanzanalyse Ziel bei der Diskriminanzanalyse ist die Analyse von Gruppenunterschieden, d. h. der Untersuchung von zwei oder mehr Gruppen hinsichtlich einer Vielzahl von Variablen. Diese Methode

Mehr

Kommentierter SPSS-Output für die multiple Regressionsanalyse (SPSS-Version 17)

Kommentierter SPSS-Output für die multiple Regressionsanalyse (SPSS-Version 17) R.Niketta Multiple Regressionsanalyse Kommentierter SPSS-Output für die multiple Regressionsanalyse (SPSS-Version 17) Daten: Selbstdarstellung und Kontaktsuche in studi.vz (POK VIII, AG 3) Fragestellung:

Mehr

Prüfen von Mittelwertsunterschieden: t-test

Prüfen von Mittelwertsunterschieden: t-test Prüfen von Mittelwertsunterschieden: t-test Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) t-test

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Varianzanalyse ANOVA

Varianzanalyse ANOVA Varianzanalyse ANOVA Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/23 Einfaktorielle Varianzanalyse (ANOVA) Bisher war man lediglich in der Lage, mit dem t-test einen Mittelwertsvergleich für

Mehr

Univariate Lineare Regression. (eine unabhängige Variable)

Univariate Lineare Regression. (eine unabhängige Variable) Univariate Lineare Regression (eine unabhängige Variable) Lineare Regression y=a+bx Präzise lineare Beziehung a.. Intercept b..anstieg y..abhängige Variable x..unabhängige Variable Lineare Regression y=a+bx+e

Mehr

Ausgewählte Kapitel der Statistik: Regressions- u. varianzanalytische Modelle Lösung von Grundaufgaben mit SPSS (ab V. 11.0)

Ausgewählte Kapitel der Statistik: Regressions- u. varianzanalytische Modelle Lösung von Grundaufgaben mit SPSS (ab V. 11.0) Ausgewählte Kapitel der Statistik: Regressions- u. varianzanalytische e Lösung von Grundaufgaben mit SPSS (ab V..0) Text: akmv_v.doc Daten: akmv??.sav Lehrbuch: W. Timischl, Biostatistik. Wien - New York:

Mehr

SFB 833 Bedeutungskonstitution. Kompaktkurs. Datenanalyse. Projekt Z2 Tübingen, Mittwoch, 18. und 20. März 2015

SFB 833 Bedeutungskonstitution. Kompaktkurs. Datenanalyse. Projekt Z2 Tübingen, Mittwoch, 18. und 20. März 2015 SFB 833 Bedeutungskonstitution Kompaktkurs Datenanalyse Projekt Z2 Tübingen, Mittwoch, 18. und 20. März 2015 Messen und Skalen Relativ (Relationensystem): Menge A von Objekten und eine oder mehrere Relationen

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

12. Vergleich mehrerer Stichproben

12. Vergleich mehrerer Stichproben 12. Vergleich mehrerer Stichproben Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Häufig wollen wir verschiedene Populationen, Verfahren, usw. miteinander vergleichen. Beipiel: Vergleich

Mehr

Standardab er des. Testwert = 145.5 95% Konfidenzintervall. T df Sig. (2-seitig) Differenz Untere Obere -2.011 698.045-5.82-11.50 -.14.

Standardab er des. Testwert = 145.5 95% Konfidenzintervall. T df Sig. (2-seitig) Differenz Untere Obere -2.011 698.045-5.82-11.50 -.14. Aufgabe : einfacher T-Test Statistik bei einer Stichprobe Standardfehl Standardab er des Mittelwert weichung Mittelwertes 699 39.68 76.59 2.894 Test bei einer Sichprobe Testwert = 45.5 95% Konfidenzintervall

Mehr

14.01.14 DAS THEMA: INFERENZSTATISTIK II. Standardfehler Konfidenzintervalle Signifikanztests. Standardfehler

14.01.14 DAS THEMA: INFERENZSTATISTIK II. Standardfehler Konfidenzintervalle Signifikanztests. Standardfehler DAS THEMA: INFERENZSTATISTIK II INFERENZSTATISTISCHE AUSSAGEN Standardfehler Konfidenzintervalle Signifikanztests Standardfehler der Standardfehler Interpretation Verwendung 1 ZUR WIEDERHOLUNG... Ausgangspunkt:

Mehr

8. Methoden der klassischen multivariaten Statistik

8. Methoden der klassischen multivariaten Statistik 8. Methoden der klassischen multivariaten Statistik 8.1. Darstellung von Daten Voraussetzungen auch in diesem Kapitel: Grundgesamtheit (Datenraum) Ω von Objekten (Fällen, Instanzen), denen J-Tupel von

Mehr

Multivariate Analysemethoden

Multivariate Analysemethoden Multivariate Analysemethoden 30.04.2014 Günter Meinhardt Johannes Gutenberg Universität Mainz Einführung Was sind multivariate Analysemethoden? Vorlesung Übung/Tut Prüfung Verfahrensdarstellung in Überblick

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Lineare Reression Zweck: Vorhersae Dimensionsreduktion Klassifizierun Hauptkomponentenanalyse Korrespondenzanalyse Clusteranalyse Diskriminanzanalyse Eienschaften: nicht-linear verteilunsfrei

Mehr

Fragen und Antworten zu Kapitel 18

Fragen und Antworten zu Kapitel 18 Fragen und Antworten zu Kapitel 18 (1) Nennen Sie verschiedene Zielsetzungen, die man mit der Anwendung der multiplen Regressionsanalyse verfolgt. Die multiple Regressionsanalyse dient der Kontrolle von

Mehr

Log-lineare Analyse I

Log-lineare Analyse I 1 Log-lineare Analyse I Einleitung Die log-lineare Analysemethode wurde von L.A. Goodman in den 60er und 70er Jahren entwickelt. Sie dient zur Analyse von Zusammenhängen in mehrdimensionalen Kontingenztafeln

Mehr

Faktorenanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007

Faktorenanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007 Faktorenanalyse Bacher, SoSe2007 1. Grundlegende Verfahren explorative FA (EXFA): Für eine Menge von Variablen/Items werden zugrunde liegende gemeinsame (latente) Dimensionen/Faktoren gesucht, die Faktorstruktur

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 2 Multivariate Verfahren Musterlösung Aufgabe 1 (28 Punkte) Der Marketing-Leiter einer Lebensmittelherstellers möchte herausfinden, mit welchem Richtpreis eine neue Joghurt-Marke auf

Mehr

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

5.2 Optionen Auswahl der Statistiken, die bei der jeweiligen Prozedur zur Verfügung stehen.

5.2 Optionen Auswahl der Statistiken, die bei der jeweiligen Prozedur zur Verfügung stehen. 5 Statistik mit SPSS Die Durchführung statistischer Auswertungen erfolgt bei SPSS in 2 Schritten, der Auswahl der geeigneten Methode, bestehend aus Prozedur Variable Optionen und der Ausführung. 5.1 Variablen

Mehr

Tutorial: Homogenitätstest

Tutorial: Homogenitätstest Tutorial: Homogenitätstest Eine Bank möchte die Kreditwürdigkeit potenzieller Kreditnehmer abschätzen. Einerseits lebt die Bank ja von der Vergabe von Krediten, andererseits verursachen Problemkredite

Mehr

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:

Mehr

Verteilungsanalyse. Johannes Hain. Lehrstuhl für Mathematik VIII Statistik 1/35

Verteilungsanalyse. Johannes Hain. Lehrstuhl für Mathematik VIII Statistik 1/35 Verteilungsanalyse Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/35 Datentypen Als Sammeln von Daten bezeichnet man in der Statistik das Aufzeichnen von Fakten. Erhobene Daten klassifziert man

Mehr

Analyse bivariater Kontingenztafeln

Analyse bivariater Kontingenztafeln Analyse bivariater Kontingenztafeln Werden zwei kategoriale Merkmale mit nicht zu vielen möglichen Ausprägungen gemeinsam analysiert, so kommen zur Beschreibung der gemeinsamen Verteilung im allgemeinen

Mehr

Methoden Quantitative Datenanalyse

Methoden Quantitative Datenanalyse Leitfaden Universität Zürich ISEK - Andreasstrasse 15 CH-8050 Zürich Telefon +41 44 635 22 11 Telefax +41 44 635 22 19 www.isek.uzh.ch 11. September 2014 Methoden Quantitative Datenanalyse Vorbereitung

Mehr

3.2 Bivariate Verteilungen

3.2 Bivariate Verteilungen 3.2 Bivariate Verteilungen zwei Variablen X, Y werden gemeinsam betrachtet (an jedem Objekt i, i = 1,..., n, werden gleichzeitig zwei Merkmale beobachtet) Beobachtungswerte sind Paare/Kombinationen von

Mehr

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)

Mehr

Multinomiale logistische Regression

Multinomiale logistische Regression Multinomiale logistische Regression Die multinomiale logistische Regression dient zur Schätzung von Gruppenzugehörigkeiten bzw. einer entsprechenden Wahrscheinlichkeit hierfür, wobei als abhänginge Variable

Mehr

Einführung in die Kovarianzanalyse (ANCOVA)

Einführung in die Kovarianzanalyse (ANCOVA) Arbeitsunterlage Einführung in die Kovarianzanalyse (ANCOVA) ARGE-Bildungsforschung 2 Einführung in die Kovarianzanalyse (ANCOVA) 1 Die Varianzanalyse ist ein Verfahren, das die Wirkung einer (oder mehrerer)

Mehr

Christian FG Schendera. Regressionsanalyse. mit SPSS. 2. korrigierte und aktualisierte Auflage DE GRUYTER OLDENBOURG

Christian FG Schendera. Regressionsanalyse. mit SPSS. 2. korrigierte und aktualisierte Auflage DE GRUYTER OLDENBOURG Christian FG Schendera Regressionsanalyse mit SPSS 2. korrigierte und aktualisierte Auflage DE GRUYTER OLDENBOURG Inhalt Vorworte V 1 Korrelation 1 1.1 Einführung 1 1.2 Erste Voraussetzung: Das Skalenniveau

Mehr

9. StatistischeTests. 9.1 Konzeption

9. StatistischeTests. 9.1 Konzeption 9. StatistischeTests 9.1 Konzeption Statistische Tests dienen zur Überprüfung von Hypothesen über einen Parameter der Grundgesamtheit (bei einem Ein-Stichproben-Test) oder über die Verteilung einer Zufallsvariablen

Mehr

5.2. Nichtparametrische Tests. 5.2.1. Zwei unabhängige Stichproben: U- Test nach MANN- WHITNEY

5.2. Nichtparametrische Tests. 5.2.1. Zwei unabhängige Stichproben: U- Test nach MANN- WHITNEY 5.2. Nichtparametrische Tests 5.2.1. Zwei unabhängige Stichproben: U- Test nach MANN- WHITNEY Voraussetzungen: - Die Verteilungen der beiden Grundgesamtheiten sollten eine ähnliche Form aufweisen. - Die

Mehr

Multiple Regression II: Signifikanztests, Gewichtung, Multikollinearität und Kohortenanalyse

Multiple Regression II: Signifikanztests, Gewichtung, Multikollinearität und Kohortenanalyse Multiple Regression II: Signifikanztests,, Multikollinearität und Kohortenanalyse Statistik II Übersicht Literatur Kausalität und Regression Inferenz und standardisierte Koeffizienten Statistik II Multiple

Mehr

Datenanalyse mit SPSS spezifische Analysen

Datenanalyse mit SPSS spezifische Analysen Datenanalyse mit SPSS spezifische Analysen Arnd Florack Tel.: 0251 / 83-34788 E-Mail: florack@psy.uni-muenster.de Raum 2.015 Sprechstunde: Dienstags 15-16 Uhr 25. Mai 2001 2 Auswertung von Häufigkeitsdaten

Mehr

Lineare Modelle in R: Einweg-Varianzanalyse

Lineare Modelle in R: Einweg-Varianzanalyse Lineare Modelle in R: Einweg-Varianzanalyse Achim Zeileis 2009-02-20 1 Datenaufbereitung Wie schon in der Vorlesung wollen wir hier zur Illustration der Einweg-Analyse die logarithmierten Ausgaben der

Mehr

Binäre abhängige Variablen

Binäre abhängige Variablen Binäre abhängige Variablen Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Einführung Oft wollen wir qualitative Variablen

Mehr

Einseitig gerichtete Relation: Mit zunehmender Höhe über dem Meeresspiegel sinkt im allgemeinen die Lufttemperatur.

Einseitig gerichtete Relation: Mit zunehmender Höhe über dem Meeresspiegel sinkt im allgemeinen die Lufttemperatur. Statistik Grundlagen Charakterisierung von Verteilungen Einführung Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsverteilungen Schätzen und Testen Korrelation Regression Einführung Die Analyse und modellhafte

Mehr

EINFACHE LINEARE REGRESSION MODUL 13 PROSEMINAR DESKRIPTIVE STATISTIK ANALYSE UND DARSTELLUNG VON DATEN I GÜNTER HAIDER WS 1999/2000

EINFACHE LINEARE REGRESSION MODUL 13 PROSEMINAR DESKRIPTIVE STATISTIK ANALYSE UND DARSTELLUNG VON DATEN I GÜNTER HAIDER WS 1999/2000 INSTITUT FÜR ERZIEHUNGSWISSENSCHAFT - UNIVERSITÄT SALZBURG PROSEMINAR DESKRIPTIVE STATISTIK ANALYSE UND DARSTELLUNG VON DATEN I GÜNTER HAIDER WS 1999/2 MODUL 13 EINFACHE LINEARE REGRESSION Erziehungswissenschaft/Haider

Mehr

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft Prof. Dr. Helmut Küchenhoff SS08 90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft am 22.7.2008 Anmerkungen Überprüfen Sie bitte sofort, ob Ihre Angabe vollständig ist. Sie sollte

Mehr

Abhängigkeit zweier Merkmale

Abhängigkeit zweier Merkmale Abhängigkeit zweier Merkmale Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/33 Allgemeine Situation Neben der Untersuchung auf Unterschiede zwischen zwei oder mehreren Untersuchungsgruppen hinsichtlich

Mehr

Medizinische Statistik Epidemiologie und χ 2 Vierfeldertest

Medizinische Statistik Epidemiologie und χ 2 Vierfeldertest Universität Wien Institut für Mathematik Wintersemester 2009/2010 Medizinische Statistik Epidemiologie und χ 2 Vierfeldertest Seminar Angewandte Mathematik Ao. Univ. Prof. Dr. Peter Schmitt von Nadja Reiterer

Mehr

Multivariate Statistik mit Mathematica und SPSS

Multivariate Statistik mit Mathematica und SPSS Multivariate Statistik mit Mathematica und SPSS von Dipl.-Math. Marco Schuchmann Dipl.-Math. Werner Sanns Seite 2 Varianzanalyse Die Informationen in diesem Buch entstammen langjähriger Erfahrung in Praxis

Mehr

Probeklausur Zeitreihenökonometrie (Sommersemester 2014) 1

Probeklausur Zeitreihenökonometrie (Sommersemester 2014) 1 Probeklausur Zeitreihenökonometrie (Sommersemester 2014) 1 Aufgabe 1: Betrachtet wird folgendes Modell zur Erklärung des Managergehalts salary durch den Umsatz sales, die Eigenkapitalrendite roe und die

Mehr

Stochastik Abitur 2009 Stochastik

Stochastik Abitur 2009 Stochastik Abitur 2009 Stochastik Beilage ea (erhöhtes Anforderungsniveau) ga (grundlegendes Anforderungsniveau) ISBN 978-3-8120-0108-3 und ISBN 978-3-8120-0223-3 1 Aufgabe 2 (ea) Rauchen ist das größte vermeidbare

Mehr

Lösung zu Kapitel 11: Beispiel 1

Lösung zu Kapitel 11: Beispiel 1 Lösung zu Kapitel 11: Beispiel 1 Eine Untersuchung bei 253 Personen zur Kundenzufriedenheit mit einer Einzelhandelskette im Südosten der USA enthält Variablen mit sozialstatistischen Daten der befragten

Mehr

Allgemeine Regressionsanalyse. Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl. deterministisch

Allgemeine Regressionsanalyse. Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl. deterministisch Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 9.1 Allgemeine Regressionsanalyse Daten (X j, Y j ), j = 1,..., N unabhängig Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl.

Mehr

29. Mai 2006. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt.

29. Mai 2006. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt. L. Fahrmeir, C. Belitz Department für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit Wahlfach Statistik 29. Mai 2006 Hinweise:

Mehr

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8 1. Aufgabe: Eine Reifenfirma hat für Winterreifen unterschiedliche Profile entwickelt. Bei jeweils gleicher Geschwindigkeit und auch sonst gleichen Bedingungen wurden die Bremswirkungen gemessen. Die gemessenen

Mehr

Grundlagen der Datenanalyse am Beispiel von SPSS

Grundlagen der Datenanalyse am Beispiel von SPSS Grundlagen der Datenanalyse am Beispiel von SPSS Einführung Dipl. - Psych. Fabian Hölzenbein hoelzenbein@psychologie.uni-freiburg.de Einführung Organisatorisches Was ist Empirie? Was ist Statistik? Dateneingabe

Mehr

Verteilungsanalyse. Johannes Hain. Lehrstuhl für Mathematik VIII Statistik 1/31

Verteilungsanalyse. Johannes Hain. Lehrstuhl für Mathematik VIII Statistik 1/31 Verteilungsanalyse Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/31 Datentypen Als Sammeln von Daten bezeichnet man in der Statistik das Aufzeichnen von Fakten. Erhobene Daten klassifziert man

Mehr

Übungsaufgaben zu Kapitel 5. Aufgabe 101. Inhaltsverzeichnis:

Übungsaufgaben zu Kapitel 5. Aufgabe 101. Inhaltsverzeichnis: Inhaltsverzeichnis: Übungsaufgaben zu Kapitel 5... 1 Aufgabe 101... 1 Aufgabe 102... 2 Aufgabe 103... 2 Aufgabe 104... 2 Aufgabe 105... 3 Aufgabe 106... 3 Aufgabe 107... 3 Aufgabe 108... 4 Aufgabe 109...

Mehr

0 Einführung: Was ist Statistik

0 Einführung: Was ist Statistik 0 Einführung: Was ist Statistik 1 Datenerhebung und Messung Die Messung Skalenniveaus 2 Univariate deskriptive Statistik 3 Multivariate Statistik 4 Regression 5 Ergänzungen Grundbegriffe Statistische Einheit,

Mehr

Messgeräte: Mess-System-Analyse und Messmittelfähigkeit

Messgeräte: Mess-System-Analyse und Messmittelfähigkeit Messgeräte: Mess-System-Analyse und Messmittelfähigkeit Andreas Berlin 14. Juli 2009 Bachelor-Seminar: Messen und Statistik Inhalt: 1 Aspekte einer Messung 2 Mess-System-Analyse 2.1 ANOVA-Methode 2.2 Maße

Mehr

Auswertung und Darstellung wissenschaftlicher Daten (1)

Auswertung und Darstellung wissenschaftlicher Daten (1) Auswertung und Darstellung wissenschaftlicher Daten () Mag. Dr. Andrea Payrhuber Zwei Schritte der Auswertung. Deskriptive Darstellung aller Daten 2. analytische Darstellung (Gruppenvergleiche) SPSS-Andrea

Mehr

Multivariate Zeitreihenanalyse mit EViews 4.1

Multivariate Zeitreihenanalyse mit EViews 4.1 Multivariate Zeitreihenanalyse mit EViews 4.1 Unterlagen für LVen des Instituts für Angewandte Statistic (IFAS) Johannes Kepler Universität Linz Stand: 30. Mai 2005, Redaktion: Frühwirth-Schnatter 1 Deskriptive

Mehr

Mathematik IV: Statistik. für D-UWIS, D-ERDW, D-USYS und D-HEST SS14

Mathematik IV: Statistik. für D-UWIS, D-ERDW, D-USYS und D-HEST SS14 Mathematik IV: Statistik für D-UWIS, D-ERDW, D-USYS und D-HEST SS14 Hygienische Reiniger Wissenschaftliche Studie: 10 000 Reinigungsversuche, 6 Fälle mit mehr als 1 Bakterien Stimmt s jetzt oder was? Binomialtest:

Mehr

Beispiel: Sonntagsfrage. Einführung in die induktive Statistik. Statistische Tests. Statistische Tests

Beispiel: Sonntagsfrage. Einführung in die induktive Statistik. Statistische Tests. Statistische Tests Beispiel: Sonntagsfrage Vier Wochen vor der österreichischen Nationalratswahl 1999 wurde 499 Haushalten die Sonntagsfrage gestellt: Falls nächsten Sonntag Wahlen wären, welche Partei würden Sie wählen?

Mehr

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell:

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell: Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen LV-Leiterin: Univ.Prof.Dr. Sylvia Frühwirth-Schnatter 1 Wahr oder falsch? 1. Das folgende Modell ist ein GARCH(1,1)-Modell: Y

Mehr

HTS-Berichte des ZTD - 01/2002 Vergleichsuntersuchung WILDE-Intelligenz-Test - Daten BFW Leipzig Bearbeiterin: A. Bettinville

HTS-Berichte des ZTD - 01/2002 Vergleichsuntersuchung WILDE-Intelligenz-Test - Daten BFW Leipzig Bearbeiterin: A. Bettinville UNIVERSITÉ DE FRIBOURG SUISSE UNIVERSITÄT FREIBURG SCHWEIZ ZENTRUM FÜR TESTENTWICKLUNG UND DIAGNOSTIK AM DEPARTEMENT FÜR PSYCHOLOGIE CENTRE POUR LE DEVELOPPEMENT DE TESTS ET LE DIAGNOSTIC AU DEPARTEMENT

Mehr

Einfache Statistiken in Excel

Einfache Statistiken in Excel Einfache Statistiken in Excel Dipl.-Volkswirtin Anna Miller Bergische Universität Wuppertal Schumpeter School of Business and Economics Lehrstuhl für Internationale Wirtschaft und Regionalökonomik Raum

Mehr

Kapitel 23 Lineare Regression

Kapitel 23 Lineare Regression Kapitel 23 Lineare Regression Sowohl einfache als auch multiple Regressionsanalysen können Sie mit dem Befehl STATISTIK REGRESSION LINEAR... durchführen. Dabei lassen sich mit Hilfe diverser Optionen zahlreiche

Mehr

Linearer Zusammenhang von Datenreihen

Linearer Zusammenhang von Datenreihen Linearer Zusammenhang von Datenreihen Vielen Problemen liegen (möglicherweise) lineare Zusammenhänge zugrunde: Mein Internetanbieter verlangt eine Grundgebühr und rechnet minutenweise ab Ich bestelle ein

Mehr

Statistische Verfahren für das Data Mining in einem Industrieprojekt

Statistische Verfahren für das Data Mining in einem Industrieprojekt Statistische Verfahren für das Data Mining in einem Industrieprojekt Thorsten Dickhaus Forschungszentrum Jülich GmbH Zentralinstitut für Angewandte Mathematik Telefon: 02461/61-4193 E-Mail: th.dickhaus@fz-juelich.de

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Commercial Banking Übung 1 Kreditscoring

Commercial Banking Übung 1 Kreditscoring Commercial Banking Übung Kreditscoring Dr. Peter Raupach raupach@wiwi.uni-frankfurt.de Sprechzeit Dienstag 6-7:00 Uhr Raum 603 B Kreditscoring Gliederung Grundanliegen Das Sample Modellspezifikation Diskriminanzanalyse

Mehr