KOMPLEXE STATISTISCHE VERFAHREN

Größe: px
Ab Seite anzeigen:

Download "KOMPLEXE STATISTISCHE VERFAHREN"

Transkript

1 1 1. THEORETISCHES: KOMPLEXE STATISTISCHE VERFAHREN Wofür braucht man komplexe statistische Verfahren? um objektivere Antworten auf Fragen (z.b. Schadet Rauen?) geben zu können Im Alltag hier oft Heranziehung von Einzelfällen (z.b. Opa = Kettenraucher, wurde 100, daher Rauchen schadet nicht) ABER: Einzelfall kann höchstens zeigen, dass etwas existiert kann hilfreich sein, ist aber nicht beweiskräftig ( anekdotisches Niveau ) aufgrund Einzelfalls Entscheidung nicht möglich Frage kann nicht global beantwortet werden (z.b. nie, immer,...), sondern immer mit bestimmter Wahrscheinlichkeit (eher, wahrscheinlich,...) Wofür braucht man komplexe statistische Verfahren? (= multivariate Verfahren) Variablen, die in Psychologie interessieren, sind kaum isolierbar, sondern meist Teil eines komplexen Ganzen (z.b. Sympathie, Leistung,...) komplexe Bedingungsgefüge, d.h. ob Vorhersage zutrifft oder nicht, hängt von X Bedingungen ab. Für Feststellung eines Zusammenhanges muss man daher viele Variablen miterhaben, um ihre Effekte auf den Zusammenhang ausschließen zu können (Beispiel: Kaiser Joseph II Mozart Salieri) Aufgaben statistischer Betrachtung: 1) Überblicksgewinnung: BEISPIEL: Was trägt zum Gelingen einer OP bei? aus vielen Daten Errechnung eines Durchschnitts, ABER: dabei kommt es zur Informationsreduktion! - ist gut, wenn aufs Wesentliche reduziert wird - ist schlechte, wenn Wichtiges übersehen wird BEISPIEL: Durchschnittsgehalt einer Minderheit kann durchschnittlich gleich hoch sein wie Durchschnittsgehalt der Mehrheit; ABER: Minderheit sehr inhomogen -> große Streuung; extreme Werte oben und unten, Mehrheit sehr homogen. 2) Objektivität: BEISPIEL: Gibt es Erdstrahlen? Zahlen sind Zahlen (viele Personen spüren an gleicher Stelle Erdstrahlen; DAHER: es gib sie eventuell)

2 2 3) Hypothesentesten: BEISPIEL: Parken Frauen schlechter als Männer ein? Qualitative vs. quantitative Verfahren: 1) quantitative Verfahren: hypothesentestend verwenden Statistik (z.b. t-test, VA, MW, SD,...) geschlossenes Antwortformat 2) qualitative Verfahren: hypothesenerkundend verwenden Interviews, Tagebücher,... offenes Antwortformat ideal = Kombination der beiden BEISPIEL: Ist Einkommen schuld an Straffälligkeit? - quantitatives Vorgehen: Korrelationen zwischen Einkommenshöhe und Anzahl der Straftaten ausrechen - qualitatives Vorgehen: Befragung der Leute (hier kriegt man andere Info [Meinungen,...]!) Ausrichtung statistischer Verfahren: 1) deskriptiv: = beschreibend arbeitet mit Häufigkeiten, MW, SD, Korrel,... 2) explorativ: = erforschend, strukturierend arbeitet mit FA, Clusteranalyse,... 3) inferenzstatistisch: = hypothesentestend arbeitet mit t-test, VA, Chi-Quadrat-Test,...

3 Inferenzstatistik: Wie funktioniert ein statistischer Test? BEISPIEL: Parkschaden: 6 x von Frauen, 5 x von Männern Frage: Sind Männer bessere Einparker oder ist das Zufall? D.h. Gibt es einen stochastischen Zusammenhang oder ist dieses Ergebnis ein Störrauschen in den Daten. Nullhypothese: Alternativhypothese: Es gibt keinen Zusammenhang zwischen Geschlecht und Einparkfähigkeiten Es gibt einen Zusammenhang; Frauen sind besser wissenschaftliches Prinzip: Hypothese bestätigt sich, solange sie richtige Vorhersagen trifft; ABER: dadurch ist sie NICHT bewiesen! BEISPIEL: These: 0 = 1 Obwohl richtiges Ergebnis Antithese: 1 = 0 herauskommt, sind die Thesen Synthese: 1 = 1 trotzdem falsch! Merke: 1) Hypothesen sind nicht beweisbar, sondern nur falsifizierbar (Grund: Um Hypothese verifizieren zu können, müssten ALLE Fälle, also gesamte Population untersucht werden -> ist unmöglich!) 2) Verschiedene Hypothesen können gleiche Vorhersagen treffen [können dann aber nicht H0 und dazugehörige H1 sein!] BEISPIEL: Turiner Grabtuch: - Flecken sind Blut (enthalten Eisen) - Flecken sind rote Farbe (enthält Eisen) 3) Hellseher Beispiel: - Hellseher behauptet, von 10 Münzwürfen 9x richtig vorherzusehen (p = 0.9) - ich behaupte, er kann maximal 5 Würfe vorhersehen (p = 0.5) dann 1 Münzwurf... BEIDE haben recht! 4) Hypothese Es gibt Unterschiede ist erst belegt, wenn Hypothese Es gibt keine Unterschiede falsifiziert. ABER: H0 ist nicht wirklich falsifizierbar, sondern kann nur unwahrscheinlicher gemacht werden.

4 4 H0 und H1: Ho: kein Unterschied, kein Zusammenhang, keine Abweichung von bestimmter Verteilung (= immer EINE Wahrscheinlichkeitsverteilung) H1: viele Möglichkeiten (z.b. Kreuztabelle) Frage: Wie wahrscheinlich / unwahrscheinlich ist Ho angesichts der erhobenen Daten? ABER: ist nicht direkt beobachtbar! Beim Hypothesentesten schaue ich, wie wahrscheinlich / unwahrscheinlich meine Ho ist Dabei indirekte Argumentation: Meine Annahme A = wohl falsch, wenn unter Annahme von A das beobachtete Ereignis (also meine Daten) sehr unwahrscheinlich ist. BEISPIEL: Ho: Es gibt keinen Unterschied zwischen Männern und Frauen hinsichtlich der Körpergröße Datenerhebung (= beobachtetes Ereignis) ergibt: - durchschnittliche Größe Männer = 1,85 cm - durchschnittliche Größe Frauen = 1,65 cm Angesichts dieser Daten ist es unwahrscheinlich, dass es keinen Unterschied zwischen Männern und Frauen hinsichtlich der Körpergröße gibt; DAHER: Ho ist wahrscheinlich falsch Aus dem Ereignisraum [= alle beobachteten Ereignisse] wählt man einen Verwerfungsbereich aus. Grenze dafür: Alpha = 5% oder Alpha = 1% Verwerfungsbereich hat unter Ho eine Wahrscheinlichkeit von maximal Alpha = 5% (oder 1%) H1 sagt ein Ereignis im Verwerfungsbereich vorher, was unter Ho zu unwahrscheinlich ist. Unter SPSS muss man keinen Verwerfungsbereich konstruieren, SPSS gibt automatisch p-wert an. BEISPIEL: Hat Herr P. hellseherische Fähigkeiten? 10 Münzwürfe -> wie viele ist wahrscheinlich, dass er errät? Man beginnt mit extremsten Ereignissen (d.h. den höchsten Testgrößen) - bei 10 Würfen hat er 10 richtige: p = Summe = bei 10 Würfen hat er 9 richtige: p = > größer als Alpha - bei 10 Würfen hat er 8 richtige: p = 0.4 (0.05), daher: - bei 10 Würfen hat er 7 richtige, usw. Ho gilt

5 5 Berechnung: Binomialtest 1) Ratewahrscheinlichkeit bei 2 Möglichkeiten: p = günstige (z.b. Adler) / mögliche (Kopf + Adler) = ) Binomialtest rechnen: Formel: (n über k) mal p hoch x mal q hoch 1-X n über k = n faktorielle durch x faktorielle mal (n X) faktorielle für 8 richtige: 10 8 * * = 45 * * 0.25 = über 8 = 10 * 9 * 8! / 8! * 2! = 90/2 = 45 p Wert (Signifikanz) = Wahrscheinlichkeit, zufällig (also unter Ho) eingleich großes oder noch größeres Ergebnis zu erhalten. Grenze dafür = Alpha (ab da Verwerfungsbereich) Für Testung = Ho wichtig -> bestimmte Wahrscheinlichkeitsverteilung (oft NV) Alpha berechnet sich NUR nach Ho (aufpassen, wenn Verteilung falsch ist -> z.b. ich glaub, es ist NV, in Wirklichkeit ist es aber keine) Macht (= Wahrscheinlichkeit, mit der Test richtig vorhersagt) hängt ab von Ho UND H1 (bzw. von der Anzahl der n) Statistische Fehlurteile: Verwerfung der Ho, obwohl sie gilt (= Alpha Fehler) Beibehaltung der Ho, obwohl H1 gilt (= Beta Fehler) Kann zustande kommen bei: 1) Zufallsfehler: z.b. in meiner Stichprobe sind mehr Frauen, die schlecht einparken als in Population 2) Asymptotik schlecht / falsch gewählt: vor allem bei kleinen Stichproben bzw. bei komplexen Modellen) 3) Modellfehler: z.b. NV wurde angenommen, Variable ist aber NICHT normalverteilt 4) Modell = inhaltlich falsch

6 6 Modelltests (= Goodness for fit; Anpassung): z.b. Kolmogorow Smirnow Test (auf NV); NICHT SIGNIFIKANT!!! Levene Test (auf homogene Varianzen) (d.h. p > 0.05) Modelltest = signifikant (p kleiner als 0.05); das bedeutet: Modell gilt NICHT [d.h. keine NV, keine homogenen Varianzen, etc.] D.h. es gibt überzufällige Abweichungen vom Modell; daher ist bestimmtes Verfahren (z.b. VA) NICHT zulässig. Mach ich es trotzdem, dann riesiger Alpha Fehler. Gewählter Test kann Alpha Risiko nicht unter 5% kontrollieren. ACHTUNG: Nicht sagen: Es gilt NV, sondern Es kann näherungsweise NV angenommen werden. Grund: Modell kann nicht bewiesen werden, sondern nur widerlegt [vgl. Falsifizierbarkeit] Modelle = relativ robust, d.h. Abweichungen werden bis zu einem bestimmten Grad toleriert; ABER: Probleme wenn - Gruppengröße unter 10 - bei ungleichen Stichproben Problem des multiplen Testens: In Praxis meist viele Variablen erhoben (z.b. Geschlecht, Einkommen, Alter,...); ABER: wenn ich ALLE teste -> großer Alpha Fehler! (gilt für alle Tests, die Signifikanzniveau vorgeben, z.b. t-test, VA, U-Test,...). Bei k Tests: p = k mal Alpha (= Alpha Akkumulation). Außerdem bei vielen Tests mehr Gefahr, dass irgendwo ein Alpha Fehler. DAHER: 1) Hypothesenreduktion: - möglichst wenige Hypothesentests pro Untersuchung (nur sinnvolle Hypothesen testen!) - einzelne Variablen zusammenfassen zu Summenscores; FA zur Gewinnung von Subskalen - vorher überlegen, WAS man eigentlich wissen will [das testen, wo man sich einseitig testen trauen würde, weil man Richtung z.b. schon aus Theorie kennt; möglichst kein komplizierteres Verfahren für Haupthypothese als einfache VA-> Design überlegen!] 2) Kreuzvalidierung (d.h. ist das, was ich Stichprobe 1 signifikant ist, auch in Stichprobe 2 signifikant? vgl. Jackknife) 3) Alpha Adjustierung durchführen; ABER: Macht leidet darunter!

7 7 Alpha Adjustierung nach Bonferoni: Bei k Einzeltests prüfe Einzeltest nicht nach p kleiner als Alpha, sondern nach p kleiner Alpha durch k (p < α/k) BEISPIEL: 10 Einzeltests (z.b. Korrelationen), jeder davon getestet mit p = 0.05 / 10 = Das ergibt insgesamt Alpha = 5% (= Wahrscheinlichkeit für mindestens 1 Alpha Fehler bei allen Einzeltests gemeinsam betrachtet) ungünstig dabei: Macht wird sehr klein, daher nur sehr große Unterschiede nachweisbar! Alpha Adjustierung nach Bonferoni Holm: = serielle Korrektur des Alpha kleinstes Testergebnis wird verglichen mit α/k, zweitkleinstes mit α/k-1, drittkleinstes mit α/k-2, usw. Solange diese Alpha kleiner als 0.05 sind -> alle Tests unter 0.05 weniger streng als Bonferoni Korrektur BEISPIEL: Gibt es Geschlechtsunterschiede beim Autofahren? UV = Geschlecht (Männer, Frauen) AV = Autofahren (6 Ausprägungen: Rasen, Auffahren, Rechtsüberholen, Falschparken, Einstellung zum Benzinverbrauch, Einstellung zum Rauchen im Auto) 1. AV (Rasen): p = AV (Auffahren): p = AV (Rechtsüberholen): p = AV (Falschparken): p = Einstellung Benzinverbrauch: p = Einstellung Rauchen: p = 0.2 Fall 1: ohne Alpha Adjustierung alle p Werte der Einzeltests mit p = 0.05 vergleichen -> bei Test 1 4 ist p jeweils kleiner als 0.05, daher sind diese Tests signifikant. ABER: D.h. für die globale Ho gilt Folgendes: Alpha Akkumulierung, d.h. sehr großer Alpha Fehler, und zwar: α = p = 1 (1 α) m = 1 (1 0.05) 6 = = 0.26 D.h. Mit 26% Wahrscheinlichkeit wird Ho verworfen, obwohl sie gilt.

8 8 Fall 2: mit Alpha Adjustierung nach Bonferoni p Werte der Einzeltests vom kleinsten zum größten aufschreiben: korrigiertes Alpha ausrechnen: α/m = 0.05/6 = jetzt p Werte der Einzeltests damit vergleichen nur Test 1 = signifikant, da p = < ; ABER: Gesamttest hat geringe Macht! Fall 3: mit Alpha Adjustierung nach Bonferoni Holm Testwerte vom kleinsten zum größten aufschreiben korrigiertes Alpha für jeden Test ausrechnen, und zwar: - Test 1: p = α/m = 0.05/6 = Test 2: p = α/m-1 = 0.05/5 = Test 3: p = α/m-2 = Test 4: p = α/m-3 = Test 5: p = α/m-4 = Test 6: p = α/m-5 = 0.05 jetzt jedes dieser korrigierten Alpha mit dem unkorrigierten vergleichen - Test 1: p = < > signifikant - Test 2: p = 0.01 = > signifikant - Test 3: p = > > nicht signifikant Test 1 + Test 2 = signifikant, alle andren nicht Fall 4: Nur einen Teil der Tests prüfen (mit Bonferoni Korrektur), z.b. Tests Alpha korr = 0.05/3 = alle 3 Tests = signifikant [ABER Alpha insgesamt = 14%!] Hätte man die Ausprägungen der AV (= Test 4, 5, 6) NICHT erhoben, wäre globale Ho zu verwerfen gewesen...

9 9 2. LINEARE MODELLE: Folgende Verfahren bauen auf linearen Modellen auf: t Test VA (X iv = µ + αi + εv) Regression (Y = ax + b) multiple Regression (Z = ax + by+.. + c) Kovarianzanalyse Diskriminationsanalyse lineare Regression partielle Regression multivariate VA kanonische Korrelation lineare Modelle bestehen aus unabhängigen Variablen, die mit Gewichtung zusammengezählt werden und eine AV erklären sollen Verteilungsannahme = NV sind vereinfachendere Annahmen (zu allgemeine Strukturen sind kaum untersuchbar) In Daten gibt es potentiell ALLE Zusammenhänge, aber: - linearer Zusammenhang ist am einfachsten; - NV in Natur sehr häufig; - robuste Verfahren; - Zusammenhänge zumindest annäherungsweise mögliche Zusammenhänge in den Daten: - linearer Zusammenhang - quadratischer, kubischer, polynomialer, exponentieller, log-linearer Zusammenhang - Clusterbildung - Loch in der Mitte - Dreieckszusammenhang (z.b. bei Intelligenz und Kreativität) - Streifen, Muster, usw. In Praxis können sehr viele davon Sinn machen und Unterschiede erklären!

10 10 1) Einfache Varianzanalyse: => wird verwendet bei: 1 UV mit mehr als 2 Ausprägungen 1 AV BEISPIEL: Test eines Medikaments: UV: Dosierung (Placebo / einfache Dosis / doppelte Dosis) AV: Befindlichkeit Hypothesen: Ho: Es gibt keine Unterschiede zwischen den Gruppen H1: Es gibt einen Unterschied zwischen den Gruppen Varianz der Mittelwerte der Gruppen ist zu groß, daher muss irgendwo ein signifikanter Unterschied sein! MERKE: Beim Verwerfen der Ho verwirft das gesamte Modell; Grund für Verwerfen können sein Mittelwertsunterschiede oder Modellfehler! Ob Modell passt, testet man, wenn man schaut, ob Voraussetzungen für VA erfüllt sind. Trotzdem kann es zu Modellfehlern kommen, weil Modelltest nur jede Gruppe einzeln prüft! [d.h. innerhalb der Gruppen kann zwar NV sein, insgesamt aber nicht...] => Modellannahme: X = µ + αi + ε D.h. Vorhergesagter Wert setzt sich zusammen aus allgemeinem Mittelwert, Effekt der Gruppe und Messfehler. Werte innerhalb jeder Gruppe = NV (d.h. Fehler streut zufällig um Gruppenmittelwert) Jede Gruppe hat dieselbe Varianz -> Streuung 1 wird angenommen, die bei allen Gruppen gleich sein muss [homogene Varianzen] Verwerfungsbereich bei allen Gruppen derselbe. D.h. Jede Gruppe ist eine Gauß sche Glocke (-> NV); Position auf der X Achse kann unterschiedlich sein (-> Mittelwertsunterschiede), aber Schiefe und Wölbung der Kurve muss gleich sein (-> gleiche Streuung!) => Voraussetzungen für VA: (überprüft durch Modelltests) NV innerhalb jeder Gruppe -> Kolmogorow Smirnow Test Homogenität der Varianzen -> Levene Test, Cochran Test, Bartlett Test wenn alles signifikant (also jeweiliges p > 0.05), dann KEINE NV, KEINE homogenen Varianzen -> parameterfreie Verfahren verwenden (z.b. Kruskal Wallis Test = Rangvarianzanalyse)

11 11 Merke: Modell = relativ robust, Probleme gibt s aber, wenn: - Gruppengröße unter 10 - ungleich große Stichproben => Mathematik der VA: Quadrierte Abweichungen vom Mittelwert werden in voneinander statistisch unabhängige Bestandteile zerlegt (= Quadratsummenzerlegung), und zwar: 1) in Abweichungen der Messwerte innerhalb der Gruppen vom jeweiligen Gruppenmittelwert (F Test prüft, ob Abweichungen zu groß) und 2) in Abweichungen der Gruppenmittelwerte vom Gesamtmittelwert Quadratsummenzerlegung führt zu Chi - Quadrat-verteilter Größe; mit ihr sind Vergleiche auf F Test Basis möglich Varianz der Gruppenmittelwerte sollte: - unter Ho ca. so groß sein, wie die Varianz der Messwerte innerhalb der Gruppe, aber dividiert durch den Faktor Wurzel n - unter H1: eine Varianz größer, daher immer einseitige Testung => Interpretation der Unterschiede der VA: Signifikanz im F Test bedeutet: Es gibt irgendwo einen signifikanten Unterschied. Jetzt Frage: WO? Welche Gruppen unterscheiden sich? würde ich jetzt paarweise t Tests machen -> Alpha Kumulierung! DAHER: Lösung 1: A posteriori Test (post hoc) Nach der VA über die Daten laufen lassen; wird gemacht, wenn man noch nichts über die Unterschiede weiß (PC sucht sie mir), und zwar: Scheffé Test: adjustiert Daten so, dass Paarvergleich mit größtmöglichem F (und damit auch mit allen anderen!) auf demselben Niveau verwirft wie die VA macht Paarvergleiche (jede Gruppe mit jeder); ABER: bei zu vielen Vergleichen -> Verringerung der Macht!

12 12 Lösung 2: A priori Test = Kontraste: SPSS Output dazu: wenn man gezielte Hypothese, wo die Unterschiede liegen könnten, machen kann dafür weniger Paarvergleiche notwendig -> größere Macht ABER: Ich muss vorher richtig geraten haben, wo die Unterschiede liegen = Trendhypothese (z.b. Gruppe 1 ist besser als Gruppe 2 und 3) 1) Prüfen auf NV (Kolmogorow Smirnow Test): jede Gruppe 1x testen asymptotische Sign. (2 tailed) größer als 0.05 => Ho bleibt, d.h. NV darf angenommen werden. 2) Test auf Homogenität der Varianzen (Levene Test): detto 3) Varianzanalyse (ANOVA): Sign. < 0.05 => Ho verwerfen, d.h. es gibt einen Unterschied zwischen den Gruppen 4) Deskriptivstatistik: - schauen, wo MW am höchsten, niedrigsten, usw. - Stichprobengröße anschauen! (unter 10 schlecht, ungleiche n detto) 5) multiple comparisons (Scheffé Test): prüft, welche der Unterschiede signifikant sind (Paarvergleiche) -> Wert unter 0.05 = sign., d.h. dort sind Unterschiede 6) Kontraste (Contrast Test): jetzt Vergleich Gruppe 1 mit Gruppe 2 und 3; einmal mit, einmal ohne homogene Varianzen. Da Levene Test nicht signifikant war, Zeile mit homogenen Varianzen anschauen; wenn dort p < >sign. D.h. Gruppe ist wirksamer als Gruppe 1 allein 7) ANOVA Trendhypothese: between groups: linear term (bei unterschiedlichen Gruppengrößen weighted anschauen!) Deviation bei linear term: wenn hier sign, d.h. es gibt nicht nur einen linearen Zusammenhang quadrativ term / weighted: wenn hier sign., schauen wo. Hier: Wirkung des Medikaments am besten bei schwacher Dosis.

13 13 8) Inhaltliche Bewertung: Signifikanz allein ist KEINE Aussage! (Merke: Bei großen Stichproben ist kleiner Unterschied bald signifikant...) wichtig = erklärter Varianzanteil (η 2 ): gibt an den Anteil der durch die Gruppenunterschiede erklärten Varianz an der Gesamtvarianz (der AV) = Bestimmtheitsmaß der VA (Eta- Quadrat) anderer Varianzanteil bleibt unerklärt Eta liegt zwischen 0 1: - Eta = 0 heißt: keine Gruppenunterschiede - Eta = 1 heißt: Gruppenunterschiede erklären Gesamtvarianz 2) Kovarianzanalyse => wird verwendet: wenn zusätzlich zur Gruppenzugehörigkeit noch quantitativ mögliche Einflussgrößen existieren (vor allem Alter) BEISPIEL: UV = Geschlecht AV = Glaube an Teufel Kovariate = Glaube an Gott => Kovariate = mögliche Einflussgröße, die linearen Effekt auf AV oder UV hat. Dieser wird analog zur linearen Regression herausgerechnet. BEISPIEL: UV = Bildungsstand (niedrig / hoch) AV = Antisemitismus (stark / schwach) Ergebnis: je höher Bildung, desto geringer Antisemitismus => Modellannahme: ABER: Bildung hängt auch zusammen mit Alter, Alter hängt zusammen mit Antisemitismus (= Kohorteneffekt!) DAHER: Rechne ich Alter heraus -> kein Zusammenhang zwischen Bildung und Anitsemitismus Y (AV) = Gesamtmittelwert + Gruppeneffekt (UV) + Einfluss der Kovariate (bx + a) + Messfehler

14 14 => Mathematische Erklärung: Kovarianzanalyse = VA über die Residuen bei der Vorhersage der aus Kontrollvariable. 1) Residuen berechnen (= alles, was nach Abzug des Effekts der Kovariate übrigbleibt) BEISPIEL: X = a (Alter) + b X (Messwert) X = (Residuen) Regression der Kovariate auf AV (X) ergibt vorhergesagtes X dann pro Person Differenzen (X X ) bilden = Residuen was da übrigbleibt, kann durch Kovariate nicht vorhergesagt werden, geht über deren Vorhersage hinaus (= das was eigentlich interessiert, wenn Kovariate kontrolliert wird). D.h. Einfluss des Alters ist bereinigt 2) Mit Residuen macht man eine normale VA => Voraussetzungen für Kovarianz Analyse: homogene Varianzen wie bei VA NV homogene Steigerung der Regressionsgeraden der einzelnen Gruppen SPSS Output dazu: Frage: Gibt es einen Zusammenhang zwischen Teufelsglauben und Geschlecht? UV = Geschlecht AV = Glaube an Teufel Kovariate = Glaube an Gott Effekt des Glaubens an Gott wird herausgerechnet, mit dem Rest VA korrigiertes Modell [= Kovarianzanalyse] (setzt sich aus allen Einflüssen zusammen). Hier sign. Unterschied zwischen den Gruppen (p = 0.00) 1) Frage: WO ist dieser? sign. Unterschied zwischen Teufelglauben und Gottglauben (p = 0.00). D.h. aus dem Glauben an den Teufel lässt sich den Glaube an Gott vorhersagen. kein sign. Unterschied zwischen Teufelsglauben und Geschlecht (p = 0.076). D.h. keine Unterschiede zwischen Männern und Frauen hinsichtlich des Glaubens an den Teufel

15 15 2) Einfluss der Kovariate (Gottglauben) auf das Resultat: VA OHNE Kovariate noch einmal rechnen und die beiden Ergebnisse vergleichen Geschlecht hier nicht sign. (p = 0.102), d.h. Geschlecht hat noch immer keinen Einfluss auf Teufelsglauben! ABER: Modell insgesamt ist NICHT mehr signifikant (korr. Modell jetzt p = 0.102), d.h. Glaube an Gott beeinflusst den Glauben an den Teufel kaum. 3) Mehrfache Varianzanalyse: => verwendet bei: mehr als 1 UV und 1 AV BEISPIEL: UV = Dosis von Medikament (Placebo / schwach / stark) UV = Art des Medikaments (A, B) AV = Befinden => Untersucht werden: = 2faktorielle VA ( 2*3 Design -> 6 Zellen) D.h. es geht um Abhängigkeit einer Variablen von mehreren Effekten. * Effekte von A [= 1. UV], Effekte von B [= 2. UV] (= Haupteffekte) und * Wechselwirkungen A x B (= Interaktionen) BEISPIEL: Haupteffekt: Medikament A ist bei gleicher Dosierung um 3 Punkte besser auf Befindlichkeitsskala [= Haupteffekt von 2. UV] Wechselwirkung: Ww ja: je nach Dosis ändert sich, um wie viel Medikament A durchschnittlich besser ist als Medikament B keine Wechselwirkung heißt: mittlere Dosis ist bei jedem Medikament um durchschnittlich 3 Punkte besser. mögliche Wechselwirkungen in Bezug auf eine Zelle: => kombinierter Effekt auf AV ist: - noch höher als vorhergesagt (= multiplikativer Effekt) - nicht so hoch wie vorhergesagt (= Deckeneffekt) - Effekt verschwindet überhaupt (z.b. bei hohen Dosen kein Unterschied, bei niedrigen schon) - Effekt kehrt sich um (z.b. Medikament A in kleinen Dosen wirksamer, Medikament B in großen Dosen) bei mehr als 2 Faktoren kann es auch drei-, vierfache WW geben (hängt von Faktoranzahl ab)

16 16 => Modell: x ij = µ + α i + β j + αβ ij + ε ijm D.h. vorausgesagter Testwert setzt sich zusammen aus Gesamtmittelwert + Haupteffekt A + Haupteffekt B + WW AxB + Fehler => Voraussetzungen: Normalverteilung pro ZELLE! homogene Varianzen Intervallskalierte Daten, da Berechnung auf Unterschiede angelegt ist. => Problem: Bei 5 Variablen braucht man 2 5 = 32 VB, d.h. 32 Zellen (mit ca. 30 Personen wegen NV; bei weniger Personen -> hohe Zufallsschwankungen!) -> sehr hohe VPn - Zahlen! gesättigtes Modell: mit allen Haupteffekten und Wechselwirkungen Anpassung : Vergleich der WW wird unterdrückt (z.b. nur 2fache WW anschauen; 3-, 4-, 5fache nicht) Merke: Je größer die Stichprobe, umso mehr WW kann man zulassen. => ACHTUNG: Passt Modell nicht zu den Daten -> parameterfreie Verfahren; ABER: im SPSS gibt es keine... Lösung: Daten rangreihen und als 2-fache VA rechnen -> schwierige Interpretation (WW werden betrachtet als Differenzen von Differenzen ; geht aber NUR bei Intervallskala!) = rating after alignment: 1) für Berechnung der WW werden von Ursprungswerten, die durch die Haupteffekte erwarteten MW abgezogen, 2) dann rangreihen, 3) Kruksal-Wallis Test über die verschiedenen Zellen rechnen

17 17 SPSS Output dazu: UV1 = Geschlecht (M/W) UV2 = Religiosität AV = Glaube an Psy (erhoben mittels entsprechender Skala) 1) VA: korrigiertes Modell: p = > d.h. es gibt einen signifikanten Einfluss der UVs auf die AVs. als Kovariate dabei = Alter: p = > kein erkennbarere Einfluss auf AV WW zwischen Geschlecht und Religiosität wirken sich nicht aus (p = 0.085) 2) Interaktionsdiagramm dazu: deutet an, dass wenig religiöse Männer wenig an Psy glauben (weniger als wenig religiöse Frauen) [darf ich aber SO nicht behaupten, da WW nicht Interaktionsdiagramm: Was sehe ich an den Linien? parallele Linien = keine WW Scheren = z.b. Unterschiede zwischen Medikament 1 und Medikament 2 werden mit zunehmender Dosis größer / kleiner (Anstieg in 1 Gruppe kleiner / größer; Effekt verschiebt sich in einer Gruppe) Überkreuzungen = Umkehr der Effekte in Untergruppen Merke: Wenn es WW gibt, kann man nicht von Haupteffekten sprechen, besser = bedingte R2 = erklärte Varianz [steht unter der Tabelle mit der VA] = Anteil der Änderungen der AV durch Änderungen der UV Merke: Durch Quadratsummenzerlegung in voneinander unabhängige Teile passiert folgendes: -> unabhängige Tests werden durchgeführt, OHNE Post hoc Test bei mehrfachen VA: im SPSS einzeln pro Faktor durchgeführt (nur zwischen Subjektfaktoren) ebenso bei Kontrasten -> einzelne Haupteffekte bzw. WW des gesättigten Modells können so ausgeschlossen werden.

18 18 4) Einfache Varianzanalyse mit Messwiederholung: => wird verwendet bei: 1UV in mehr als 2 Zeitpunkten / Faktorstufen (bei 2 Ausprägungen der UV -> t Test für unabhängige Stichproben) 1AV BEISPIEL: UV = Therapieeffekt (vor / während / nach) bei jeweils EINER VP (d.h. hier wird jede VP 3x getestet) AV = Befindlichkeit => Vorteil: - man braucht weniger Personen - Fehlervarianz durch Zufallsunterschiede zwischen den Stichproben wird vermieden (= zufällige Unterschiede, die dadurch entstehen, welche VPn bei Randomisierung in welcher VG gelandet sind) Merke: unabhängige Stichproben: => Nachteil: unterschiedliche Ausgangslage bei den Gruppen, je nachdem, welche VPn bei Randomisierung in welcher VG gelandet sind. Verfahren berücksichtigen dies durch vorsichtigeres Vorgehen beim Verwerfen der Ho. abhängige Stichproben (bei Messwiederholung!): gleiche Ausgangslage zwischen den Gruppen, weil ja immer dieselbe Person getestet wird. Höhere Macht. - Reihenfolgeneffekte (Lösung = ausbalanciertes Design) - Lerneffekte - manches kann man so nicht testen (z.b. Person soll sich 2X Film mit derselben Ausgangserwartung ansehen) => Modell: Y= µ + α i + π m + απ im + s D.h. vorhergesagter Wert = globaler Erwartungswert + Effekt des Zeitpunkts + Person (Ausgangslage) + WW Zeit x Person + Fehler Annahme: Zeitpunkt wirkt auf jede Person gleich. = in Praxis unrealistisch (Person kann sich zwischen Zeitpunkten verbessern; Tagesverfassung schlecht -> Person kann normale Ausgangslage nicht erbringen) JEDE Person verbessert sich bei Vergleich 1. Testung mit 2. Testung und 3. Testung, in Wirklichkeit aber eine Person mehr, eine andere weniger...

19 19 => Mathematik: Varianzzerlegung 1) within subjects (innerhalb der Personen [also zwischen den Testzeitpunkten! = VA zwischen] = eigentlich interessante Varianz 2) between subjects (innerhalb der zu einem Zeitpunkt jeweils getesteten Gruppe [= VA innen] Gerechnet wird mit Messwertdifferenzen -> NV dieser Differenzen = Voraussetzung! Sphärizität: Bei mehr als 2 Zeitpunkten müssen Varianzen der Messwertdifferenzen zwischen den Zeitpunkten [also Zeitpunkt 1 Zeitpunkt 2, Zeitpunkt 1 Zeitpunkt 3, Zeitpunkt 2 Zeitpunkt 3] homogen sein. Wenn das nicht so ist, wird Verfahren progressiv, d.h. Alpha Fehler wird größer (Ho wird leicht verworfen!) Prüfung der Spärizität: 3) Mauchly Test: - wenn NICHT signifikant (p < 0.05) -> Varianzen der Messwertdifferenzen sind homogen - wenn signifikant (p > 0.05) -> Varianzen der Messwertdifferenzen sind nicht homogen. D.h. Werte korrelieren zu stark miteinander -> Folge: statistische Info wird weniger (redundant); F Test (Mauchly ist so einer) geht von unabhängigen Werten aus. Bei nicht homogenen Varianzen der Messwertdifferenzen: Verlust an Personen, an Freiheitsgraden. Ist Mauchly Test signifikant, dann: 4) Greenhouse Geisser Korrektur: - Freiheitsgrade werden beim F Test mit passendem Wert ε (zwischen 0 1; wird aus den Daten geschätzt) multipliziert. - Folge: o Freiheitsgrade werden kleiner o Progressivität wird verhindert - Nachteil: Bei kleinen Stichproben wird Korrektur konservativ (= schlecht)

20 20 DAHER bei kleinen Stichproben statt Greenhouse Giesser: 5) Huynh Feldt Korrektur: - wenn Stichprobe klein - immer wenn ε > ) dann Scheffé Test (geht aber mit SPSS nicht...) => Sind Voraussetzungen für VA nicht erfüllt -> parameterfreies Verfahren: Friedmann Test [ABER weniger Macht als Kruskal Wallis im Verhältnis zu VA!!!]: 2. Messwiederholungen werden wie Faktoren behandelt. Nur sinnvoll, wenn jede Stufe des einen Faktors mit jeder Stufe des anderen kombiniert bei jeder VP beobachtet werden kann (dann werden WW geprüft). Voraussetzungen für Friedmann Test: SPSS Output dazu: UV = Zeitpunkte AV = Beschwerden - abhängige Daten - mehr als 2 Stichproben (Messzeitpunkte) - mindestens 5 Fälle pro Gruppe (Messzeitpunkt) 1) Mauchly Test auf Sphärizität: Intersubjekteffekt nicht signifikant (p = 0.25) -> Sphärizität ist gegeben, ε nahe 1. Korrektur mit Greenhouse Gneisser / Huyndt Feldt nicht notwendig (schadet aber auch nix) 2) Test der Intersubjekteffekte [= VA mit Messwiederholung] Da Sphärizität angenommen werden kann, bleiben Freiheitsgrade gleich (df = 2 bei 3 Gruppen). Darunter stehen die df bei den jeweiligen Korrekturen (wird ε korrigiert -> df werden kleiner). p = > signifikant; DAHER: Effekt ist signifikant (Beschwerden ändern sich während der Messzeitpunkte) 3) Intersubjekteffekte Kontraste: - bei linearem Trend: p = > signifikant; d.h. es gibt Trend zu einem linearen Zusammenhang - bei quadratischem Zusammenhang p = nicht signifikant 4) Profildiagramm: hier sieht man auch den linearen Trend

21 21 5) Mehrfache Varianzanalyse mit Messwiederholung: => wird verwendet: mehr als 1 UV + mehr Zeitpunkte BEISPIEL: UV1 = Zeitpunkt (vor / während / nach) UV2 = Geschlecht (M / W) UV3 = Alter (jung / mittel / alt) AV = Befindlichkeit => Modell: Merke: dieselben Personen werden hier 3x getestet -> abhängige Stichproben Verbindung von Intersubjektfaktoren und Zwischensubjektfaktoren (eventuell mit Kovariaten); getestet werden: - Haupteffekte und - WW Effekte der UV und - Messwiederholungsvarianz Nachteil: je komplexer alles wir, umso größere Stichprobe braucht man, um Modell zuverlässig schätzen zu können! => Voraussetzungen: NV pro Zelle homogene Varianzen pro Zelle Sphärizität Homogenität der Kovarianzmatrix d.h. Kovarianzmatrizen der abhängigen Variable über die Gruppen müssen gleich sein -> schwierig bei kleinen Stichproben! wird geprüft mit: Box s M Test: ist er NICHT signifikant, so kann angenommen werden, dass die Strukturen in den Gruppen gleich sind.

Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse

Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse Univariate Varianz- und Kovarianzanlyse, Multivariate Varianzanalyse und Varianzanalyse mit Messwiederholung finden sich unter

Mehr

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Einfaktorielle Versuchspläne 27/40 Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Abweichung Einfach Differenz Helmert Wiederholt Vergleich Jede Gruppe mit Gesamtmittelwert

Mehr

Business Value Launch 2006

Business Value Launch 2006 Quantitative Methoden Inferenzstatistik alea iacta est 11.04.2008 Prof. Dr. Walter Hussy und David Tobinski UDE.EDUcation College im Rahmen des dokforums Universität Duisburg-Essen Inferenzstatistik Erläuterung

Mehr

6. METRISCHE UND KATEGORIALE MERKMALE

6. METRISCHE UND KATEGORIALE MERKMALE 6. METRISCHE UND KATEGORIALE MERKMALE wenn an einer Beobachtungseinheit eine (oder mehrere) metrische und eine (oder mehrere) kategoriale Variable(n) erhoben wurden Beispiel: Haushaltsarbeit von Teenagern

Mehr

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang

Mehr

Tabelle 6a: Deskriptive Statistiken der metrischen Variablen

Tabelle 6a: Deskriptive Statistiken der metrischen Variablen Ergebnisse 77 5 Ergebnisse Das folgende Kapitel widmet sich der statistischen Auswertung der Daten zur Ü- berprüfung der Hypothesen. Die hier verwendeten Daten wurden mit den in 4.3 beschriebenen Instrumenten

Mehr

Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel

Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel 16.11.01 MP1 - Grundlagen quantitativer Sozialforschung - (4) Datenanalyse 1 Gliederung Datenanalyse (inferenzstatistisch)

Mehr

Überblick über die Verfahren für Ordinaldaten

Überblick über die Verfahren für Ordinaldaten Verfahren zur Analyse ordinalskalierten Daten 1 Überblick über die Verfahren für Ordinaldaten Unterschiede bei unabhängigen Stichproben Test U Test nach Mann & Whitney H Test nach Kruskal & Wallis parametrische

Mehr

Übungsserie Nr. 10 mit Lösungen

Übungsserie Nr. 10 mit Lösungen Übungsserie Nr. 10 mit Lösungen 1 Ein Untersuchungsdesign sieht einen multivariaten Vergleich einer Stichprobe von Frauen mit einer Stichprobe von Männern hinsichtlich der Merkmale X1, X2 und X3 vor (Codierung:

Mehr

Fortgeschrittene Statistik Logistische Regression

Fortgeschrittene Statistik Logistische Regression Fortgeschrittene Statistik Logistische Regression O D D S, O D D S - R A T I O, L O G I T T R A N S F O R M A T I O N, I N T E R P R E T A T I O N V O N K O E F F I Z I E N T E N, L O G I S T I S C H E

Mehr

Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear":

Das Dialogfeld für die Regressionsanalyse (Lineare Regression) findet sich im Statistik- Menu unter Regression-Linear: Lineare Regression Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear": Im einfachsten Fall werden mehrere Prädiktoren (oder nur

Mehr

V A R I A N Z A N A L Y S E

V A R I A N Z A N A L Y S E V A R I A N Z A N A L Y S E Ziel / Funktion: statistische Beurteilung des Einflusses von nominal skalierten (kategorialen) Faktoren auf intervallskalierte abhängige Variablen Vorteil: die Wirkung von mehreren,

Mehr

Einfache Varianzanalyse für abhängige

Einfache Varianzanalyse für abhängige Einfache Varianzanalyse für abhängige Stichproben Wie beim t-test gibt es auch bei der VA eine Alternative für abhängige Stichproben. Anmerkung: Was man unter abhängigen Stichproben versteht und wie diese

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungsfreie Verfahren Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften

Mehr

METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER

METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER DAS THEMA: INFERENZSTATISTIK IV INFERENZSTATISTISCHE AUSSAGEN FÜR ZUSAMMENHÄNGE UND UNTERSCHIEDE Inferenzstatistik für Zusammenhänge Inferenzstatistik für Unterschiede

Mehr

Kapitel 7: Varianzanalyse mit Messwiederholung

Kapitel 7: Varianzanalyse mit Messwiederholung Kapitel 7: Varianzanalyse mit Messwiederholung Durchführung einer einfaktoriellen Varianzanalyse mit Messwiederholung 1 Durchführung einer zweifaktoriellen Varianzanalyse mit Messwiederholung auf einem

Mehr

Nichtparametrische statistische Verfahren

Nichtparametrische statistische Verfahren Nichtparametrische statistische Verfahren (im Wesentlichen Analyse von Abhängigkeiten) Kategorien von nichtparametrischen Methoden Beispiel für Rangsummentests: Wilcoxon-Test / U-Test Varianzanalysen 1-faktorielle

Mehr

Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression

Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression Speziell im Zusammenhang mit der Ablehnung der Globalhypothese werden bei einer linearen Einfachregression weitere Fragestellungen

Mehr

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank

Mehr

Varianzanalyse (ANOVA: analysis of variance)

Varianzanalyse (ANOVA: analysis of variance) Varianzanalyse (AOVA: analysis of variance) Einfaktorielle VA Auf der Basis von zwei Stichproben wird bezüglich der Gleichheit der Mittelwerte getestet. Variablen müssen Variablen nur nominalskaliert sein.

Mehr

Varianzananalyse. How to do

Varianzananalyse. How to do Varianzananalyse How to do Die folgende Zusammenfassung zeigt beispielhaft, wie eine Varianzanalyse mit SPSS durchgeführt wird und wie die Ergebnisse in einem Empra-Bericht oder in einer Bachelor- oder

Mehr

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen. Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes

Mehr

Einleitung 19. Teil I Datenanalyse und Modellbildung Grundlagen 25

Einleitung 19. Teil I Datenanalyse und Modellbildung Grundlagen 25 Inhaltsverzeichnis Einleitung 19 Zu diesem Buch 19 Konventionen in diesem Buch 20 Was Sie nicht lesen müssen 21 Falsche Voraussetzungen 21 Wie dieses Buch aufgebaut ist 21 Teil I: Datenanalyse und Grundlagen

Mehr

2. Korrelation, lineare Regression und multiple Regression

2. Korrelation, lineare Regression und multiple Regression multiple 2.2 Lineare 2.2 Lineare 1 / 130 2.2 Lineare 2 / 130 2.1 Beispiel: Arbeitsmotivation Untersuchung zur Motivation am Arbeitsplatz in einem Chemie-Konzern 25 Personen werden durch Arbeitsplatz zufällig

Mehr

Florian Frötscher und Demet Özçetin

Florian Frötscher und Demet Özçetin Statistische Tests in der Mehrsprachigkeitsforschung Aufgaben, Anforderungen, Probleme. Florian Frötscher und Demet Özçetin florian.froetscher@uni-hamburg.de SFB 538 Mehrsprachigkeit Max-Brauer-Allee 60

Mehr

Willkommen zur Vorlesung Statistik

Willkommen zur Vorlesung Statistik Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang

Mehr

Kommentierter SPSS-Ausdruck zur logistischen Regression

Kommentierter SPSS-Ausdruck zur logistischen Regression Daten: POK V AG 3 (POKV_AG3_V07.SAV) Kommentierter SPSS-Ausdruck zur logistischen Regression Fragestellung: Welchen Einfluss hat die Fachnähe und das Geschlecht auf die interpersonale Attraktion einer

Mehr

Beispiel für eine multivariate Varianzanalyse (MANOVA) Daten: POKIV_Terror_V12.sav

Beispiel für eine multivariate Varianzanalyse (MANOVA) Daten: POKIV_Terror_V12.sav Beispiel für eine multivariate Varianzanalyse () Daten: POKIV_Terror_V12.sav Es soll überprüft werden, inwieweit das ATB-Syndrom (Angst vor mit den drei Subskalen affektive Angst von, Terrorpersistenz,

Mehr

Einfache statistische Auswertungen mit dem Programm SPSS

Einfache statistische Auswertungen mit dem Programm SPSS Einfache statistische Auswertungen mit dem Programm SPSS Datensatz: fiktive_daten.sav Dipl. Päd. Anne Haßelkus Dr. Dorothea Dette-Hagenmeyer 11/2011 Überblick 1 Deskriptive Statistiken; Mittelwert berechnen...

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Anhang A: Fragebögen und sonstige Unterlagen

Anhang A: Fragebögen und sonstige Unterlagen Anhang Anhang A: Fragebögen und sonstige Unterlagen A.: Flyer zur Probandenrekrutierung 46 A.: Fragebogen zur Meditationserfahrung 47 48 A.3: Fragebogen Angaben zur Person 49 5 5 A.4: Termin- und Einladungsschreiben

Mehr

Korrelation - Regression. Berghold, IMI

Korrelation - Regression. Berghold, IMI Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines

Mehr

Auswertung mit dem Statistikprogramm SPSS: 30.11.05

Auswertung mit dem Statistikprogramm SPSS: 30.11.05 Auswertung mit dem Statistikprogramm SPSS: 30.11.05 Seite 1 Einführung SPSS Was ist eine Fragestellung? Beispiel Welche statistische Prozedur gehört zu welcher Hypothese? Statistische Berechnungen mit

Mehr

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression Institut für Soziologie Methoden 2 Regressionsanalyse I: Einfache lineare Regression Programm Anwendungsbereich Vorgehensweise Interpretation Annahmen Zusammenfassung Übungsaufgabe Literatur # 2 Anwendungsbereich

Mehr

Varianzanalytische Methoden Zweifaktorielle Versuchspläne 4/13. Durchführung in SPSS (File Trait Angst.sav)

Varianzanalytische Methoden Zweifaktorielle Versuchspläne 4/13. Durchführung in SPSS (File Trait Angst.sav) Zweifaktorielle Versuchspläne 4/13 Durchführung in SPSS (File Trait Angst.sav) Analysieren > Allgemeines Lineares Modell > Univariat Zweifaktorielle Versuchspläne 5/13 Haupteffekte Geschlecht und Gruppe

Mehr

Webergänzung zu Kapitel 10

Webergänzung zu Kapitel 10 Webergänzung zu Kapitel 10 10.1.4 Varianzanalyse (ANOVA: analysis of variance) Im Kapitel 10 haben wir uns hauptsächlich mit Forschungsbeispielen beschäftigt, die nur zwei Ergebnissätze hatten (entweder

Mehr

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1 Inhaltsverzeichnis Regressionsanalyse... 2 Lernhinweise... 2 Einführung... 2 Theorie (1-8)... 2 1. Allgemeine Beziehungen... 3 2. 'Best Fit'... 3 3. 'Ordinary Least Squares'... 4 4. Formel der Regressionskoeffizienten...

Mehr

Quantitative Methoden der Bildungsforschung

Quantitative Methoden der Bildungsforschung Glieung Wieholung Korrelationen Grundlagen lineare Regression Lineare Regression in SPSS Übung Wieholung Korrelationen Standardisiertes Zusammenhangsmaß (unstandardisiert: Kovarianz) linearer Zusammenhang

Mehr

(2) Mittels welcher Methode ist es im ALM möglich kategoriale Variablen als Prädiktoren in eine Regressionsgleichung zu überführen?

(2) Mittels welcher Methode ist es im ALM möglich kategoriale Variablen als Prädiktoren in eine Regressionsgleichung zu überführen? Beispielaufgaben LÖSUNG (1) Grenzen Sie eine einfache lineare Regression von einem Random Intercept Modell mit nur einem Level1-Prädiktor ab! a. Worin unterscheiden sich die Voraussetzungen? - MLM braucht

Mehr

Teil II: Einführung in die Statistik

Teil II: Einführung in die Statistik Teil II: Einführung in die Statistik (50 Punkte) Bitte beantworten Sie ALLE Fragen. Es handelt sich um multiple choice Fragen. Sie müssen die exakte Antwortmöglichkeit angeben, um die volle Punktzahl zu

Mehr

Inhaltsverzeichnis. Vorwort 1. Kapitel 1 Einführung 3. Kapitel 2 Messtheorie und deskriptive Statistik 13

Inhaltsverzeichnis. Vorwort 1. Kapitel 1 Einführung 3. Kapitel 2 Messtheorie und deskriptive Statistik 13 Inhaltsverzeichnis Vorwort 1 Kapitel 1 Einführung 3 1.1 Ziele... 4 1.2 Messtheorie und deskriptive Statistik... 8 1.3 Grundlagen der Wahrscheinlichkeitsrechnung... 9 1.4 Inferenzstatistik... 9 1.5 Parametrische

Mehr

Aufgaben zu Kapitel 7:

Aufgaben zu Kapitel 7: Aufgaben zu Kapitel 7: Aufgabe 1: In einer Klinik sollen zwei verschiedene Therapiemethoden miteinander verglichen werden. Zur Messung des Therapieerfolges werden die vorhandenen Symptome einmal vor Beginn

Mehr

Univariate/ multivariate Ansätze. Klaus D. Kubinger. Test- und Beratungsstelle. Effektgrößen

Univariate/ multivariate Ansätze. Klaus D. Kubinger. Test- und Beratungsstelle. Effektgrößen Univariate/ multivariate Ansätze Klaus D. Kubinger Effektgrößen Rasch, D. & Kubinger, K.D. (2006). Statistik für das Psychologiestudium Mit Softwareunter-stützung zur Planung und Auswertung von Untersuchungen

Mehr

3 Zusammenhangsmaße Zusammenhangshypothesen

3 Zusammenhangsmaße Zusammenhangshypothesen 3 Zusammenhangsmaße Zusammenhangshypothesen Zusammenhänge (zwischen 2 Variablen) misst man mittels Korrelationen. Die Wahl der Korrelation hängt ab von: a) Skalenniveau der beiden Variablen: 1) intervallskaliert

Mehr

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 LÖSUNG 9B a) Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 Man kann erwarten, dass der Absatz mit steigendem Preis abnimmt, mit höherer Anzahl der Außendienstmitarbeiter sowie mit erhöhten

Mehr

Varianzanalyse ANOVA

Varianzanalyse ANOVA Varianzanalyse ANOVA Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/23 Einfaktorielle Varianzanalyse (ANOVA) Bisher war man lediglich in der Lage, mit dem t-test einen Mittelwertsvergleich für

Mehr

Analytische Statistik I. Statistische Methoden in der Korpuslinguistik Heike Zinsmeister WS 2009/10

Analytische Statistik I. Statistische Methoden in der Korpuslinguistik Heike Zinsmeister WS 2009/10 Analytische Statistik I Statistische Methoden in der Korpuslinguistik Heike Zinsmeister WS 2009/10 Testen Anpassungstests (goodness of fit) Weicht eine gegebene Verteilung signifikant von einer bekannten

Mehr

Diskriminanzanalyse Beispiel

Diskriminanzanalyse Beispiel Diskriminanzanalyse Ziel bei der Diskriminanzanalyse ist die Analyse von Gruppenunterschieden, d. h. der Untersuchung von zwei oder mehr Gruppen hinsichtlich einer Vielzahl von Variablen. Diese Methode

Mehr

Etwas positive Tendenz ist beim Wechsel der Temperatur von 120 auf 170 zu erkennen.

Etwas positive Tendenz ist beim Wechsel der Temperatur von 120 auf 170 zu erkennen. Explorative Datenanalyse Erstmal die Grafiken: Aufreisskraft und Temperatur 3 1-1 N = 1 15 17 Temperatur Diagramm 3 1 95% CI -1 N = 1 15 17 Temperatur Etwas positive Tendenz ist beim Wechsel der Temperatur

Mehr

Varianzanalyse * (1) Varianzanalyse (2)

Varianzanalyse * (1) Varianzanalyse (2) Varianzanalyse * (1) Einfaktorielle Varianzanalyse (I) Die Varianzanalyse (ANOVA = ANalysis Of VAriance) wird benutzt, um Unterschiede zwischen Mittelwerten von drei oder mehr Stichproben auf Signifikanz

Mehr

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall )

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall ) Zusammenhänge von Variablen Regressionsanalysen linearer Zusammenhang ( Idealfall ) kein Zusammenhang nichtlinearer monotoner Zusammenhang (i.d.regel berechenbar über Variablentransformationen mittels

Mehr

Statistik II für Betriebswirte Vorlesung 2

Statistik II für Betriebswirte Vorlesung 2 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 2 21. Oktober 2014 Verbundene Stichproben Liegen zwei Stichproben vor, deren Werte einander

Mehr

Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Klausur, Multivariate Verfahren, SS 2006, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 08.08.2006 Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Gesamtpunkte: 39 Aufgabe

Mehr

Gestaltungsempfehlungen

Gestaltungsempfehlungen Professur E-Learning und Neue Medien Institut für Medienforschung Philosophische Fakultät Lehren und Lernen mit Medien I Gestaltungsempfehlungen Überblick Auswahl der Empfehlungen Gestaltungseffekte Empirische

Mehr

Grundlagen von Versuchsmethodik und Datenanalyse

Grundlagen von Versuchsmethodik und Datenanalyse Grundlagen von Versuchsmethodik und Datenanalyse Der Anfang: Hypothesen über Ursache-Wirkungs-Zusammenhänge Ursache Wirkung Koffein verbessert Kurzzeitgedächtnis Gewaltfilme führen zu aggressivem Verhalten

Mehr

25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche

25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche Ruhr-Universität Bochum 25. Januar 2010 1 / 75 2 / 75 4.1 Beispiel: Vergleich von verschiedenen Unterrichtsmethoden Zwei Zufallsstichproben (A und B) mit je 10 Schülern und 8 Schülern Gruppe A wird nach

Mehr

12. Vergleich mehrerer Stichproben

12. Vergleich mehrerer Stichproben 12. Vergleich mehrerer Stichproben Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Häufig wollen wir verschiedene Populationen, Verfahren, usw. miteinander vergleichen. Beipiel: Vergleich

Mehr

Standardab er des. Testwert = 145.5 95% Konfidenzintervall. T df Sig. (2-seitig) Differenz Untere Obere -2.011 698.045-5.82-11.50 -.14.

Standardab er des. Testwert = 145.5 95% Konfidenzintervall. T df Sig. (2-seitig) Differenz Untere Obere -2.011 698.045-5.82-11.50 -.14. Aufgabe : einfacher T-Test Statistik bei einer Stichprobe Standardfehl Standardab er des Mittelwert weichung Mittelwertes 699 39.68 76.59 2.894 Test bei einer Sichprobe Testwert = 45.5 95% Konfidenzintervall

Mehr

Kapitel 3: Interpretationen

Kapitel 3: Interpretationen Kapitel 3: 1. Interpretation von Outputs allgemein... 1 2. Interpretation von Signifikanzen... 1 2.1. Signifikanztests / Punktschätzer... 1 2.2. Konfidenzintervalle... 2 3. Interpretation von Parametern...

Mehr

Studiendesign/ Evaluierungsdesign

Studiendesign/ Evaluierungsdesign Jennifer Ziegert Studiendesign/ Evaluierungsdesign Praxisprojekt: Nutzerorientierte Evaluierung von Visualisierungen in Daffodil mittels Eyetracker Warum Studien /Evaluierungsdesign Das Design einer Untersuchung

Mehr

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für

Mehr

Prüfen von Mittelwertsunterschieden: t-test

Prüfen von Mittelwertsunterschieden: t-test Prüfen von Mittelwertsunterschieden: t-test Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) t-test

Mehr

Statistische Auswertung:

Statistische Auswertung: Statistische Auswertung: Die erhobenen Daten mittels der selbst erstellten Tests (Surfaufgaben) Statistics Punkte aus dem Punkte aus Surftheorietest Punkte aus dem dem und dem Surftheorietest max.14p.

Mehr

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten.

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten. Statistik für Kommunikationswissenschaftler Wintersemester 2009/200 Vorlesung Prof. Dr. Helmut Küchenhoff Übung Cornelia Oberhauser, Monia Mahling, Juliane Manitz Thema 4 Homepage zur Veranstaltung: http://www.statistik.lmu.de/~helmut/kw09.html

Mehr

ANalysis Of VAriance (ANOVA) 1/2

ANalysis Of VAriance (ANOVA) 1/2 ANalysis Of VAriance (ANOVA) 1/2 Markus Kalisch 16.10.2014 1 ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich)?

Mehr

12.1 Wie funktioniert ein Signifikanztest?

12.1 Wie funktioniert ein Signifikanztest? Sedlmeier & Renkewitz Kapitel 12 Signifikanztests 12.1 Wie funktioniert ein Signifikanztest? Zentrales Ergebnis eine Signifikanztests: Wie wahrscheinlich war es unter der Bedingung dass H0 gilt, diesen

Mehr

3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate

3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate 31 und 31 und (), Methode der 33 Das allgemeine (), Methode der kleinsten Quadrate 37 Modelle mit Messwiederholungen 1 / 113 Eine grundsätzliche Bemerkung zu Beginn Es bestehen viele Ähnlichkeiten zwischen

Mehr

Von der Untersuchungsfrage zu statistischen Hypothesen, und wie war das nochmal mit dem α- und

Von der Untersuchungsfrage zu statistischen Hypothesen, und wie war das nochmal mit dem α- und Von der Untersuchungsfrage zu statistischen Hypothesen, und wie war das nochmal mit dem α- und β-fehler? Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de

Mehr

Messung von Veränderungen. Dr. Julia Kneer Universität des Saarlandes

Messung von Veränderungen. Dr. Julia Kneer Universität des Saarlandes von Veränderungen Dr. Julia Kneer Universität des Saarlandes Veränderungsmessung Veränderungsmessung kennzeichnet ein Teilgebiet der Methodenlehre, das direkt mit grundlegenden Fragestellungen der Psychologie

Mehr

Lineare Modelle in R: Einweg-Varianzanalyse

Lineare Modelle in R: Einweg-Varianzanalyse Lineare Modelle in R: Einweg-Varianzanalyse Achim Zeileis 2009-02-20 1 Datenaufbereitung Wie schon in der Vorlesung wollen wir hier zur Illustration der Einweg-Analyse die logarithmierten Ausgaben der

Mehr

Kommentierter SPSS-Output für die multiple Regressionsanalyse (SPSS-Version 17)

Kommentierter SPSS-Output für die multiple Regressionsanalyse (SPSS-Version 17) R.Niketta Multiple Regressionsanalyse Kommentierter SPSS-Output für die multiple Regressionsanalyse (SPSS-Version 17) Daten: Selbstdarstellung und Kontaktsuche in studi.vz (POK VIII, AG 3) Fragestellung:

Mehr

Eine Einführung in R: Statistische Tests

Eine Einführung in R: Statistische Tests Eine Einführung in R: Statistische Tests Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig http://www.uni-leipzig.de/ zuber/teaching/ws12/r-kurs/

Mehr

Ausgewählte Kapitel der Statistik: Regressions- u. varianzanalytische Modelle Lösung von Grundaufgaben mit SPSS (ab V. 11.0)

Ausgewählte Kapitel der Statistik: Regressions- u. varianzanalytische Modelle Lösung von Grundaufgaben mit SPSS (ab V. 11.0) Ausgewählte Kapitel der Statistik: Regressions- u. varianzanalytische e Lösung von Grundaufgaben mit SPSS (ab V..0) Text: akmv_v.doc Daten: akmv??.sav Lehrbuch: W. Timischl, Biostatistik. Wien - New York:

Mehr

Statistik. Jan Müller

Statistik. Jan Müller Statistik Jan Müller Skalenniveau Nominalskala: Diese Skala basiert auf einem Satz von qualitativen Attributen. Es existiert kein Kriterium, nach dem die Punkte einer nominal skalierten Variablen anzuordnen

Mehr

Faktorenanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007

Faktorenanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007 Faktorenanalyse Bacher, SoSe2007 1. Grundlegende Verfahren explorative FA (EXFA): Für eine Menge von Variablen/Items werden zugrunde liegende gemeinsame (latente) Dimensionen/Faktoren gesucht, die Faktorstruktur

Mehr

Auswertung von kritischen Daten Vorgehensweise anhand eines Beispiels Visual-XSel 10.0

Auswertung von kritischen Daten Vorgehensweise anhand eines Beispiels Visual-XSel 10.0 Auswertung von kritischen Daten Vorgehensweise anhand eines Beispiels Visual-XSel 10.0??? Curt Ronniger 2007 Bei Neueinstieg in das Programm, sollte zunächst die Dokumentation XSelDoE10.pdf gelesen werden.

Mehr

Angewandte Statistik 3. Semester

Angewandte Statistik 3. Semester Angewandte Statistik 3. Semester Übung 5 Grundlagen der Statistik Übersicht Semester 1 Einführung ins SPSS Auswertung im SPSS anhand eines Beispieles Häufigkeitsauswertungen Grafiken Statistische Grundlagen

Mehr

Hypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav

Hypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav Hypothese: Die Beschäftigung mit Kunst ist vom Bildungsgrad abhängig. 1. Annahmen Messniveau: Modell: Die Skala zur Erfassung der

Mehr

Statistik II für Betriebswirte Vorlesung 3

Statistik II für Betriebswirte Vorlesung 3 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 3 5. November 2013 Beispiel: Aktiensplit (Aczel & Sounderpandan, Aufg. 14-28) Ein Börsenanalyst

Mehr

Varianzanalyse. Seminar: Multivariate Verfahren Dr. Thomas Schäfer. Datum: 25. Mai 2010

Varianzanalyse. Seminar: Multivariate Verfahren Dr. Thomas Schäfer. Datum: 25. Mai 2010 Varianzanalyse Seminar: Multivariate Verfahren Dozent: Dr. Thomas Schäfer Referenten: Ralf Hopp, Michaela Haase, Tina Giska Datum: 25. Mai 2010 Gliederung I Theorieteil 1. Das Prinzip der Varianzanalyse

Mehr

FAKTORIELLE VERSUCHSPLÄNE. Andreas Handl

FAKTORIELLE VERSUCHSPLÄNE. Andreas Handl FAKTORIELLE VERSUCHSPLÄNE Andreas Handl 1 Inhaltsverzeichnis 1 Versuchsplanung 4 2 Einfaktorielle Varianzanalyse 6 2.1 DieAnnahmen... 6 2.2 Die ANOVA-Tabelle und der F -Test... 6 2.3 Versuche mit zwei

Mehr

ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II

ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II 1.1 Durch welche Elemente lässt sich laut der Formel für die multiple Regression der Wert einer Person auf einer bestimmten abhängigen Variable Y vorhersagen? a)

Mehr

Univariate Lineare Regression. (eine unabhängige Variable)

Univariate Lineare Regression. (eine unabhängige Variable) Univariate Lineare Regression (eine unabhängige Variable) Lineare Regression y=a+bx Präzise lineare Beziehung a.. Intercept b..anstieg y..abhängige Variable x..unabhängige Variable Lineare Regression y=a+bx+e

Mehr

Tutorial: Homogenitätstest

Tutorial: Homogenitätstest Tutorial: Homogenitätstest Eine Bank möchte die Kreditwürdigkeit potenzieller Kreditnehmer abschätzen. Einerseits lebt die Bank ja von der Vergabe von Krediten, andererseits verursachen Problemkredite

Mehr

Inhalt 1 Einführung... 1 2 Ausgewählte Begriffe... 10 3 Vorgehensweise im Überblick... 14

Inhalt 1 Einführung... 1 2 Ausgewählte Begriffe... 10 3 Vorgehensweise im Überblick... 14 VII 1 Einführung... 1 1.1 Warum Versuche?... 1 1.2 Warum Statistik?... 1 1.3 Warum Versuchsplanung?... 4 1.4 Welche Art von Ergebnissen kann man erwarten?... 6 1.5 Versuche oder systematische Beobachtung?...

Mehr

Hypothesentests mit SPSS. Beispiel für einen t-test

Hypothesentests mit SPSS. Beispiel für einen t-test Beispiel für einen t-test Daten: museum-f-v04.sav Hypothese: Als Gründe, in ein Museum zu gehen, geben mehr Frauen als Männer die Erweiterung der Bildung für Kinder an. Dies hängt mit der Geschlechtsrolle

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

Einige Statistische Tests für den Ein- Zwei- und k-stichprobenfall (Nach Sachs, Stat. Meth.)

Einige Statistische Tests für den Ein- Zwei- und k-stichprobenfall (Nach Sachs, Stat. Meth.) ue biostatistik: nichtparametrische testverfahren / ergänzung 1/6 h. Lettner / physik Statistische Testverfahren Einige Statistische Tests für den Ein- Zwei- und k-stichprobenfall (Nach Sachs, Stat. Meth.)

Mehr

Multivariate Analysemethoden

Multivariate Analysemethoden Multivariate Analysemethoden 30.04.2014 Günter Meinhardt Johannes Gutenberg Universität Mainz Einführung Was sind multivariate Analysemethoden? Vorlesung Übung/Tut Prüfung Verfahrensdarstellung in Überblick

Mehr

Inhalt. Vorwort... 1 Einführung... 1. 2 Ausgewählte Begriffe... 11. 3 Vorgehensweise im Überblick... 17

Inhalt. Vorwort... 1 Einführung... 1. 2 Ausgewählte Begriffe... 11. 3 Vorgehensweise im Überblick... 17 Inhalt Vorwort.................................................................. V Inhalt.................................................................... VII 1 Einführung..........................................................

Mehr

Kapitel 6: Zweifaktorielle Varianzanalyse

Kapitel 6: Zweifaktorielle Varianzanalyse Kapitel 6: Zweifaktorielle Varianzanalyse Durchführung einer zweifaktoriellen Varianzanalyse ohne Messwiederholung Dieser Abschnitt zeigt die Durchführung der in Kapitel 6 behandelten zweifaktoriellen

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Lineare Reression Zweck: Vorhersae Dimensionsreduktion Klassifizierun Hauptkomponentenanalyse Korrespondenzanalyse Clusteranalyse Diskriminanzanalyse Eienschaften: nicht-linear verteilunsfrei

Mehr

Taschenbuch Versuchsplanung Produkte und Prozesse optimieren

Taschenbuch Versuchsplanung Produkte und Prozesse optimieren Wilhelm Kleppmann Taschenbuch Versuchsplanung Produkte und Prozesse optimieren ISBN-10: 3-446-41595-5 ISBN-13: 978-3-446-41595-9 Inhaltsverzeichnis Weitere Informationen oder Bestellungen unter http://www.hanser.de/978-3-446-41595-9

Mehr

Taschenbuch Versuchsplanung

Taschenbuch Versuchsplanung Wilhelm Kleppmann 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Taschenbuch Versuchsplanung Produkte und Prozesse

Mehr

Kapitel 9: Verfahren für Nominaldaten

Kapitel 9: Verfahren für Nominaldaten Kapitel 9: Verfahren für Nominaldaten Eindimensionaler Chi²-Test Der eindimensionale χ²-test wird dann herangezogen, wenn die Versuchspersonen einer Population anhand eines Merkmals mit zwei oder mehr

Mehr

Taschenbuch Versuchsplanung

Taschenbuch Versuchsplanung Wilhelm Kleppmann Taschenbuch Versuchsplanung Produkte und Prozesse optimieren Praxisreihe Qualitätswissen Herausgegeben von Franz J. Brunner Carl Hanser Verlag München Wien VII Inhalt 1 Einführung 1 1.1

Mehr

Versuchsplanung. Teil 1 Einführung und Grundlagen. Dr. Tobias Kiesling Einführung in die Versuchsplanung

Versuchsplanung. Teil 1 Einführung und Grundlagen. Dr. Tobias Kiesling <kiesling@stat.uni-muenchen.de> Einführung in die Versuchsplanung Versuchsplanung Teil 1 Einführung und Grundlagen Dr. Tobias Kiesling Inhalt Einführung in die Versuchsplanung Hintergründe Grundlegende Prinzipien und Begriffe Vorgehensweise

Mehr

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8 1. Aufgabe: Eine Reifenfirma hat für Winterreifen unterschiedliche Profile entwickelt. Bei jeweils gleicher Geschwindigkeit und auch sonst gleichen Bedingungen wurden die Bremswirkungen gemessen. Die gemessenen

Mehr

5.2. Nichtparametrische Tests. 5.2.1. Zwei unabhängige Stichproben: U- Test nach MANN- WHITNEY

5.2. Nichtparametrische Tests. 5.2.1. Zwei unabhängige Stichproben: U- Test nach MANN- WHITNEY 5.2. Nichtparametrische Tests 5.2.1. Zwei unabhängige Stichproben: U- Test nach MANN- WHITNEY Voraussetzungen: - Die Verteilungen der beiden Grundgesamtheiten sollten eine ähnliche Form aufweisen. - Die

Mehr

Im Modell der Varianzanalyse (mit festen Effekten) ist das. aus dem Durchschnittsmesswert für y plus dem Effekt des.

Im Modell der Varianzanalyse (mit festen Effekten) ist das. aus dem Durchschnittsmesswert für y plus dem Effekt des. Einfatorielle Varianzanalyse Varianzanalyse untersucht den Einfluss verschiedener Bedingungen ( = nominalsalierte(r) Variable(r)) auf eine metrische Variable. Die Bedingungen heißen auch atoren und ihre

Mehr