Psychologie als Wissenschaft

Größe: px
Ab Seite anzeigen:

Download "Psychologie als Wissenschaft"

Transkript

1 Psychologie als Wissenschaft Die Ursprünge der Psychologie liegen in der Philosophie. In der Philosophie steht das Verstehen von Zusammenhängen oder von Sinn im Vordergrund, in der Psychologie ist das Ziel das Erklären von Phänomen inkl. Der Suche nach Regeln, Mechanismen, Funktionsweisen und Gesetzmäßigkeiten. Die Psychologie las empirische Wissenschaft betont das Vertrauen in die Empirie, sie stütz sich also auf wahrnehmbare Erfahrungen und benutzt naturwissenschaftliche Methoden. Die Interpretation der Erkenntnisse wiederum hat auch mit der menschlichen Sinnsuche und mit Verstehenns- und Verständigungsprozessen zwischen Menschen zu tun. Grundlegend ist die Annahme, dass sich menschliches Erleben und Verhalten in Zahlen und Daten, in Mechanismen und Gesetzmäßigkeiten fassen und ausdrücken lässt. Methoden sind ein Weg oder Werkzeug. In der wissenschaftlichen Psychologie ist in Ziel die verschiedenen statistischen und mathematischen Methoden/Werkzeuge so gut zu beherrschen, dass man auf psychologische Fragen wissenschaftliche Antworten geben kann. Die Alltagspsychologie liefert einen guten Anhaltspunkt für die Themen der wissenschaftlichen Psychologie. Der Unterschied liegt jedoch in der Methode, wie nach Antworten auf die gestellten Fragen gesucht wird. In der wissenschaftlichen Psychologie schließt der Weg von der Fragestellung zu einer wissenschaftlichen Erkenntnis i.d.r. die Planung von Untersuchungen, die Datensammlung und deren statistische Auswertung mit ein. Die Alltagspsychologie stützt sich auf subjektive Erfahrungen, selektive Erfahrungen und sucht meist gezielt nach Bestätigungen. Das wissenschaftliche Vorgehen hingegen zeichnet sich durch systematische Beobachtungen, Hypothesen und Theorien und Objektivität aus. Das stärkste Argument gegen falsche (Alltags)Überzeugungen können nur gute Daten und Fakten sein, Ziele, die durch Forschungsmethoden erreichbar sind. Allerdings ist auch die Wissenschaft nicht gänzlich frei von Annahmen und Überzeugungen, da im Forschungsprozess vom Forscher Entscheidungen zu treffen sind und am Ende des Forschungsprozesses die Daten und Zahlen interpretiert werden müssen. Die Daten und Zahlen selbst sind immer objektiv und demnach nie falsch. Falsch sein kann aber deren Interpretation. Der Prozess der Erkenntnisgewinnung Im Prozess der Erkenntnisgewinnung ist der Ausgangspunkt eine Theorie als Vorschlag einer vorläufigen Antwort. Aus der Theorie werden einzelne Hypothesen abgeleitet als ebenfalls vorläufige Antworten. Hypothesen haben immer die Form konkreter Aussagen und sind demnach prüfbar. Sie bilden den Kern des Forschungsvorhabens. Die Begriffe in den Theorien und Hypothesen müssen zunächst operationalisiert, d.h. messbar gemacht werden. Die Messung führt zu Daten, die statistisch ausgewertet werden. Nach der statistischen Auswertung ist die Aussage oder Bedeutung der Daten zu interpretieren. Dabei entscheidet 1

2 sich, ob die Daten die Hypothese bestätigen oder widerlegen und welche Auswirkungen dies auf die ursprüngliche Theorie hat. In der Psychologie sind deterministische Aussagen über den Menschen nur selten möglich, so dass stattdessen probabilistische Aussagen/statistische Hypothesen. formuliert werden. Diese sind durch einzelne Gegenbefunden nicht widerlegbar. In der Psychologie wird nur selten von Gesetz gesprochen, sondern von Theorien und Modellen. Jede Hypothese beschreibt entweder eine Zusammenhang oder einen Unterschied. Entscheidend ist, dass Unterschieds- und Zusammenhangshypothesen stets ineinander überführbar sind, d. h. jede Fragestellung lässt sich sowohl als Unterschied als auch als Zusammenhang verstehen. Welche Art der Formulierung geeigneter ist, hängt von der Fragestellung ab. Messen und Operationalisierung Um menschliches Erleben und Verhalten messbar zu machen, müssen Objekten, Phänomenen oder Ereignissen Zahlen zugeordnet werden und zwar so, dass die Beziehungen zwischen den Zahlen die analogen Beziehungen der Objekte, Phänomene oder Ereignisse repräsentieren. Operationalisierung bedeutet Messbarmachung und beinhaltet auch das Einigen auf geeignete Messinstrumente. Wichtig ist, dass eine Messung repräsentativ ist. Messen bezieht sich auf Variablen, deren Besonderheit es ist, dass sie verschiedene Ausprägungen annehmen kann. Je nach Anzahl und Art der Ausprägungen unterscheidet man zwischen dichotomen, kategorialen und kontinuierlichen Variablen, nach Art der Messbarkeit zwischen manifesten und latenten Variablen sowie zwischen AV und UV. Wenn Variablen gemessen wurden und bestimmte Ereignisse/Zahlen erhalten haben, werden diese Ergebnisse Daten genannt, die die Basis für jede Art von Aussage liefern. Skalenniveaus Daten liegen in verschiedenen Formaten vor. Skala beschreibt die Beschaffenheit des empirischen Relativs, des numerischen Relativs sowie eine Abbildungsfunktion, die das empirische Relativ und das numerische Relativ verbindet. Von Skalenniveaus spricht man, weil sich der Informationsgehalt und die mathematische Güte über die Skalen hinweg steigern. Der Begriff metrisch deutet dabei an, dass die Daten mind. auf Intervallskalenniveau gemessen wurden und somit schon die gebräuchlichsten Berechnungen erlauben. 2

3 Auf der Ordinalskala erfährt man nur etwas über relative Unterschiede, jedoch noch nichts über die absoluten Unterschiede und über die Größe der Differenzen. Um etwas über absolute Unterschiede herausfinden zu können, müssen die Daten mindestens auf Intervallskalenniveau gemessen werden. Allerdings kann man auf Intervallskalenniveau noch keine Aussage darüber machen, in welchem Verhältnis zwei Messwerte stehen, da ein Verhältnis über die bloße Differenz zweier Messwerte hinaus geht und vielmehr die relative Lage dieser Messwerte in Bezug auf den Nullpunkt der Skala beschreiben. Dies ist erst auf der Verhältnisskala möglich. In der Forschung ist man bestrebt, Daten auf einem möglichst hohen Messniveau zu erheben. Eine Ratingskala wird verwendet, um Urteile über einen bestimmten Gegenstandsbereich zu erfragen. Ein Test ist ein Verfahren zur Untersuchung von Merkmalen einer Person. Jeder Test besteht aus Items. Datenerhebungsmethoden In der Psychologie geht es darum, Erkenntnisse auf eine möglichst große Population anwenden zu können, meist hat man es jedoch nur mit recht kleinen Stichproben zu tun. Mit der Verallgemeinerung von Ergebnissen aus Studien/Stichproben auf die Population beschäftigt sich die Inferenzstatistik. Konkrete Methoden zur Datenerhebung sind Beobachtung, Befragung und Experiment bzw. Quasi-Experiment. Das Experiment ist der Königsweg der Datenerhebung und dient der Suche nach Kausalzusammenhängen zwischen UV und AV. Zugleich beinhaltet es aber meist auch die anderen Methoden (Befragung und Beobachtung). Für eindeutige kausale Erklärungen müssen Störvariablen und Alternativerklärungen abgeschlossen werden, was durch Elimination, Konstanthalten/Parallelisierung oder letztlich Randomisierung erfolgt. Randomisierung ist der Königsweg bei der Kontrolle von Störvariablen, da bei Parallelisierung/Konstanthalten vorausgesetzt wird, das die SV bekannt sind: Bei der Randomisierung werden die VP zufällig den verschiedenen Versuchsbedingungen (EG/KG) zugeteilt. Oft ist eine solche Randomisierung jedoch nicht möglich, da die Gruppenaufteilung von Natur aus vorgegeben ist. Dann spricht man von Quasi-Experimenten. In der Grundlagenforschung sind die interessierenden UV meist manipulierbar, Je anwendungsbezogener die Fragestellungen werden, umso eher hat man es mit Quasi- Experimenten zu tun. 3

4 Gütekriterien für Experimente Gütekriterien für Experimente sind die interne Validität. D.h. wenn die Veränderungen in der AV eindeutig auf die Veränderungen in der UV zurückgeführt werden können, sowie die externe Validität, die vorliegt, wenn das in einer Stichprobe gefundene Ergebnis auf die Population verallgemeinerbar ist, was in der Regel durch repräsentative Stichproben der Fall ist. Datenauswertung Die statistische Auswertung von Daten umfasst drei Aufgaben: 1. Das Beschreiben und Darstellen der Daten (deskriptive Statistik) 2. Das Erkennen und Beschreiben von eventuellen Mustern (explorative Datenanalyse) 3. Das statistische Prüfen der Daten hinsichtlich der Verallgemeinerbarkeit auf die Population (Inferenzstatistik) Während die Inferenzstatistik die Verallgemeinerbarkeit von Ergebnissen aus Studien/Stichproben auf die Population prüft, werden bei der deskriptiven Statistik und der explorativen Datenanalyse noch keine Überlegungen zur Generalisierbarkeit von Stichprobendaten einbezogen. Deskriptive Statistik Aufgabe der deskriptiven Statistik ist die Darstellung und Beschreibung von Stichprobendaten durch Kennwerte sowie Grafiken und Tabellen. Das Format, in dem Daten nach einer Studie vorliegen, richtet sich nach dem Skalenniveau, auf dem sie gemessen werden. In jeder Studie wird man mehrere Arten von Daten erhalten. Grundsätzlich liefern Stichproben Verteilungen, in denen die Anzahl oder relative Häufigkeit von Personen abgetragen ist, die in einer Studie bestimmte Messwerte erzielt haben. Je nach Skalenniveau bieten sich verschiedene Lagemaße an, um die Verteilung zu beschreiben (Modus, Median, Mittelwert). Allerdings wird durch Lagemaße nicht die ganze Information verwendet, denn die Breite der Verteilung stellt eine interessante und wichtige Information der Verteilung dar. Kennwerte stehen also stellvertretend für die Verteilung. Anteile und Häufigkeiten lassen sich nicht nur durch Tabellen, sondern auch durch Balken-, Kreis- oder Histogramme darstellen. In der deskriptiven Statistik geht es um einzelne Variablen und ihre Ausprägungen 4

5 Lagemaße Welches Lagemaß sinnvoll ist, hängt vom Skalenniveau ab Lagemaß Skalenniveau Modus / Modalwert Der Modus einer Verteilung gibt diejenige Merkmalsausprägung an, die am häufigsten vorkommt N, O, M Median Der Median ist der Wert, der genau in der Mitte der Verteilung liegt. Der Median ergibt sich, wenn man alle Werte einer Verteilung der Größe nach aufschreibt und den Wert such, der genau in der Mitte steht. Liegt die Mitte zwischen zwei Werten, so wird von diesen beiden Werten der Mittelwert gebildet. O, M Arithm. Mittelwert Der Mittelwert ist aus den Daten nicht direkt zu ersehen, sondern muss erst als die Summe aller Einzelwerte der Daten geteilt durch die Anzahl der Werte berechnet werden. Der Mittelwert kennzeichnet den Schwerpunkt der Verteilung. Der Mittelwert kann stellvertretend für die Verteilung stehen und ist für weitere statistische Berechnungen notwendig. Der Mittelwert dient auch dazu, für einzelne Personen eine Aussage darüber zu machen, wo sich ihre Testwerte relativ zum Mittelwert einer Verteilung befinden. M Der Median ist robust gegenüber Ausreißern, während der Mittelwert stark von Ausreißern beeinflusst wird. Streuungsmaße Nur durch Angabe der Lagemaße wird viel Information vernachlässigt, nämlich die Information, die in der Form der Verteilung steckt, genauer gesagt die Breite der Verteilung, d.h. wie sehr die Daten streuen. 5

6 De Mittelwert alleine liefert keine gute Schätzung für die tatsächlichen Werte, insb. Je stärker die Daten streuen. I. d. R streuen die Daten um den Mittelwert, meist in beide Richtungen gleich stark. Man will wissen, wie gut oder zuverlässig ein Mittelwert die Verteilung repräsentieren kann, aus der er stammt. Varianz und Standardabweichung beziehen sich konkret auf diesen Mittelwert und fragen danach, wie weit alle Werte in der Verteilung im Durchschnitt von ihm abweichen. Streuungsmaß Spannweite (Range) IQR R ist das einfachste Streuungsmaß (x max x min ), es kann jedoch nicht gut zwischen verschiedenen Verteilungen differenzieren und ist besonders anfällig gegenüber Ausreißern. Der IQR lässt die äußeren Ränder der Verteilung unberücksichtigt, um das Problem mit den Ausreißern zu umgehen. Der IQR ist die Differenz aus dem oberen und unteren Quartil. Der IQR kann schon besser zwischen verschiedenen Verteilungen differenzieren und ist robust gegenüber Ausreißern, kann aber immer noch nicht die exakte Streuung aller Daten wiedergeben.. Der IQR wird wie der Median häufig in der explorativen Datenanalyse verwendet. Bei R und IQR gehen nur einzelne Werte der Verteilung in die Bestimmung ein; ein exaktes Streuungsmaß sollte jedoch alle Werte in die Berechnung einfließen lassen. Die Frage, wie gut oder zuverlässig ein Mittelwert die Verteilung repräsentieren kann, wird mit der Varianz und der Standardabweichung beantwortet, da sich beide Streuungsmaße konkret auf den Mittelwert beziehen und danach fragen, wie weit alle Werte in der Verteilung im Durschnitt von ihm abweichen. Varianz Die Varianz s² ist die durchschnittliche quadrierte Abweichung aller Werte von ihrem gemeinsamen Mittelwert. Da Summe umso größer wird, je mehr Messwerte einfließen, wird sie am Ende noch durch die Stichprobengröße n geteilt, was v.a. für den Vergleich der Streuungen von zwei Skalen sinnvoll ist, die unterschiedlich viele Werte beinhalten. Die Varianz liefert den Durchschnitt quadrierter Werte, so dass sie meist schwer u interpretieren ist. 6

7 Standardabweichung Wurzel aus der Varianz Die Größe der Standardabweichung kann im Sinne der Rohdaten interpretiert werden, da sie die Streuung in de Maßeinheit der Daten ausdrückt. Varianz und Standardabweichung differenzieren sehr genau zwischen den verschiedenen Verteilungen. Es gibt keine pauschalen Angaben, wann eine Streuung groß oder klein ist, da diese Interpretation von der Fragestellung und der Skala abhängt. Eine Häufigkeitsverteilung ist also immer erst durch Lage und Streuung charakterisiert; zu jedem Lagemaß muss auch ein Streuungsmaß angegeben werde. Der Sinn der Lage- und Streuungsmaße besteht darin, stellvertretend für eine Verteilung Kennwerte anzugeben, die uns die Konstruktion der Verteilung ersparen. Zu jedem Mittelwert ist ein Streuungsmaß anzugeben, um zu wissen wie repräsentativ der Mittelwert für die Daten ist. Ohne Angabe der Streuung ist die Angabe eines Mittelwertes nutzlos. Je kleiner Die Streuung, umso besser. Nun stellt sich die Frage, wovon es abhängt, ob man einen guten Mittelwert und eine gute Streuung hat finden können. Varianzaufklärung Varianz gehört mit Standardabweichung zum einen unter den Oberbegriff Streuung einer Verteilung. Darüber hinaus wird der Begriff auch verwendet, um die Variation von Daten zu beschrieben, ohne einen konkreten Zahlenwert zu haben. Nach der Datenerhebung prüft die Statistik also, wie groß die Varianz in den Daten ist und inwieweit sie auf die UV zurückgeführt werden kann. Varianz ist ein Schlüsselbegriff in der Statistik, da diese als Ziel die Aufklärung von Varianz hat. In Bezug auf das Ziel der Psychologie als Wissenschaft: Es geht der Psychologie um das Erklären, Vorhersagen und Verändern von Erleben und Verhalten, was nur durch die Aufdeckung von Ursache-Wirkungs-Beziehungen zwischen Variablen gelingen kann. Die Wirkungsweise einer UV, d.h. was eine UV tun muss, um eine Wirkung auf AV zu haben, ist: sie muss Varianz erzeugen. Die Unterschiede zwischen EG und KG zeigen sich in den gemessenen Daten als Varianz. 7

8 Man fragt danach, welchen Anteil der Varianz der AUV die UV aufklären kann. JE größer die Varianzaufklärung, desto stärker kann man die Unterschiede in der AV durch die UV erklären. Die Gesamtvariation lässt sich in zwei Teile zerlegen: 1. Fehlervarianz: natürliche Varianz der Daten 2. Systematische Varianz als Effekt der UV Die Varianzaufklärung fragt nach dem Verhältnis von Fehlervarianz (nicht-interessierender Anteil) zur systematischen Varianz (interessierender Anteil). Dabei sollte der Anteil der systematischen Varianz möglichst groß sein, der Anteil der Fehlervarianz möglichst klein. Formen von Verteilungen & Standardnormalverteilung Eine Häufigkeitsverteilung kann verschiedene Formen annehmen. Sie kann symmetrisch oder asymmetrisch sein. Eine Verteilung kann zufällig oder systematisch von der Symmetrie abweichen. Zufällig ist die Abweichung dann, wenn in einer Stichprobe untypische Werte oder Ausreißer die Verteilung in eine Richtung verzerren. Dieses Problem kann durch große Stichproben vermieden werden. Eine systematische Verzerrung kann vorliegen, wenn die Streuung der Werte in eine Richtung eingeschränkt ist, z. B. wenn alle Werte sehr nah an einem Pol der Skala liegen, insb. Dann, wenn die Werte nur nach unten variieren können (Decken-Effekt). Asymmetrische Verteilungen werden als schief bezeichnet und meist noch mit der Richtung der Verzerrung versehen. Rechts-schief/links-steil Links-schief/rechts-steil Bei schiefen Verteilungen lässt sich der Mittelwert nur schlecht interpretieren. Bei bi- oder multimodalen Verteilungen ist die Berechnung des Mittelwertes wenig informativ, da er die Mitte der Verteilung nicht repräsentieren kann. Es gibt keine Mitte, um die sich die Werte konzentrieren, sondern ggf. zwei oder mehrere Werte (Modalwerte), auf die sich alle Werte konzentrieren. In den meisten Fällen hat man es jedoch mit symmetrischen und unimodalen Verteilungen zu tun, was daran liegt, dass auch die Populationsverteilung symmetrisch und unimodal ist. Gauß stellte fest, dass sich die Verteilung eines Merkmals mit zunehmender Stichprobengröße der symmetrischen und glockenförmigen Normalverteilung annähert. Die Psychologie geht davon aus, dass die meisten Merkmale normalverteilt sind, so dass man nur noch den Mittelwert und die Streuung zur Darstellung der Verteilung benötigt. 8

9 Ein Großteil der Statistik und Testverfahren beruhen auf der Normalverteilung bzw. der Annahme normalverteilter Daten. Da es jedoch auch Ausnahmen geben kann, empfiehhlt es sich, die Daten auf Normalverteilung zu prüfen (z. B. mit SPSS). z-standardisierung Man kann den Mittelwert nicht nur zur Beschreibung der Lage einer Verteilung benutzen, sondern auch, um für einzelne Personen Aussagen darüber zu treffen, wo sich ihre Werte relativ zu diesem Mittelwert befinden oder um die Werte von zwei Personen aus unterschiedlichen Untersuchungen miteinander zu vergleichen. Das Problem ist dabei oft, dass auf unterschiedlichen Skalen und mit unterschiedlichen Datenerhebungsmethoden und Messinstrumenten gearbeitet wurde. Das Problem unterschiedlicher Skalen lässt sich dadurch lösen, dass die Ergebnisse aus unterschiedlichen Studien auf eine einheitliche Skala transformiert werden. Bei dieser Transformation werden der jeweilige Mittelwert und die jeweilige Streuung der Stichprobendaten berücksichtigt. Bei der z-transformation werden von jedem Wert der Mittelwert aller Werte abgezogen und die Differenz zum Mittelwert an der Streuung standardisiert. So kann jedem Rohwert, egal auf welcher Skala er gemessen wurde, ein entsprechender z- Wert zugeordnet werden. Z-Werte bilden eine standardisierte Skala. Das Besondere an z-werten ist, dass sie immer einen Mittelwert von 0 und eine Standardabweichung von 1 besitzen, so dass die Verteilung von z-werten immer gleich aussieht. Dabei wird i.d.r. davon ausgegangen, dass die Rohwerte normalverteilt sind, so dass die resultierenden z-werten eine Standardnormalverteilung bilden. Die z-standardisierung macht also Messwerte von verschiedenen Skalen bzw. aus verschiedenen Stichproben vergleichbar, indem sie jedem Messwert einen standardisierten z-wert aus der Standardnormalverteilung zuordnet, der eindeutig interpretierbar ist. Aus dem z-wert kann man darüber hinaus noch die Information ziehen, dass er die Fläche der Verteilung, die unter ihm bzw. links von ihm liegt, angibt. Im Bereich von jeweils einer Standardabweichung unter und über bzw. links und rechts vom Mittelwert befinden sich 68& der Fläche/Werte. Gesetz der großen Zahl Hinsichtlich der Repräsentativität einer Stichprobe kann man sagen, dass die Häufigkeitsverteilung die gleiche Form haben sollte wie die Populationsverteilung, was 9

10 nichts anderes bedeutet, als dass die verschiedenen Ausprägungen einer Variable den gleichen Mittelwert haben und die gleiche Streuung aufweisen. Das Gesetz der großen Zahl besagt: Je größer die Stichprobe, umso stärker nähert sich die Verteilung der beobachteten Werte der wahren Verteilung in der Population an. JE größer die Stichprobe, umso besser repräsentiert die Stichprobe die Population, da Werte, die nahe am Mittelwert liegen, häufiger vorhanden sind, auf lange Sicht auch häufiger gezogen werden. Die Populationsverteilung wird also mit steigender Stichprobengröße immer besser abgebildet. Aus dem Gesetz der großen Zahl ergibt sich ein grundlegendes Prinzip für die Methodenlehre: Man vertraut Werten aus großen Stichproben mehr als Werten aus kleinen Stichproben. Die unbekannte Populationsverteilung Die Populationsverteilung ist praktisch immer unbekannt. Aus diesem Grund zieht man Stichproben, die repräsentativ für die Populationsverteilung sein sollen und benutzt die Stichprobe, um etwas über die Population zu erfahren, d. h. man benutzt die Werte aus der Stichprobe (Kennwerte) als Schätzung für die entsprechenden Werte in der Population. Nur mit hinreichend großen Stichproben sind die Schätzungen exakt genug. Kennwerte vs. Parameter Die Angaben über Stichprobendaten heißen Kennwerte. Diese Angaben lassen sich auch für Populationen erstellen. Da man i. d. R. die Verhältnisse in der Population jedoch nicht kennt, handelt es sich dabei dann um Schätzwerte, die als Parameter bezeichnet werden. Kennwerte in der Stichprobe Parameter in Populationen Mittelwert x, M Varianz s² ² Standardabweichung s Explorative Datenanalyse In der explorativen Datenanalyse versucht man, mit Hilfe von geeigneten Darstellungen und Berechnungen nach Mustern oder Zusammenhängen zu suchen: man forscht in den Daten nach interessanten Informationen, die bei der deskriptiven Analyse nicht auf den ersten Blick zu sehen sind. Zur grafischen Datenanalyse werden Boxplots oder Streudiagramme verwendet. Lässt ein Streudiagramm einen Zusammenhang zwischen Variablen vermuten, möchte man diesen Zusammenhang quantifizieren und verwendet Zusammenhangsmaße. 10

11 Man kann den Zusammenhang also mit Hilfe eines einzigen Kennwertes angeben: der Korrelation, die das Ausmaß des linearen Zusammenhangs repräsentiert. Boxplots Median und IQR können als robuste Kennwerte gemeinsam genutzt werden, um eine Verteilung von Daten dahingehend zu prüfen, ob es Ausreißer gibt und wie die Verteilung ohne diese Ausreißer aussehen würde. Die Box ist der IQR der Daten, wobei die Länge der Box Auskunft über die Streuung von Daten gibt. Sie stellt die mittleren 50% der Daten/Verteilung dar, da die oberen und unteren 25% der Daten/Verteilung unberücksichtigt bleiben. Der Median als Lagemaß gibt Auskunft über die Form der Verteilung: Liegt der Median ungefähr in der Mitte der Box, handelt es sich um eine symmetrische Verteilung, ist er verschoben, deutet dies auf eine schiefe Verteilung hin. Ist der Median nach unten/links verschoben, handelt es sich um eine links-steile/rechts-schiefe Verteilung; ist er nach oben/rechts verschoben, handelt es sich um eine rechts-steile/links-schiefe Verteilung. Ausreißer sind alle Werte, die sich außerhalb der Whiskers befinden. Die Whiskers werden per Konvention bestimmt als 1,5*IQR. Der Vorteil der Boxplots besteht darin, dass diese nur Rohwerte darstellen und die Daten nicht in irgendeiner Weise verändert werden. Das Entdecken von Ausreißern ist wichtig, weil diese die Berechnungen von Mittelwerten und Streuungen strak verzerren können und ggf. zu eliminieren sind. Streudiagramme/Scatter-Plots Um erstmals nach Zusammenhängen zwischen zwei Merkmalen zu suchen, werden die Werte zweier Variablen in dasselbe Diagramm eingetragen. In diesem Diagramm wird dann jede Merkmalsausprägungskombination als Punkt an genau der Stelle vertreten, an der sich die Werte beider Variablen kreuzen. Alle Punkte zusammen bilden die Punktwolke. Liegt ein Zusammenhang vor, kann man diesen durch einen Kennwert/ein Zusammenhangsmaß ausdrücken bzw. quantifizieren, z. B. mit der Korrelation. Die Korrelation repräsentiert das Ausmaß des linearen Zusammenhangs zweier Variablen. Bei mehr als zwei Variablen kann man nicht gelichzeitig die Korrelation berechnen, sondern die Zusammenhänge solcher Art müssen sich immer aus einzelnen bivariaten Korrelationen zusammensetzen. Mit linear ist gemeint, dass der Zusammenhang der beiden Variablen in etwa einer Linie folgen sollte. 11

12 Gehen steigende Werte auf der x-achse mit steigenden Werten auf der y-achse einher, so spricht man von einer positiven Korrelation. Gehen steigende Werte auf der x-achse mit sinkenden Werten auf der y-achse einher, o spricht man von negativer Korrelation. Liegen alle Datenpunkte exakt auf einer Geraden, nennt man dies einen perfekten linearen Zusammenhang (deterministischer Zusammenhang), was in der Psychologie nicht der Fall ist. Die Datenwolke kann auch einen kurvi-linearen Zusammenhang oder nicht-lineare Zusammenhänge aufzeigen, für die man jedoch keine Korrelation angeben kann, da die Berechnung einer linearen Korrelation keinen Sinn macht. Die Korrelation zeigt also, dass zwei Variablen in ihren Ausprägungen nicht unabhängig voneinander variieren, sondern ko-variieren. Diese Kovarianz kann man berechnen als Abweichung eines jeden Wertes vom gemeinsamen Mittelwert für beide Variablen, die beiden Differenzen werden dann multipliziert. Die Kovarianz ist dann groß, wenn ein Datenpunkt einer Variablen in die gleiche Richtung von seinem Mittelwert abweicht wie auf der anderen Variablen, so dass das Produkt positiv wird. Die Produkte werden für jeden Datenpunkt aufsummiert. Da mit zunehmender Anzahl dieses Produkt immer größer würde, wird die Summe durch die Anzahl aller Datenpunkte (Stichprobengröße) geteilt. Die Interpretation, ob es sich bei einem errechneten Wert um einen großen oder kleinen Zusammenhang handelt ist schwierig und von den Skalierungen der gemessenen Variablen abhängig. Aus diesem Grund wird die Kovarianz durch Korrektur in die Korrelation überführt. Um die Kovarianz skalenunabhängig zu machen wird sie standardisiert, d.h. die einzelnen Werte einer Variablen werden um ihren Mittelwert vermindert und dann durch ihre Streuung geteilt. Dadurch befinden sich die Werte auf einer z-skala, die unabhängig von der ursprünglichen Skalierung ist. Die Verminderung um den Mittelwert wurde bereits bei der Kovarianz vorgenommen, so dass man diese nur noch durch die Streuung der beiden Variablen teilen muss, um die Korrelation r zu erhalten. R heißt Korrelationskoeffizient nach Pearson. Dieser Wird auch als Produkt-Moment-Korrelation bezeichnet und kann nur Werte zwischen -1 und 1 annehmen. -1 beschreibt einen perfekten negativen Zusammenhang, 0 beschreibt zwei unkorrelierte Variable, 1 beschreibt einen perfekten positiven Zusammenhang. Ko-Variieren bedeutet also nichts anderes, als dass die Varianzen der beiden Variablen voneinander abhängig sind, d.h. wenn Werte auf der einen Variable von ihrem Mittelwert abweichen (also Varianz aufweisen), dann sollte dies mit einer entsprechenden Varianz der Werte auf der anderen Variable einhergehen (je mehr, desto mehr). Die Korrelation weist jedem Datenpunkt, der sich auf X befindet, einen entsprechenden Wert auf Y zu, so dass alle Werte auf einer geraden liegen würden. 12

13 Ist dies nicht in dieser Form der Fall, dann ist die Korrelation der beiden Variablen nicht erklärbar. Die Vergrößerung einer Gesamtstreuung ist dann nicht durch eine entsprechende Kovarianz erklärbar. Je mehr die Werte der Punktewolke von einer Geraden abweichen, desto kleiner wird der Korrelationskoeffizient, da die Gesamtstreuung größer wird. Der Anstieg der Gerade, auf der die Datenpunkte liegen, ist für die Größe der Korrelation nicht von Bedeutung, sondern der Anstieg ist ausschließlich von der Skalierung der Variablen abhängig. Der Anstieg darf nur nicht 0 werden (waagerechte Linie), da dann die Werte auf Y keinerlei Varianz mehr aufweisen und somit keine Korrelation möglich ist. Dass Datenpunkte von der Geraden abweichen, hat zwei Gründe: 1. Messfehler bei der Messung der Variablen 2. Die Varianz einer Variable kann sich dadurch vergrößern, weil sie nicht nur mit einer Variable korreliert, sondern mit mehreren Aufgrund der Komplexität von Erleben und Verhalten des Menschen, gibt es Zusammenhänge zwischen nur zwei Variablen relativ selten und keine perfekten Zusammenhänge. Zur Einschätzung, was eine große, mittlere oder kleine Korrelation ist, wurden von Cohen (1988) Konventionen formuliert, die auf durchschnittlichen Korrelationen basiert. r ab 0.1 oder -0.1 ab 0.3 oder -0.3 ab 0.5 oder -0.5 Interpretation Kleiner Effekt Mittlerer Effekt Großer Effekt Je nach Fragestellung kann aber auch ein kleiner Effekt interessant sein, während bei einer anderen Fragestellung erst ein sehr großer Effekt interessant ist. Voraussetzungen für die Berechnung von Pearson-Korrelationen - mindestens Intervallskalenniveau - die Daten müsen in einem linearen Zusammenhang stehen (leicht zu prüfen mit Scatterplot) für andere Skalenniveaus muss man andere Korrelationskoeffizienten benutzen: N Phi-Koeffizient O Rangkorrelationskoeffizient nach Spearman Zwar kann man auch für nicht-lineare Zusammenhänge eine Korrelation berechnen, diese ist aber nicht sinnvoll interpretierbar. Korrelationen beschreiben die Enge/Stärke des Zusammenhangs zweier Variablen, lassen aber keine Schlüsse darüber zu, ob ein Kausalzusammenhang vorliegt! 13

14 Wenn zwei Variablen X und Y einen Zusammenhang aufweisen, kann es dafür mind. drei kausale Erklärungen geben: 1. x bewirkt Y 2. Y bewirkt X 3. der Zusammenhang wird durch eine dritte Variable Z verursacht (Scheinkorrelation) Nur aus experimentell gewonnenen Daten berechnete Korrelationen lassen Kausalschlüsse zu. Mit Hilfe der Korrelation ist es also möglich, Zusammenhänge zwischen zwei Variablen aufzudecken und quantitativ zu beschreiben. Lineare Regression Die Korrelation wird von der Regression benutzt, um die Werte der einen Variablen aus den Werten der anderen Variablen vorherzusagen (zu schätzen). Die UV (vorhersagende Variable) wird als Prädiktor bezeichnet), die AV (vorhergesagte Variable) als Kriterium. Wenn an weiß, dass zwei Variablen korrelieren, kann man die Werte einer Variable benutzen, um die Werte auf der anderen Variable vorherzusagen. Dazu benötigt man die sog. Regressionsgerade, die durch die beiden Größen Schnittpunkt mit der Y-Achse und ihren Anstieg bestimmt ist. Die Gerade, die die Punktwolke bestmöglich repräsentiert ist diejenige, bei der alle Punkte im Durchschnitt möglichst wenig von der Gerade abweichen. Diese wird bestimmt durch die KQ-Methode. Die Regressionsgerade weist jedem Wert auf X einen Wert auf Y zu. Dabei gibt es i.d.r. Abweichungen der geschätzten/vorhergesagten Werte und den wahren Werten. Die Abweichung nennt man Vorhersagefehler; sie ist nicht durch die Regression von Y auf X erklärbar und wird als Residuum/Residualwert/Schätzfehler bezeichnet. Dieser Schätzfehler führt dazu, dass die Vorhersage ungenau ist, und kommt zustande durch Messfehler oder Dritt-Variablen-Einfluss. Die Größe des Schätzfehlers kennen wir nicht! Die Regression wird verwendet, um konkrete Werte einer Variable vorherzusagen oder einfach, um die Enge des Zusammenhangs zweier Variablen durch r zu beschreiben. Der Determinationskoeffizient r² ist ein Maß, dass angibt, wieviel der Varianz von Y durch X aufgeklärt werden kann. Die Vorhersage von Y durch X gelingt umso besser, je größer die Korrelation r zwischen X und Y ist. 14

15 Da r höchsten 1 oder-1 sein kann, ist r² ebenfalls höchsten 1, was einer Varianzaufklärung von 100% entspricht (alle Punkte liegen auf einer Geraden). R² steht in direkter Beziehung zum Schätzfehler/den Residuen, da ein größer r² auf einen kleinen Schätzfehler hinweist und somit auf kleide Residuen. Ist r² = 1, dann ist der Schätzfehler 0 und es gibt keine Residuen. Inferenzstatistik Ziel der Inferenzstatistik sind Schlüsse von einer Stichprobe auf eine Population sowie Aussagen über die Güte dieser Schlüsse. Aussagen über die Allgemeinheit sind dann problemlos möglich, wenn man alle Personen, die die Allgemeinheit bilden, tatsächlich untersuchen kann, Meist stehen jedoch nur Stichproben zur Verfügung. Verallgemeinerungen von Stichprobenergebnissen auf die Population sind nur dann möglich, wenn die Stichprobe repräsentativ für die Population ist, was man durch Ziehen von Zufallsstichproben aus der Population sicherstellen kann. Da eine Stichprobe jedoch nur einen Ausschnitt aus der Population darstellt, kann dieser fehlerbehaftet sein. Es gibt zwei Möglichkeiten, um die Frage zu beantworten, ob die Ergebnisse in der Stichprobe nur eine zufällige Besonderheit sind oder ob man sie auf die Population verallgemeinern kann: 1. mehrere Studien, so dass sich zufällig beobachtete Effekte wieder ausmitteln 2. man gibt die Wahrscheinlichkeit, mit der man sich bei der Bestimmung des Ergebnisses in der Stichprobe geirrt hat, mit an Stichprobenverteilungen Einzelne Stichproben liefern sog. Häufigkeitsverteilungen. Die aus den verschiedenen Stichproben berechneten Kennwerte (Mittelwert z.b.) bilden sog. Stichprobenverteilungen, die im Gegensatz zu Häufigkeitsverteilungen beliebig viele Werte annehmen können. Stichprobenverteilungen geben Auskunft darüber, was passiert, wenn man sehr viel Stichproben ziehen würde und sind die wichtigste Grundlage der Inferenzstatistik. Die Fläche unter der Stichprobenverteilung entspricht immer einer gewissen Wahrscheinlichkeit, mit der alle möglichen Mittelwerte innerhalb dieser Fläche zu erwarten sind. Stichprobenverteilungen folgen aufgrund des zentralen Grenzwertsatzes immer der Normalverteilung. Mit steigender Stichprobengröße der einzelnen Studien sinkt die Streuung der resultierenden Stichprobenverteilungen. 15

16 Es gibt zwei Möglichkeiten zur Beantwortung der Frage, wie zuverlässig der gefundene Mittelwert für die Population verallgemeinert werden kann: 1. Angabe des Standardfehlers, d.h. Schätzung des Fehlers, den man bei einer solchen Verallgemeinerung im Durchschnitt machen wird 2. Angabe eines Konfidenzintervalls als Bereich um den gefundenen Mittelwert herum, der den wahren Mittelwert in der Population wahrscheinlich enthält Der Standardfehler entspricht der Standardabweichung der Stichprobenverteilung! Hat man nur eine Stichprobe zur Verfügung, dann gilt die Standardabweichung s nur für diese konkrete Stichprobe und man muss die Standardabweichung für die Population schätzen. Sigma_dach ist der Standardfehler des Mittelwertes (SE, S.E., SEM, Standard Error of Mean), Der SEM quantifiziert den Unterschied zwischen den aus einer einzelnen Stichprobe geschätzten Mittelwerten x-quer und dem tatsächlichen wahren Mittelwert ü. Er entspricht der Standradabweichung der entsprechenden Stichprobenverteilung. Der Standardfehler ist immer kleiner als die Standardabweichung aus einer Stichprobe, da die Streuung der Stichprobenverteilung gar nicht so groß sein kann wie die Streuung einer einzelnen Stichprobenverteilung. Der Mittelwert wird oft als Erwartungswert bezeichnet. Die Güte seiner Schätzung kann durch den Standardfehler angegeben werden; der Standardfehler sollte möglichst klein sein, was wiederum von der Skalierung der jeweiligen Variable und der Fragestellung abhängt. Ein Konfidenzintervall ist ein Wertebereich, bei dem wir darauf vertrauen können, dass es den wahren Wert in der Population mit einer gewissen Wahrscheinlichkeit (Vertrauenswahrscheinlichkeit) überdeckt). 1. Vertrauenswahrscheinlichkeit / Güte festlegen 2. Mittelwert der Stichprobe bestimmen 3. Stichprobenverteilung konstruieren 4. Standardfehler/Streuung der Stichprobenverteilung berechnen 5. Intervallgrenzen bestimmen oder berechnen Hypothesentests Hypothesen beziehen sich immer auf Zusammenhänge zwischen Variablen oder auf Unterschiede zwischen Gruppen/Variablen, wobei Unterschieds- und Zusammenhangshypothesen stets ineinander überführbar sind. Zusammenhangshypothesen beziehen sich auf Korrelationen, Unterschiedshypothesen auf Mittelwertsunterschiede. 16

17 Effekte und Effektgrößen Der Begriff Effekt bezieht sich immer auf eine UV, die eine bestimmte Wirkung (einen Effekt) auf eine AV ausüben soll. Der Effekt kann in einem Unterschied oder in einem Zusammenhang (Korrelation) bestehen. Es geht dabei nicht zwangsläufig um einen kausalen Effekt, sondern meist um einen statistischen Effekt Effektgrößen sind standardisierte Effekte, die die Stichprobengröße berücksichtigen. Effektgrößen sind über Stichproben und Themenbereiche hinweg vergleichbar. Die Berechnung von Effektgrößen ist auf drei Arten möglich: 1. Aus den Rohdaten 2. Aus anderen Effektgrößen 3. Aus Signifikanzergebnissen Cohen s d Hedges g d und g sind ineinander überführbar Für die Interpretation von Effektgrößen gelten folgende Konventionen nach Cohen (1988): g und g r Klein Ab 0,2 bzw. -0,2 Ab 0,1 bzw. -0,1 Mittel Ab 0,5 bzw. -0,5 Ab 0,3 bzw. -0,3 Groß Ab 0,8 bzw. -0,8 Ab 0,5 bzw. -0,5 Abhängige vs. Unabhängige Messungen Unabhängige Messungen Wenn jede Messung an einer eigenen Stichprobe bzw. in einer eigenen Gruppe vorgenommen wurde Between-subjects-Design Abhängige Messungen Within-subjects-Designs (dieselben Personen durchlaufen beide Bedingungen einer Messung Messwiederholungen Matching/gepaarte Stichproben Bei Zusammenhangshypothesen hat man es zwangsläufig immer mit abhängigen Messungen zu tun. 17

18 Der Standardfehler Anders als bei Mittelwerten ist es bei Zusammenhängen und Unterschieden nicht üblich, allein den Standardfehler anzugeben. Stattdessen verwendet man Konfidenzintervalle oder Signifikanztests, da es beim Testen von Hypothesen um Entscheidungen geht, für die es nicht ausreichend ist, nur den schwer interpretierbaren Standardfehler des Mittelwertsunterschieds anzugeben. Konfidenzintervalle und Signifikanztests hingegen liefern eher praktische Entscheidungshilfen. Bei unabhängigen Messungen interessiert die Streuung ZWISCHEN den Gruppen,a lso der systematische Anteil an der Gesamtstreuung aller Personen. Die Streuung innerhalb der Gruppen (Fehlerstreuung) ist nicht von Interesse. Bei abhängigen Messungen interessiert am Ende nur, ob sich PRO Person ein Unterschied zwischen der ersten und der zweiten Messung ergeben hat. Die Streuung zwischen den Personen innerhalb jedes Messzeitpunktes ist nicht von Interesse. Der Standardfehler bei der Regression gibt an, wie stark die Werte um die Regressionsgerade streuen. Er ist ein Gütemaß für die Vorhersage von Y aus X. Konfidenzintervalle Konfidenzintervalle liefern Angaben darüber, ob ein Effekt möglicherweise durch Zufall gefunden wurde oder ob er von statistischer Bedeutung (Signifikant, substantiell, systematisch) ist. Das Intervall gibt die Wahrscheinlichkeit an, mit der der Bereich zwischen den Intervallgrenzen den wahren Mittelwert in der Population überdeckt, Entscheidend ist, ob das Intervall den Wert 0 beinhaltet (kein Mittelwertsunterschied); in Falle von 0 ist die Hypothese zu verwerfen. Signifikanztest Die Dritte Möglichkeit, mit der man die Güte der Schätzung von Unterschieden und Zusammenhängen von einer Stichprobe auf die Population beurteilen kann sind Signifikanztests (Bedeutsamkeitstests). Ist die Bedeutsamkeit des in der Stichprobe gefundenen Effektes groß genug, um ihn auf die Population zu verallgemeinern und die entsprechende Hypothese anzunehmen? Die Grundlage sind die beiden Stichprobenverteilungen Nullhypothese Alternativhypothese 18

19 Die beide aus theoretischen Überlegungen entstanden sind. Beim Signifikanztest werden immer mind. zwei Hypothesen gegeneinander getestet. Die Nullhypothese ist die zentrale Idee des Signifikanztests, die behauptet, dass es in der Population gar keinen Effekt gibt. Die H0 hat als Mittelwert den Wert 0. Die Alternativhypothese hingegen unterstellt einen Effekt. Die Alternativhypothese erwächst i.d.r. aus der Forschungshypothese: man behauptet(hofft, dass es einen Effekt gibt. Während die H0 um den Wert 0 herum konstruiert ist, wird die Alternativhypothese um einen Wert herum konstruiert, der den erhofften Effekt in der Population widerspiegelt. Der p-wert ist die Wahrscheinlichkeit dafür, dass in einer Stichprobe der gefundene oder ein noch größerer Effekt auftritt unter der Annahme, dass die H0 gilt. Die Irrtumswahrscheinlichkeit (Signifikanzniveau, Alpha-Niveau) Alpha entspricht einem Wert für p, ab dem man nicht mehr bereit ist, die H0 zu akzeptieren. Der Alpha-Fehler legt das Niveau der Irrtumswahrscheinlichkeit (Signifikanzniveau) fest. Das Ergebnis eines Signifikanztests ist signifikant wenn p<alpha. Die Verteilungen repräsentieren die H0 und werden zum Prüfen des Signifikanzergebnisses benutzt. Da der Signifikanztest für alle Arten von Fragestellungen berechnet werden kann, brauchen wir für alle Fragestellungen eine entsprechende Verteilung für die H0. Diese nennt man Prüfverteilungen, da in ihnen der p-wert abgelesen wird, der zum Prüfen auf Signifikanz benötigt wird: z-verteilung t-verteilung F-Verteilung Chi-Quadrat-Verteilung Um innerhalb einer Stichprobe für einen einzigen Wert zu bestimmen, ob er sich signifikant vom Durchschnitt unterscheidet. Mittelwertsunterschiede Korrelationskoeffizienten Regressionsgewichte Varianzen Verteilung von Häufigkeitsdaten t- Werte, F-Werte usw. bezeichnet man als Prüfgrößen, ihre Verteilungen als Prüfverteilungen. 19

20 Einseitiges Testen Hypothese, die in eine bestimmte Richtung geht; Zweiseitiges Testen Man hat vorher keine Idee darüber, in welche Richtung der Effekt gehen wird Einige Signifikanztests testen immer in eine Richtung, z. B. Häufigkeiten, Varianzen Es können bei Hypothesentests zwei Arten von Fehlern auftreten: Verhältnisse in der Population (unbekannt) In der Population gilt die H0 In der Population gilt die H1 Entscheidung aufgrund der Stichprobe Entscheidung für die H0 Entscheidung für die H1 Korrekte Alpha-Fehler Entscheidung (Fehler 1. Art) Beta-Fehler Korrekte (Fehler 2. Art) Entscheidung Neyman & Pearson argumentieren, dass man vor einem Signifikanztest beide Fehler abwägen sollte, um hinterher eine begründete Entscheidung für oder gegen eine Hypothese treffen zu können. Die Abwägung von Alpha- und Beta-Fehler hängt dabei von der jeweiligen Fragestellung ab. Das ALM Das ALM führt alle Testverfahren auf lineare Zusammenhänge zwischen Variablen zurück. Ziel jedes Testverfahrens ist die Prüfung der Varianzaufklärung von Kriteriumsvariablen (AV). Die Mehrzahl aller Testverfahren zur Signifikanzprüfung sind Spezialfälle des ALM. Das ALM verallgemeinert das Prinzip der Regression noch ein wenig und bildet die mathematische Grundlage für die meisten Siginifkanztests, da es alle Arten von Fragestellungen als Zusammenhänge definiert und die Regression eine direkte Ableitung aus dem ALM darstellt. Hinter dem ALM verbirgt sich nur eine einzige Formel, die beschreibt, wie ein konkreter Messwert zustande kommt, mit dem Ziel, Variablen zu finden, die diesen konkreten Messwert vorhersagen können. Y = a + b1x1 + b2x2 + b3x e Y ist der konkrete, tatsächliche Wert, der in der Regression als Kriterium (AV) bezeichnet wird. a ist die Regressionskonstante (Schätzwert, für alle Y gleich) 20

21 Xi sind Prädiktoren, um die Vorhersage zu verbessern bi sind die Regressionsgewichte, die den Einfluss von Xi auf die Vorhersage von Y festlegen Das Produkt bixi verbessert also die Vorhersage e ist der unvermeidbare Messfehler, dessen Größe wir nicht kennen. Die Gleichung des ALM sagt also aus, das ein konkreter Wert Y aus der Regressionskonstantem einer Reihe von Prädiktoren und einem Fehler vorhergesagt werden kann. Da e unbekannt und somit kein Wert für e einsetzbar ist, wird er aus der Gleichung entfernt. Dies führ dazu, dass der Wert von Y nicht mehr exkat vorhergesagt werden kann, sondern nur noch geschätzt werden kann. Diese Änderung (e) führt zur Multiplen Linearen Regression. Multiple Lineare Regression Y = a + b1x1 + b2x2 + b3x e Je mehr relevante Prädiktoren gefunden werden, umso besser wird die Schätzung für Y. Die Differenz zwischen Y und Y kann man nur bestimmen, wenn man den wahren Wert Y kennt. Man kann ansonsten nur den durchschnittlichen Fehler angeben, den man bei der Schätzung macht. Im Prinzip können beliebig viele Prädiktoren in die Gleichung aufgenommen werden. Die Vorhersagekraft eines Prädiktors ist abhängig von allen anderen Prädiktoren, da diese untereinander korrelieren. In diesem Falle, also wenn die Prädiktoren korreliert sind, ist β nicht mehr mit der Korrelation zwischen Prädiktor und Kriterium identisch, sondern bereinigt um alle anderen Einflüsse, d.h. β gibt die spezifische Vorhersagekraft wieder, die nur durch diesen Prädiktor und keinen anderen gegeben ist. Sind die Prädiktoren untereinander nicht korreliert, dann ist ihr isolierter Einfluss genauso groß wie ihre jeweilige Korrelation mit dem Kriterium, d.h. die Regressionsgewichte sind wieder mit den einzelnen Korrelationskoeffizienten identisch. Aus Beta kann nicht die absolute Größe des Zusammenhangs ablesen. Die Frage, wie gut alle Prädiktoren zusammen das Kriterium vorhersagen bzw. erklären, lässt sich entweder mit dem Standardschätzfehler oder dem multiplen Determinationskoeffizienten R² beantworten. R² gibt den Anteil von Varianz des Kriteriums wieder, der durch alle Prädiktoren gemeinsam erklärt wird. Er kann maximal 1 sein, was einer Varianzaufklärung von 100% entspricht. 21

22 Der Determinationskoeffizient steht n direkter Beziehung zum Standardschätzfehler. Der Standardschätzfehler s e in der MR gibt an, wie stark die vorhergesagten Werte von den tatsächlichen Werten des Kriteriums im Durchschnitt abweichen. Standardschätzfehler und Determinationskoeffizient geben das Ausmaß der Varianzaufklärung an und verkörpern damit die Güte, mit der es uns gelingt, Variablen als Erklärungen oder gar Ursachen für andere Variablen zu finden. Prüfverteilung bei der MR ist die t-verteilung. Einfache lineare Regression Wenn nur ein Prädiktor Störende Einflüsse können nur vom Messfehler herrühren. Das Regressionsgewicht ist das Hauptergebnis Dummy-Codierung Prinzipiell lassen sich alle Fragestellungen mit Hilfe der Regressionsrechnung behandeln unter der Voraussetzung der Intervallskalierung. Nominalskalierte Variablen kann man entsprechend codieren. Die sog. Dummy-Codierung sorgt dafür, dass die Variable einer Intervallskala entspricht, denn zwischen zwei Zahlen gibt es immer nur einen Abstand, so dass automatisch Intervallskalenniveau vorliegt. ANOVA Varianzanalyse Die Varianzanalyse ist ein Verfahren zum Vergleich von Unterschieden zwischen Gruppen. Dabei wird das Verhältnis zwischen erklärter Varianz (zwischen den Gruppen) und nicht erklärter Varianz (innerhalb der Gruppen) gebildet. Ist die erklärte Varianz in diesem Verhältnis groß genug, führt das zu einem signifikanten Ergebnis. Streuungszerlegung bei der Varianzanalyse Erklärte Varianz + = systematische Varianz = Varianz zwischen den Gruppen = between-varianz Gesamtvarianz = Nicht erklärte Varianz = unsystematische Varianz = Varianz innerhalb der Gruppen = within-varianz = Fehlervarianz 22

23 In der Varianzanalyse werden als Maß für die Streuung meist die Quadratsummen QS verwendet. Diese sind noch nicht an der Stichprobengröße relativiert. Wird nur eine UV (Faktor) untersucht, handelt es sich um eine einfaktorielle Varianzanalyse. Wird gelichzeitig eine zweite UV untersucht, handelt es sich um eine zweifaktorielle Varianzanalyse mit zwei Haupteffekten. Bei mehr als zwei Faktoren/UV handelt es sich um eine mehrfaktorielle Varianzanalyse mit dementsprechenden mehreren Haupteffekten. Die Haupteffekte prüfen, ob die einzelnen unabhängigen Variablen einen signifikanten Effekt auf die AV ausüben. Die Interaktion prüft, ob sich die UV gegenseitig in ihrer Wirkung beeinflussen. Parametrische vs. Non-parametrische Testverfahren Parametrische Testverfahrens setzen eine bestimmte Verteilung (meist eine Normalverteilung) von Populationswerten oder paramtern voraus. Non-parametrische oder verteilungsfreie Verfahren machen keine Annahmen über die Verteilung dieser Werte oder Parameter. Der Vorteil der non-parametrischen Verfahren besteht darin, dass man ihnen sehr kleine Stichproben untersuchen kann. Power/Teststärke Prinzipiell kann man alle Fragestellungen, die man mit parametrischen Testverfahren untersuchen könnte, auch mit non-parametrischen Verfahren untersuchen. Der Nachteil non-parametrischer Verfahren besteht allerdings darin, dass diese Verfahren i.d.r. viel schwerer signifikant werden. D.h. dass Effekte, die es in der Population möglicherweise gibt, viel schwerer entdeckt werden können, Man spricht von geringer Teststärke (Power). 23

Parametrische vs. Non-Parametrische Testverfahren

Parametrische vs. Non-Parametrische Testverfahren Parametrische vs. Non-Parametrische Testverfahren Parametrische Verfahren haben die Besonderheit, dass sie auf Annahmen zur Verteilung der Messwerte in der Population beruhen: die Messwerte sollten einer

Mehr

Korrelation Regression. Wenn Daten nicht ohne einander können Korrelation

Korrelation Regression. Wenn Daten nicht ohne einander können Korrelation DAS THEMA: KORRELATION UND REGRESSION Korrelation Regression Wenn Daten nicht ohne einander können Korrelation Korrelation Kovarianz Pearson-Korrelation Voraussetzungen für die Berechnung die Höhe der

Mehr

Anteile Häufigkeiten Verteilungen Lagemaße Streuungsmaße Merkmale von Verteilungen. Anteile Häufigkeiten Verteilungen

Anteile Häufigkeiten Verteilungen Lagemaße Streuungsmaße Merkmale von Verteilungen. Anteile Häufigkeiten Verteilungen DAS THEMA: VERTEILUNGEN LAGEMAßE - STREUUUNGSMAßE Anteile Häufigkeiten Verteilungen Lagemaße Streuungsmaße Merkmale von Verteilungen Anteile Häufigkeiten Verteilungen Anteile und Häufigkeiten Darstellung

Mehr

VS PLUS

VS PLUS VS PLUS Zusatzinformationen zu Medien des VS Verlags Statistik II Inferenzstatistik 2010 Übungsaufgaben und Lösungen Inferenzstatistik 2 [Übungsaufgaben und Lösungenn - Inferenzstatistik 2] ÜBUNGSAUFGABEN

Mehr

VS PLUS

VS PLUS VS PLUS Zusatzinformationen zu Medien des VS Verlags Statistik II Inferenzstatistik 2010 Übungsaufgaben und Lösungen - Inferenzstatistik 1 [Übungsaufgaben und Lösungenn - Inferenzstatistik 1] ÜBUNGSAUFGABEN

Mehr

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische

Mehr

Teil: lineare Regression

Teil: lineare Regression Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge

Mehr

Es können keine oder mehrere Antworten richtig sein. Eine Frage ist NUR dann richtig beantwortet, wenn ALLE richtigen Antworten angekreuzt wurden.

Es können keine oder mehrere Antworten richtig sein. Eine Frage ist NUR dann richtig beantwortet, wenn ALLE richtigen Antworten angekreuzt wurden. Teil III: Statistik Alle Fragen sind zu beantworten. Es können keine oder mehrere Antworten richtig sein. Eine Frage ist NUR dann richtig beantwortet, wenn ALLE richtigen Antworten angekreuzt wurden. Wird

Mehr

Informationen zur KLAUSUR am

Informationen zur KLAUSUR am Wiederholung und Fragen 1 Informationen zur KLAUSUR am 24.07.2009 Raum: 032, Zeit : 8:00 9:30 Uhr Bitte Lichtbildausweis mitbringen! (wird vor der Klausur kontrolliert) Erlaubte Hilfsmittel: Alle Unterlagen,

Mehr

Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011

Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011 Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011 Es können von den Antworten alle, mehrere oder keine Antwort(en) richtig sein. Nur bei einer korrekten Antwort (ohne Auslassungen

Mehr

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend oder eindeutig, wenn keine alternativen Interpretationsmöglichkeiten

Mehr

Statistik II: Grundlagen und Definitionen der Statistik

Statistik II: Grundlagen und Definitionen der Statistik Medien Institut : Grundlagen und Definitionen der Statistik Dr. Andreas Vlašić Medien Institut (0621) 52 67 44 vlasic@medien-institut.de Gliederung 1. Hintergrund: Entstehung der Statistik 2. Grundlagen

Mehr

Pflichtlektüre: Kapitel 12 - Signifikanztest Wie funktioniert ein Signifikanztest? Vorgehensweise nach R. A. Fisher.

Pflichtlektüre: Kapitel 12 - Signifikanztest Wie funktioniert ein Signifikanztest? Vorgehensweise nach R. A. Fisher. Pflichtlektüre: Kapitel 12 - Signifikanztest Überblick Signifikanztest Populationsparameter Ein Verfahren zur Überprüfung von Hypothesen, Grundlage bilden auch hier Stichprobenverteilungen, das Ergebnis

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

INFERENZSTATISTISCHE AUSSAGEN FÜR LAGEMAßE UND STREUUNGSMAßE. Inferenzstatistik für Lagemaße Inferenzstatistik für Streuungsmaße

INFERENZSTATISTISCHE AUSSAGEN FÜR LAGEMAßE UND STREUUNGSMAßE. Inferenzstatistik für Lagemaße Inferenzstatistik für Streuungsmaße DAS THEMA: INFERENZSTATISTIK III INFERENZSTATISTISCHE AUSSAGEN FÜR LAGEMAßE UND STREUUNGSMAßE Inferenzstatistik für Lagemaße Inferenzstatistik für Streuungsmaße Inferenzstatistik für Lagemaße Standardfehler

Mehr

Methodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 12 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre I Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 25.9.13 Psychologie als Wissenschaft

Mehr

ÜBUNGSAUFGABEN ZUR DESKRIPTIVEN UND EXPLORATIVEN DATENANALYSE

ÜBUNGSAUFGABEN ZUR DESKRIPTIVEN UND EXPLORATIVEN DATENANALYSE ÜBUNGSAUFGABEN ZUR DESKRIPTIVEN UND EXPLORATIVEN DATENANALYSE 1.1 Füllen Sie bitte folgenden Lückentext aus. Daten, die in Untersuchungen erhoben werden, muss man grundsätzlich nach ihrem unterscheiden.

Mehr

Konkretes Durchführen einer Inferenzstatistik

Konkretes Durchführen einer Inferenzstatistik Konkretes Durchführen einer Inferenzstatistik Die Frage ist, welche inferenzstatistischen Schlüsse bei einer kontinuierlichen Variablen - Beispiel: Reaktionszeit gemessen in ms - von der Stichprobe auf

Mehr

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 10 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre II Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 18.2.15 Psychologie als Wissenschaft

Mehr

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang

Mehr

Einführung in die Statistik für Politikwissenschaftler Sommersemester 2013

Einführung in die Statistik für Politikwissenschaftler Sommersemester 2013 Einführung in die Statistik für Politikwissenschaftler Sommersemester 2013 1. Welche Aussage zur Statistik (in den Sozialwissenschaften) sind richtig? (2 Punkte) ( ) Statistik ist die Lehre von Methoden

Mehr

Grundlagen sportwissenschaftlicher Forschung Deskriptive Statistik 2 Inferenzstatistik 1

Grundlagen sportwissenschaftlicher Forschung Deskriptive Statistik 2 Inferenzstatistik 1 Grundlagen sportwissenschaftlicher Forschung Deskriptive Statistik 2 Inferenzstatistik 1 Dr. Jan-Peter Brückner jpbrueckner@email.uni-kiel.de R.216 Tel. 880 4717 Rückblick: Besonders wichtige Themen Wissenschaftstheoretischer

Mehr

Statistik. Jan Müller

Statistik. Jan Müller Statistik Jan Müller Skalenniveau Nominalskala: Diese Skala basiert auf einem Satz von qualitativen Attributen. Es existiert kein Kriterium, nach dem die Punkte einer nominal skalierten Variablen anzuordnen

Mehr

Brückenkurs Statistik für Wirtschaftswissenschaften

Brückenkurs Statistik für Wirtschaftswissenschaften Peter von der Lippe Brückenkurs Statistik für Wirtschaftswissenschaften Weitere Übungsfragen UVK Verlagsgesellschaft mbh Konstanz Mit UVK/Lucius München UVK Verlagsgesellschaft mbh Konstanz und München

Mehr

Lage- und Streuungsparameter

Lage- und Streuungsparameter Lage- und Streuungsparameter Beziehen sich auf die Verteilung der Ausprägungen von intervall- und ratio-skalierten Variablen Versuchen, diese Verteilung durch Zahlen zu beschreiben, statt sie graphisch

Mehr

8. Konfidenzintervalle und Hypothesentests

8. Konfidenzintervalle und Hypothesentests 8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars

Mehr

fh management, communication & it Constantin von Craushaar fh-management, communication & it Statistik Angewandte Statistik

fh management, communication & it Constantin von Craushaar fh-management, communication & it Statistik Angewandte Statistik fh management, communication & it Folie 1 Überblick Grundlagen (Testvoraussetzungen) Mittelwertvergleiche (t-test,..) Nichtparametrische Tests Korrelationen Regressionsanalyse... Folie 2 Überblick... Varianzanalyse

Mehr

Statistische Tests (Signifikanztests)

Statistische Tests (Signifikanztests) Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)

Mehr

Angewandte Statistik 3. Semester

Angewandte Statistik 3. Semester Angewandte Statistik 3. Semester Übung 5 Grundlagen der Statistik Übersicht Semester 1 Einführung ins SPSS Auswertung im SPSS anhand eines Beispieles Häufigkeitsauswertungen Grafiken Statistische Grundlagen

Mehr

Inhaltsverzeichnis. Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden

Inhaltsverzeichnis. Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden Inhaltsverzeichnis Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden 1 Statistik ist Spaß 3 Warum Statistik? 3 Checkpoints 4 Daten 4 Checkpoints 7 Skalen - lebenslang wichtig bei der Datenanalyse

Mehr

ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II

ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II 1.1 Durch welche Elemente lässt sich laut der Formel für die multiple Regression der Wert einer Person auf einer bestimmten abhängigen Variable Y vorhersagen? a)

Mehr

methodenlehre ll Grenzen des Signifikanztests methodenlehre ll Grenzen des Signifikanztests

methodenlehre ll Grenzen des Signifikanztests methodenlehre ll Grenzen des Signifikanztests Möglichkeiten und Grenzen des Signifikanztests Thomas Schäfer SS 29 1 Grenzen des Signifikanztests Sie haben zur Untersuchung Ihrer Fragestellung eine Experimental und eine Kontrollgruppe mit jeweils 2

Mehr

Methodik für Linguisten

Methodik für Linguisten Claudia Methodik für Linguisten Eine Einführung in Statistik und Versuchsplanung narr VERLAG 1 Reisevorbereitungen und Wegweiser 2 Linguistik als empirische Wissenschaft 15 2.1 Karl Popper und der Falsifikationismus

Mehr

Bitte am PC mit Windows anmelden!

Bitte am PC mit Windows anmelden! Einführung in SPSS Plan für heute: Grundlagen/ Vorwissen für SPSS Vergleich der Übungsaufgaben Einführung in SPSS http://weknowmemes.com/generator/uploads/generated/g1374774654830726655.jpg Standardnormalverteilung

Mehr

Statistische Grundlagen I

Statistische Grundlagen I Statistische Grundlagen I Arten der Statistik Zusammenfassung und Darstellung von Daten Beschäftigt sich mit der Untersuchung u. Beschreibung von Gesamtheiten oder Teilmengen von Gesamtheiten durch z.b.

Mehr

Aufgaben zu Kapitel 5:

Aufgaben zu Kapitel 5: Aufgaben zu Kapitel 5: Aufgabe 1: Ein Wissenschaftler untersucht, in wie weit die Reaktionszeit auf bestimmte Stimuli durch finanzielle Belohnung zu steigern ist. Er möchte vier Bedingungen vergleichen:

Mehr

Klausur Statistik I. Dr. Andreas Voß Wintersemester 2005/06

Klausur Statistik I. Dr. Andreas Voß Wintersemester 2005/06 Klausur Statistik I Dr. Andreas Voß Wintersemester 2005/06 Hiermit versichere ich, dass ich an der Universität Freiburg mit dem Hauptfach Psychologie eingeschrieben bin. Name: Mat.Nr.: Unterschrift: Bearbeitungshinweise:

Mehr

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Einführung in die computergestützte Datenanalyse

Einführung in die computergestützte Datenanalyse Karlheinz Zwerenz Statistik Einführung in die computergestützte Datenanalyse 6., überarbeitete Auflage DE GRUYTER OLDENBOURG Vorwort Hinweise zu EXCEL und SPSS Hinweise zum Master-Projekt XI XII XII TEIL

Mehr

3 Konfidenzintervalle

3 Konfidenzintervalle 3 Konfidenzintervalle Konfidenzintervalle sind das Ergebnis von Intervallschätzungen. Sicheres Wissen über Grundgesamtheiten kann man anhand von Stichproben nicht gewinnen. Aber mit Hilfe der Statistik

Mehr

Analyse von Querschnittsdaten. Signifikanztests I Basics

Analyse von Querschnittsdaten. Signifikanztests I Basics Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004

Mehr

Quantitative Methoden (Vertretung für Prof. Th. Pechmann)

Quantitative Methoden (Vertretung für Prof. Th. Pechmann) Quantitative Methoden (Vertretung für Prof. Th. Pechmann) Inferenzstatistik I: Zusammenhänge (Korrelationen) Logik inferenzstatistischer Verfahren Andreas Opitz Universität Leipzig Institut für Linguistik

Mehr

Mittelwert und Standardabweichung

Mittelwert und Standardabweichung Professur E-Learning und Neue Medien Institut für Medienforschung Philosophische Fakultät Einführung in die Statistik Mittelwert und Standardabweichung Überblick Mittelwert Standardabweichung Weitere Maße

Mehr

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung

Mehr

Hypothesentests mit SPSS

Hypothesentests mit SPSS Beispiel für eine zweifaktorielle Varianzanalyse mit Messwiederholung auf einem Faktor (univariate Lösung) Daten: POKIII_AG4_V06.SAV Hypothese: Die physische Attraktivität der Bildperson und das Geschlecht

Mehr

Einführung 17. Teil I Kopfüber eintauchen in die Statistik 23. Kapitel 1 Kategoriale Daten zusammenfassen: Häufigkeiten und Prozente 25

Einführung 17. Teil I Kopfüber eintauchen in die Statistik 23. Kapitel 1 Kategoriale Daten zusammenfassen: Häufigkeiten und Prozente 25 Inhaltsverzeichnis Einführung 17 Über dieses Buch 17 Törichte Annahmen über den Leser 19 Wie dieses Buch aufgebaut ist 19 Teil I: Kopfüber eintauchen indie Statistik 19 Teil II: Von Wahrscheinlichkeiten,

Mehr

Einführung in die Korrelationsrechnung

Einführung in die Korrelationsrechnung Einführung in die Korrelationsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Korrelationsrechnung

Mehr

Was sind Zusammenhangsmaße?

Was sind Zusammenhangsmaße? Was sind Zusammenhangsmaße? Zusammenhangsmaße beschreiben einen Zusammenhang zwischen zwei Variablen Beispiele für Zusammenhänge: Arbeiter wählen häufiger die SPD als andere Gruppen Hochgebildete vertreten

Mehr

Statistik. Datenanalyse mit EXCEL und SPSS. R.01denbourg Verlag München Wien. Von Prof. Dr. Karlheinz Zwerenz. 3., überarbeitete Auflage

Statistik. Datenanalyse mit EXCEL und SPSS. R.01denbourg Verlag München Wien. Von Prof. Dr. Karlheinz Zwerenz. 3., überarbeitete Auflage Statistik Datenanalyse mit EXCEL und SPSS Von Prof. Dr. Karlheinz Zwerenz 3., überarbeitete Auflage R.01denbourg Verlag München Wien Inhalt Vorwort Hinweise zu EXCEL und SPSS Hinweise zum Master-Projekt

Mehr

Schließende Statistik

Schließende Statistik Schließende Statistik Die schließende Statistik befasst sich mit dem Rückschluss von einer Stichprobe auf die Grundgesamtheit (Population). Die Stichprobe muss repräsentativ für die Grundgesamtheit sein.

Mehr

1. Maße der zentralen Tendenz Beispiel: Variable Anzahl der Geschwister aus Jugend '92. Valid Cum Value Frequency Percent Percent Percent

1. Maße der zentralen Tendenz Beispiel: Variable Anzahl der Geschwister aus Jugend '92. Valid Cum Value Frequency Percent Percent Percent Deskriptive Statistik 1. Verteilungsformen symmetrisch/asymmetrisch unimodal(eingipflig) / bimodal (zweigipflig schmalgipflig / breitgipflig linkssteil / rechtssteil U-förmig / abfallend Statistische Kennwerte

Mehr

METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER

METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER DAS THEMA: INFERENZSTATISTIK IV INFERENZSTATISTISCHE AUSSAGEN FÜR ZUSAMMENHÄNGE UND UNTERSCHIEDE Inferenzstatistik für Zusammenhänge Inferenzstatistik für Unterschiede

Mehr

Modul G.1 WS 07/08: Statistik

Modul G.1 WS 07/08: Statistik Modul G.1 WS 07/08: Statistik 10.01.2008 1 2 Test Anwendungen Der 2 Test ist eine Klasse von Verfahren für Nominaldaten, wobei die Verteilung der beobachteten Häufigkeiten auf zwei mehrfach gestufte Variablen

Mehr

Inhaltsverzeichnis. Vorwort

Inhaltsverzeichnis. Vorwort V Vorwort XI 1 Zum Gebrauch dieses Buches 1 1.1 Einführung 1 1.2 Der Text in den Kapiteln 1 1.3 Was Sie bei auftretenden Problemen tun sollten 2 1.4 Wichtig zu wissen 3 1.5 Zahlenbeispiele im Text 3 1.6

Mehr

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de

Mehr

SozialwissenschaftlerInnen II

SozialwissenschaftlerInnen II Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Varianzanalyse Statistik

Mehr

Jost Reinecke. 7. Juni 2005

Jost Reinecke. 7. Juni 2005 Universität Bielefeld 7. Juni 2005 Testtheorie Test für unabhängige Stichproben Test für abhängige Stichproben Testtheorie Die Testtheorie beinhaltet eine Reihe von Testverfahren, die sich mit der Überprüfung

Mehr

Methodenlehre. Vorlesung 5. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 5. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 5 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre I Woche Datum Thema 1 FQ 20.2.13 Einführung, Verteilung der Termine 1 25.9.13 Psychologie

Mehr

Probleme bei kleinen Stichprobenumfängen und t-verteilung

Probleme bei kleinen Stichprobenumfängen und t-verteilung Probleme bei kleinen Stichprobenumfängen und t-verteilung Fassen wir zusammen: Wir sind bisher von der Frage ausgegangen, mit welcher Wahrscheinlichkeit der Mittelwert einer empirischen Stichprobe vom

Mehr

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für

Mehr

Analytische Statistik II

Analytische Statistik II Analytische Statistik II Institut für Geographie 1 Schätz- und Teststatistik 2 Das Testen von Hypothesen Während die deskriptive Statistik die Stichproben nur mit Hilfe quantitativer Angaben charakterisiert,

Mehr

Statistik II: Signifikanztests /1

Statistik II: Signifikanztests /1 Medien Institut : Signifikanztests /1 Dr. Andreas Vlašić Medien Institut (0621) 52 67 44 vlasic@medien-institut.de Gliederung 1. Noch einmal: Grundlagen des Signifikanztests 2. Der chi 2 -Test 3. Der t-test

Mehr

Forschungsmethoden: Definition

Forschungsmethoden: Definition Forschungsmethoden: Definition Unter Forschungsmethoden versteht man die generelle Vorgehensweise beim Aufstellen der Fragestellung, bei der Planung, der Durchführung und der Auswertung einer Untersuchung.

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Hypothesenprüfung. Darüber hinaus existieren zahlreiche andere Testverfahren, die alle auf der gleichen Logik basieren

Hypothesenprüfung. Darüber hinaus existieren zahlreiche andere Testverfahren, die alle auf der gleichen Logik basieren Hypothesenprüfung Teil der Inferenzstatistik Befaßt sich mit der Frage, wie Hypothesen über eine (in der Regel unbekannte) Grundgesamtheit an einer Stichprobe überprüft werden können Behandelt werden drei

Mehr

Auswertung mit dem Statistikprogramm SPSS: 30.11.05

Auswertung mit dem Statistikprogramm SPSS: 30.11.05 Auswertung mit dem Statistikprogramm SPSS: 30.11.05 Seite 1 Einführung SPSS Was ist eine Fragestellung? Beispiel Welche statistische Prozedur gehört zu welcher Hypothese? Statistische Berechnungen mit

Mehr

Lösungen zur Biomathe-Klausur Gruppe A Montag, den 16. Juli 2001

Lösungen zur Biomathe-Klausur Gruppe A Montag, den 16. Juli 2001 Lösungen zur Biomathe-Klausur Gruppe A Montag, den 16. Juli 2001 1. Sensitivität und Spezifität In einer medizinischen Ambulanz haben 30 % der Patienten eine akute Appendizitis. 80 % dieser Patienten haben

Mehr

Statistik. Datenanalyse mit EXCEL und SPSS. Prof. Dr. Karlheinz Zwerenz. R.Oldenbourg Verlag München Wien. Von

Statistik. Datenanalyse mit EXCEL und SPSS. Prof. Dr. Karlheinz Zwerenz. R.Oldenbourg Verlag München Wien. Von Statistik Datenanalyse mit EXCEL und SPSS Von Prof. Dr. Karlheinz Zwerenz R.Oldenbourg Verlag München Wien Inhalt Vorwort Hinweise zu EXCEL und SPSS Hinweise zum Master-Projekt XI XII XII TEIL I GRUNDLAGEN

Mehr

Über den Autor 7 Über den Fachkorrektor 7. Einführung 19

Über den Autor 7 Über den Fachkorrektor 7. Einführung 19 Inhaltsverzeichnis Über den Autor 7 Über den Fachkorrektor 7 Einführung 19 Über dieses Buch 19 Törichte Annahmen über den Leser 20 Wie dieses Buch aufgebaut ist 20 Teil I: Ein paar statistische Grundlagen

Mehr

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik Kapitel 15 Statistische Testverfahren 15.1. Arten statistischer Test Klassifikation von Stichproben-Tests Einstichproben-Test Zweistichproben-Test - nach der Anzahl der Stichproben - in Abhängigkeit von

Mehr

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003 Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003. Eine seltene Krankheit trete mit Wahrscheinlichkeit : 0000 auf. Die bedingte Wahrscheinlichkeit, dass ein bei einem Erkrankten durchgeführter

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

E ektgrößen Metaanalysen. Zusammenhänge und Unterschiede quantifizieren E ektgrößen

E ektgrößen Metaanalysen. Zusammenhänge und Unterschiede quantifizieren E ektgrößen DAS THEMA: EFFEKTGRÖßEN UND METAANALYSE E ektgrößen Metaanalysen Zusammenhänge und Unterschiede quantifizieren E ektgrößen Was ist ein E ekt? Was sind E ektgrößen? Berechnung von E ektgrößen Interpretation

Mehr

GRUNDPRINZIPIEN statistischen Testens

GRUNDPRINZIPIEN statistischen Testens Fragestellungen beim Testen GRUNDPRINZIPIEN statistischen Testens. Vergleiche Unterscheidet sich die Stichprobenbeobachtung von einer vorher spezifizierten Erwartung ( Hypothese ) mit ausreichender Sicherheit?

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Pantelis Christodoulides & Karin Waldherr 4. Juni 2014 Christodoulides / Waldherr Einführung in Quantitative Methoden 1/35 Ein- und Zweiseitige Hypothesen H 0 : p =

Mehr

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen. Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes

Mehr

Wiederholung Statistik I. Statistik für SozialwissenschaftlerInnen II p.8

Wiederholung Statistik I. Statistik für SozialwissenschaftlerInnen II p.8 Wiederholung Statistik I Statistik für SozialwissenschaftlerInnen II p.8 Konstanten und Variablen Konstante: Merkmal hat nur eine Ausprägung Variable: Merkmal kann mehrere Ausprägungen annehmen Statistik

Mehr

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests ue biostatistik: hypothesen, fehler 1. und. art, power 1/8 h. lettner / physik Hypothesen: Fehler 1. und. Art, Power eines statistischen Tests Die äußerst wichtige Tabelle über die Zusammenhänge zwischen

Mehr

14.01.14 DAS THEMA: INFERENZSTATISTIK II. Standardfehler Konfidenzintervalle Signifikanztests. Standardfehler

14.01.14 DAS THEMA: INFERENZSTATISTIK II. Standardfehler Konfidenzintervalle Signifikanztests. Standardfehler DAS THEMA: INFERENZSTATISTIK II INFERENZSTATISTISCHE AUSSAGEN Standardfehler Konfidenzintervalle Signifikanztests Standardfehler der Standardfehler Interpretation Verwendung 1 ZUR WIEDERHOLUNG... Ausgangspunkt:

Mehr

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen

Mehr

Korrelation, Regression und Signifikanz

Korrelation, Regression und Signifikanz Professur Forschungsmethodik und Evaluation in der Psychologie Übung Methodenlehre I, und Daten einlesen in SPSS Datei Textdaten lesen... https://d3njjcbhbojbot.cloudfront.net/api/utilities/v1/imageproxy/https://d15cw65ipcts

Mehr

Einführung in die Statistik

Einführung in die Statistik Einführung in die Statistik Analyse und Modellierung von Daten Von Prof. Dr. Rainer Schlittgen 4., überarbeitete und erweiterte Auflage Fachbereich Materialwissenschaft! der Techn. Hochschule Darmstadt

Mehr

Wiederholung Hypothesentests Zusammenfassung. Hypothesentests. Statistik I. Sommersemester Statistik I Hypothesentests I (1/36)

Wiederholung Hypothesentests Zusammenfassung. Hypothesentests. Statistik I. Sommersemester Statistik I Hypothesentests I (1/36) Statistik I Sommersemester 2009 Statistik I I (1/36) Wiederholung Grenzwertsatz Konfidenzintervalle Logik des 0.0 0.1 0.2 0.3 0.4 4 2 0 2 4 Statistik I I (2/36) Zum Nachlesen Agresti/Finlay: Kapitel 6+7

Mehr

Demokurs. Modul Grundlagen der Wirtschaftsmathematik Grundlagen der Statistik

Demokurs. Modul Grundlagen der Wirtschaftsmathematik Grundlagen der Statistik Demokurs Modul 31101 Grundlagen der Wirtschaftsmathematik und Statistik Kurs 40601 Grundlagen der Statistik 13. Juli 2010 KE 1 2.4 Schiefe und Wölbung einer Verteilung Seite: 53 2.4 Schiefe und Wölbung

Mehr

VS PLUS

VS PLUS VS PLUS Zusatzinformationen zu Medien des VS Verlags Statistik I Deskriptive und Explorative Datenanalyse 2010 Übungsaufgaben und Lösungen Erkenntn nisgewinnung und Datenerhebung in der Psychologie [Übungsaufgaben

Mehr

Grundlagen der Statistik I

Grundlagen der Statistik I NWB-Studienbücher Wirtschaftswissenschaften Grundlagen der Statistik I Beschreibende Verfahren Von Professor Dr. Jochen Schwarze 10. Auflage Verlag Neue Wirtschafts-Briefe Herne/Berlin Inhaltsverzeichnis

Mehr

Teil II: Einführung in die Statistik

Teil II: Einführung in die Statistik Teil II: Einführung in die Statistik (50 Punkte) Bitte beantworten Sie ALLE Fragen. Es handelt sich um multiple choice Fragen. Sie müssen die exakte Antwortmöglichkeit angeben, um die volle Punktzahl zu

Mehr

Heinz Holling & Günther Gediga. Statistik - Deskriptive Verfahren

Heinz Holling & Günther Gediga. Statistik - Deskriptive Verfahren Heinz Holling & Günther Gediga Statistik - Deskriptive Verfahren Übungen Version 15.12.2010 Inhaltsverzeichnis 1 Übung 1; Kap. 4 3 2 Übung 2; Kap. 5 4 3 Übung 3; Kap. 6 5 4 Übung 4; Kap. 7 6 5 Übung 5;

Mehr

Übungen (HS-2010): Urteilsfehler. Autor: Siegfried Macho

Übungen (HS-2010): Urteilsfehler. Autor: Siegfried Macho Übungen (HS-2010): Urteilsfehler Autor: Siegfried Macho Inhaltsverzeichnis i Inhaltsverzeichnis 1. Übungen zu Kapitel 2 1 Übungen zu Kontingenz- und Kausalurteile 1 Übung 1-1: 1. Übungen zu Kapitel 2 Gegeben:

Mehr

Skalenniveaus =,!=, >, <, +, -

Skalenniveaus =,!=, >, <, +, - ZUSAMMENHANGSMAßE Skalenniveaus Nominalskala Ordinalskala Intervallskala Verhältnisskala =,!= =,!=, >, < =,!=, >, ,

Mehr

Annahmen des linearen Modells

Annahmen des linearen Modells Annahmen des linearen Modells Annahmen des linearen Modells zusammengefasst A1: Linearer Zusammenhang: y = 0 + 1x 1 + 2x 2 + + kx k A2: Zufallsstichprobe, keine Korrelation zwischen Beobachtungen A3: Erwartungswert

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Statistik & Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte

Mehr

- Normalverteilung (Gaußverteilung) kann auf sehr viele Zufallsprozesse angewendet werden.

- Normalverteilung (Gaußverteilung) kann auf sehr viele Zufallsprozesse angewendet werden. Normalverteilung und Standardnormalverteilung als Beispiel einer theoretischen Verteilung - Normalverteilung (Gaußverteilung) kann auf sehr viele Zufallsprozesse angewendet werden. - Stetige (kontinuierliche),

Mehr

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem

Mehr

Begriffe zur Statistik-Vorlesung

Begriffe zur Statistik-Vorlesung Begriffe zur Statistik-Vorlesung 1. Vorlesung Grundgesamtheit gesamte zu beobachtende Menge, über die man eine Aussage machen möchte; z.b. alle Studenten der FH BRS Stichprobe Teil der GGH; nutze ich,

Mehr

Chi-Quadrat Verfahren

Chi-Quadrat Verfahren Chi-Quadrat Verfahren Chi-Quadrat Verfahren werden bei nominalskalierten Daten verwendet. Die einzige Information, die wir bei Nominalskalenniveau zur Verfügung haben, sind Häufigkeiten. Die Quintessenz

Mehr

Hypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav

Hypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav Hypothese: Die Beschäftigung mit Kunst ist vom Bildungsgrad abhängig. 1. Annahmen Messniveau: Modell: Die Skala zur Erfassung der

Mehr