Mathematische und statistische Methoden II
|
|
- Waldemar Becke
- vor 6 Jahren
- Abrufe
Transkript
1 Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum ) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de SS 2010 Fachbereich Sozialwissenschaften Psychologisches Institut Johannes Gutenberg Universität Mainz
2 Definition Kovarianz Korrelation Wahrscheinlichkeitsverteilungen Uni- und multivariate Zufallsvariablen Univariate Zufallsvariable X: Zuweisung nur einer Zahl zu jedem Ergebnis eines Zufallsexperiments (d.h. zu jedem zufällig ausgewählten Merkmalsträger) Multivariate Zufallsvariable X, Y, : Zuweisung mehrerer Zahlen zu jedem Ergebnis Einer der häufigsten Spezialfälle multivariater Zufallsvariablen ist der bivariate Fall mit zwei ZVn X und Y Beispiele für mehrdimensionale Zufallsvariablen: Erfassung von mathematischem und verbalem IQ Messung von Ölverbrauch und Ausfallrate Erfassung von Einkommen und Parteipräferenz
3 Definition Kovarianz Korrelation Wahrscheinlichkeitsverteilungen Uni- und multivariate Wahrscheinlichkeitsverteilungen Die Wahrscheinlichkeitsverteilung einer univariaten Zufallsvariablen wird zumeist mit f(x) bezeichnet. Sie beschreibt die Punktwahrscheinlichkeit h hk i für das Auftreten einer Ausprägung X=x. Die Wahrscheinlichkeitsverteilung h hk it t il einer multivariaten i t Zufallsvariablen wird zumeist mit f(x,y, ) bezeichnet. Sie beschreibt die Punktwahrscheinlichkeit für das Sie beschreibt die Punktwahrscheinlichkeit für das Auftreten einer Wertekombination X=x, Y=y,.
4 Definition Kovarianz Korrelation Wahrscheinlichkeitsverteilungen Der bivariate Fall Multivariate Verteilungsfunktion Die Verteilungsfunktion zweier diskreter Zufallsvariablen X und Y ist definiert als m n f ( X x, Y y ) f( x, y ) = m n i j i= 1 j= 1 Die Verteilungsfunktion zweier stetiger Zufallsvariablen X und Y itdfii ist definiert als F ( x = u X xo, yu Y yo) f XY ( x, y ) dxdy Wie bei univariaten stetigen Verteilungen ist die Punktwahrscheinlichkeit stets Null, nur die Intervallwahrscheinlichkeit ist ein sinnvoller Wert. x x o u y y o u
5 Definition Kovarianz Wahrscheinlichkeitsverteilungen Der bivariate Fall Beispiel Normalverteilung Die univariate Wahrscheinlichkeitsfunktion der Normalverteilung war = 2 x 1 1 x μx Korrelation f ( x ) exp 2πσ x 2 σ f X Die bivariate Wahrscheinlichkeitsfunktion der Normalverteilung lautet 1 1 x x ( x, y) = exp + 2ρ πσ 1 2 2(1 ) xσ y ρ ρ σx σ y σx σ y ( x μ ) ( y μy) ( x μ ) ( y μy) Frage: Welche Rolle spielt der Parameter ρ?
6 Definition Wahrscheinlichkeitsverteilungen Der bivariate Fall Beispiel Normalverteilung Kovarianz Niedriger Zusammenhang zwischen X und Y Hoher Zusammenhang zwischen X und Y Korrelation Die Elongation oder Länglichkeit der multivariaten Wahrscheinlichkeitsverteilung ist ein Kennzeichen für den Zusammenhang der Zufallsvariablen (Parameter ρ im Fall der bivariaten Normalverteilung)
7 Definition Kovarianz Korrelation Wahrscheinlichkeitsverteilungen Der bivariate Fall Numerische Beschreibung Die Größe des Zusammenhangs zweier Zufallsvariablen wird als Kovarianz bezeichnet ( ( ) ) ( ) ( ) cov XY = E X E X Y E Y Die Kovarianz ist Null, wenn kein Zusammenhang zwischen den Zufallsvariablen besteht. Wahrscheinlichkeitsfunktionen für X und Y hängen nicht zusammen Die Kovarianz ist positiv, wenn ein gleichsinniger Zusammenhang besteht Hohe (niedrige) Werte von X treten mit hohen (niedrigen) Werten von Y auf Di K i i t ti i i i Die Kovarianz ist negativ, wenn ein gegensinniger Zusammenhang besteht Niedrige (hohe) Werte von X treten mit hohen (niedrigen) Werten von Y auf
8 Definition Häufigkeitsverteilungen Der bivariate Fall Numerische Beschreibung Kovarianz Korrelation
9 Definition Häufigkeitsverteilungen Der bivariate Fall Numerische Beschreibung Kovarianz Für n Beobachtungen aus einem Zufallsexperiment x 1 x n und y 1 y n ist die Kovarianz definiert als Korrelation n 1 s xy = ( xi x )( yi y ) n i = 1 Es gelten bei der empirischen Kovarianz dieselben Prinzipien wie für die Kovarianz zwischen theoretischen Wahrscheinlichkeitsverteilungen. Die so berechnete Kovarianz ist nur bei mindestens intervallskalierten Zufallsvariablen ein sinnvolles Maß.
10 Definition Kovarianz Korrelation Wahrscheinlichkeitsverteilungen Der bivariate Fall Numerische Beschreibung Problem: Die Kovarianz erfüllt nicht die Forderung der Invarianz gegenüber erlaubten Transformationen Für die Formel der empirischen Kovarianz ist das leicht zu zeigen und gilt ebenso für die theoretische ti h Verteilung Zwar gilt: Addition einer Konstanten zu X und Y: cov X+ a, Y+ B= cov X, Y s ( x+ a, y+ b) = s xy xy Aber: Multiplikation von X und X mit einer Konstanten cov = ab cov ax, by XY, s ( a X, b Y) = a b s Die Kovarianz ist also numerisch schwer zu interpretieren xy xy
11 Definition Kovarianz Korrelation Wahrscheinlichkeitsverteilungen Der bivariate Fall Numerische Beschreibung Die Korrelation zweier Zufallsvariablen ist definiert als ( ( )) ( ) ( ) ( ) cov XY ( ) 2 ( ( )) 2 σ X E X E X Y E Y ρ = = E X E X E Y E Y σ Y Für die Richtungsinformation gelten dieselben Regeln wie bei der Kovarianz Der Wert der Korrelation schwankt zwischen -1 und 1 Bei der Korrelation ist neben der Richtung (Vorzeichen) also auch die Stärke (Betrag) des Zusammenhangs zwischen X und Y interpretier- und vergleichbar.
12 Definition Kovarianz Korrelation Häufigkeitsverteilungen Der bivariate Fall Numerische Beschreibung Für empirische Daten gibt es je nach Skalenniveau verschiedene Berechnungsformel für die Korrelation. Für n intervallskalierte Beobachtungen aus einem Zufallsexperiment x 1 x n und y 1 y n ist der Korrelationskoeffizient definiert als r xy 1 n ( x x)( y y) i i n i= 1 = = n n 1 1 ( x ) 2 ( ) 2 i x yi y n i= 1 n i= 1 s s x xy s y
13 Definition Kovarianz Korrelation Häufigkeitsverteilungen Der bivariate Fall Numerische Beschreibung Der so definierte Korrelationskoeffizient r xy wird auch als Produkt-Moment-Korrelation oder Korrelationskoeffizient nach Pearson bezeichnet. Die Korrelation liegt immer zwischen -1 und 1. Die Korrelation ist Null, wenn kein Zusammenhang zwischen den Ausprägungen der Zufallsvariablen besteht Negative e Werte zeigen einen e gegensinnigen, positive Werte einen gleichsinnigen Zusammenhang an Die Korrelation ist anfällig ggegenüber g Ausreißern
14 Definition Häufigkeitsverteilungen Der bivariate Fall Numerische Beschreibung Kovarianz Kovarianz Korrelation Korrelation s x,y = s y,x s a,x = 0 s a,b = 0 r x,y = r x,y r a,y = nicht def. r a,b = nicht def. s xx = s² x r xx = 1 x,x x x,x s a x+b,c x+d = a c s x,y r a x+b, c y+d = r x, y Mit a, b, c, d = konstante Werte Achtung: Ist a oder b negativ, verändert sich das Vorzeichen von r, sind beide negativ, bleibt r gleich.
15 Definition Kovarianz Korrelation Häufigkeitsverteilungen Der bivariate Fall Numerische Beschreibung Für die Bewertung der absoluten Höhe der Produkt- Moment-Korrelation existieren Faustregeln nach Cohen (1988) r = ± 0.10 kleine Korrelation r = ± 0.30 mittlere Korrelation r = ± 0.50 hohe Korrelation In der nicht-experimentellen imentellen Psychologie liegen Korrelationen selten über r=0.75.
16 Definition Häufigkeitsverteilungen Der bivariate Fall Numerische Beschreibung Kovarianz Korrelation
17 Definition Kovarianz Korrelation Häufigkeitsverteilungen Der bivariate Fall Grafische Beschreibung Liegen für eine Stichprobe Messungen der Ausprägung zweier Zufallsvariablen X und Y vor, so ist jeder Merkmalsträger durch ein Wertepaar gekennzeichnet. Die Merkmalsträger können nun als Punkte in einem Koordinatensystem dargestellt werden, wobei das Wertepaar die Koordinaten festlegt. Dies ist ein Scatterplot
18 Methodenlehre Diskrete Verteilungen Stetige Verteilungen Definition Häufigkeitsverteilungen Der multivariate Fall Grafische Beschreibung Kovarianz Korrelation Die grafische Beschreibung multivariater Wahrscheinlichkeitsverteilungen ist aufwändig und vollständig nur in niedrig multivariaten Fällen zu leisten. Die Darstellungen sind dann oft dreidimensional. Bei höher multivariaten Verbundverteilungen wird zumeist auf die univariate Darstellung der einzelnen Wahrscheinlichkeitsverteilungen zurückgegriffen.
19 1 Stichprobe (abhängig) (unabhängig) Konfidenzint. Korrelationstest Varianten Für den statistischen Test von Korrelationen anhand von Stichprobendaten existieren verschiedene Verfahren, abhängig von der jeweiligen Forschungsfrage Test einer Korrelation gegen Null Test einer Korrelation gegen einen gegebenen Populationswert Vergleich von Korrelationskoeffizienten aus zwei unabhängigen Stichproben Vergleich von Korrelationskoeffizienten aus Vergleich von Korrelationskoeffizienten aus abhängigen Stichproben
20 1 Stichprobe Korrelationstest Schätzung des Populationsparameters ρ Aus Stichprobendaten erhält man eine empirisch (abhängig) beobachtete Produkt-Moment-Korrelation r. (unabhängig) Konfidenzint. Frage: Wie erhält man daraus die Schätzung des Populationsparameters ρ für die Korrelation? Es lässt sich zeigen, dass die Produkt-Moment- Korrelation eine erwartungstreue Schätzung des Populationsparameters ist. Also gilt für die Zufallsvariablen X und Y: ˆ XY ρ = r XY
21 1 Stichprobe Korrelationstest Test einer Korrelation gegen Null Bei empirisch beobachteten Korrelationen zweier (abhängig) Zufallsvariablen ist die erste Forschungsfrage oft, ob es in der Population überhaupt einen Zusammenhang gibt. (unabhängig) Konfidenzint. Dies entspricht dem Test der aus einer Stichprobe geschätzten Korrelation gegen den Erwartungswert ρ = 0. Die zu testenden Hypothesen sind a) H ˆ ˆ 0: ρ = 0; H1: ρ 0 b) H ˆ ˆ 0: ρ 0; H1: ρ > 0 c) H : ˆ ρ 0; H : ˆ ρ < 0 0 1
22 1 Stichprobe Korrelationstest Test einer Korrelation gegen Null Die Verteilung von Korrelationskoeffizienten bzw. ihre (abhängig) Parameter sind nicht einfach bestimmbar. (unabhängig) Konfidenzint. Es lässt sich aber eine geeignete Transformation finden, so dass der Kennwert approximativ t-verteilt ist um einen Erwartungswert von ρ = 0. t = ˆ ρt 0 σ ˆ ρ t mit ˆ ρ = t ˆ ρ 2 1 ˆ ρ und σ = ˆ ρ t n 1 2 Die Prüfgröße ist t-verteilt mit df = n 2 Freiheitsgraden Wie beim t-test kann ein- oder zweiseitig geprüft werden.
23 1 Stichprobe Korrelationstest Test einer Korrelation gegen Null Die Verteilung von Korrelationskoeffizienten bzw. ihre (abhängig) Parameter sind nicht einfach bestimmbar. (unabhängig) Konfidenzint. Es lässt sich aber eine geeignete Transformation finden, so dass der Kennwert approximativ t-verteilt ist um einen Erwartungswert von ρ = 0. t = ˆ ρt 0 σ ˆ ρ t mit ˆ ρ = t r 1 r 2 und σ = ˆ ρ t n 1 2 Die Prüfgröße ist t-verteilt mit df = n 2 Freiheitsgraden Wie beim t-test kann ein- oder zweiseitig geprüft werden.
24 1 Stichprobe Korrelationstest Test einer Korrelation gegen einen Populationswert (abhängig) (unabhängig) Konfidenzint. Bei bestimmten Fragestellung ist der Populationsparameter für die Korrelation zweier Zufallsvariablen bereits bekannt. Beispiel: Korrelation zwischen IST-2000R und Berufserfolg ist ρ =.47. Dies entspricht dem Test einer geschätzten Korrelation gegen den Erwartungswert ρ = c. Die zu testenden Hypothesen sind a) H0: ˆ ρ = c; H ˆ 1: ρ c b) H ˆ ˆ 0: ρ c ; H 1: ρ > c c) H : ˆ ρ c; H : ˆ ρ < c 0 1
25 1 Stichprobe Korrelationstest Test einer Korrelation gegen einen Populationswert Soll geprüft werden, ob ein beobachtetes r einer Population mit dem wahren Parameter ρ =c 0 (abhängig) entstammt, ist die t-prüfgröße nicht anwendbar. (unabhängig) Konfidenzint. Die Fisher-Z Transformation überführt eine Korrelation in einen approximativ normalverteilten Kennwert. Es gilt: Z ist unter der H0 approximativ normalverteilt mit Die Prüfgröße 1 1+ ˆ ρ 1 1+ r = ln = ln ˆ 2 1 ρ 2 1 r z μ Z = Z ( ρ ) Z μz = σ Z und σ = Z 1 n 3 ist standardnormalver teilt mit μ=0 und σ=1.
26 1 Stichprobe Korrelationstest Vergleich von zwei Korrelationskoeffizienten I (unabhängig) (abhängig) Konfidenzint. Liegen aus zwei unabhängigen Stichproben Messungen zweier Zufallsvariablen vor, so kann für jede Stichprobe eine Korrelation zwischen den ZVn berechnet werden. Es kann nun geprüft werden, ob beide Stichproben zu einer Population mit demselben Erwartungswert der Korrelation zwischen den Zufallsvariablen gehören. Die zu testenden Hypothesen sind a) H 0: ˆ ρ1 = ˆ ρ2; H ˆ ˆ 1: ρ1 ρ2 b) H ˆ ˆ ˆ ˆ 0: ρ 1 ρ 2; H 1: ρ 1 > ρ 2 c) H : ˆ ρ ˆ ρ ; H : ˆ ρ < ˆ ρ
27 1 Stichprobe (unabhängig) (abhängig) Konfidenzint. Korrelationstest Vergleich von zwei Korrelationskoeffizienten I Mithilfe der Fisher Z-Transformation können zwei Korrelationskoeffizienten r 1 und r 2 aus zwei unabhängigen Stichproben der Größen n 1 und n 2 auf Unterschiedlichkeit geprüft werden Die Prüfgröße z ist nach Fisher-Z Transformation der Korrelationen standardnormalverteilt mit μ=0 und σ=1σ 1 und berechnet sich als z = Z1 Z2 σ Δ σ ΔZZ 1 2 Der Standardfehler df σ Δz it ist 1 1 σ Δ = ZZ 1 2 n + 3 n 3 1 2
28 1 Stichprobe (unabhängig) (abhängig) Konfidenzint. Korrelationstest Vergleich von zwei Korrelationskoeffizienten II Beim Test von Korrelationen aus einer Stichprobe (also abhängige Korrelationen ) unterscheidet man zwei Fälle: 1. 2 Korrelationen von Zufallsvariablen a X1 und X2 mit einer Drittvariable Y r X1Y vs. r X2Y 2. 2 Korrelationen von Variablen X1 mit X2 und Y1 mit Y2 r X1X2 vs. r Y1Y2 Die Hypothesen sind dieselben wie beim Korrelationstest für zwei unabhängige Stichproben.
29 1 Stichprobe Korrelationstest Vergleich von zwei Korrelationskoeffizienten IIa Die Prüfgröße für den Vergleich von zwei abhängigen gg (unabhängig) Korrelationen aus Stichproben der Größe n ist immer: z = Z XY σ Δ Z X Y 1 2 mit (abhängig) 1 2 ZXYZ 1 X2Y σ 2 2 C = Δ ZxyZx y n 3 Konfidenzint. Der Term C variiert abhängig davon, ob es sich um den Vergleich von r X1Y mit r Y2Y oder r X1X2 mit r Y1Y2 handelt Die Prüfgröße z ist standardnormalverteilt mit μ=0 und σ=1.
30 1 Stichprobe (unabhängig) (abhängig) Korrelationstest Vergleich von zwei Korrelationskoeffizienten IIa Für den Vergleich von zwei abhängigen Korrelationen r X1Y und r X2Y ist der Term C: 1 1 C = r r r r r r 2 ( pooled ) x x ( 1 2 pooled ) pooled ( 1 2 pooled x x ) Konfidenzint. ( ) mit rpooled = rx y + rx y 1 2 2
31 1 Stichprobe (unabhängig) (abhängig) Konfidenzint. Korrelationstest Vergleich von zwei Korrelationskoeffizienten IIa Für den Vergleich von zwei abhängigen Korrelationen r X1X2 und r Y1Y2 ist der Term C: 1 [( rx y rx x rx y) ( rx y rx y. ry y) C = ( ) ( ) ( rpooled ) rxy r 1 2 xy r 1 1 yy r 1 2 x2y r 1 xx r 1 2 xy ( r r r ) ( r r r ) xy xy yy x y xx xy ( r r r ) ( r r r )] x y x x x y x y x y y y ( ) mit rpooled = rx x + ry y
32 1 Stichprobe (unabhängig) (abhängig) Konfidenzint. Korrelationstest Konstruktion von Konfidenzintervallen für r Mithilfe der Fisher Z-Transformation lassen sich Konfidenzintervalle für einen beobachteten Korrelationskoeffizienten r konstruieren Zr z1 α/2 σ Z ; Z r r + z1 α/2 σ Z Die Konfidenzintervallgrenzen konstruiert man zunächst in Z-Metrik über Z z α σ r ± 1 2 Z bzw. Z z1 α 2 r ± r Kritischer Wert aus der Standardnormalverteilung 1 N 3 DannkönnendieGrenzenüber die inverse Fisher Z-Transformation wieder in r-metrik übersetzt werden: r = e e 2 Z 2Z 1 + 1
33 Assoziation Kausalität Korrelationstest Interpretation signifikanter Korrelationen Die Verteilungsannahme der Prüfgröße bei Korrelationen ist besonders bei kleinen Stichprobengrößen eher heikel. Eine signifikante Korrelation zwischen zwei Zufallsvariablen X und Y darf nicht ohne weiteres als Kausalität zwischen den Variablen interpretiert werden. Eine signifikante Korrelation zeigt zunächst nur eine Assoziation an. Diese kann viele Ursachen haben, z.b. X X X Z Y Y Y
34 Assoziation Kausalität Korrelationstest Interpretation signifikanter Korrelationen Frage: Wann darf in einer psychologischen Untersuchung auf Kausalität geschlossen werden? 1. Das Treatment und der Effekt müssen kovariieren der Korrelationstest muss eine Signifkanz anzeigen Probleme: Standards (z.b. Signifkanzniveau) sind normativ Je höher n, desto eher werden kleinste Effekte, signifkant
35 Assoziation Kausalität Korrelationstest Interpretation signifikanter Korrelationen Frage: Wann darf in einer psychologischen Untersuchung auf Kausalität geschlossen werden? 1. Das Treatment und der Effekt müssen kovariieren der Korrelationstest muss eine Signifkanz anzeigen 2. Die Ursache muss der Wirkung zeitlich vorausgehen (z.b. Pretest Treatment Posttest) 3. Andere plausible Erklärungen für die Kovariation müssen ausgeschlossen werden können 4. Die Kovariation muss raum-zeitlich indifferent sein Generalisierung auf eine Population zu jeder Zeit
36 Relevante Excel Funktionen Zusammenhangsmaße KORREL() LN() EXP()
Mathematische und statistische Methoden II
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de
MehrMathematische und statistische Methoden II
Statistik & Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte
MehrMathematische und statistische Methoden II
Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg R. 06-06 (Persike) R. 06-31 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de
MehrForschungsstatistik I
Psychologie Prof. Dr. G. Meinhardt 6. Stock, TB II R. 06-206 (Persike) R. 06-321 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
MehrForschungsstatistik II
Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg R. 06-06 (Persike) R. 06-3 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik II Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg 2 R. 06-206 (Persike) R. 06-214 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psmet03.sowi.uni-mainz.de/
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg R. 06-06 (Persike) R. 06-31 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009
MehrMathematische und statistische Methoden II
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 6-6) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de
MehrMathematische und statistische Methoden II
Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt. Stock, Taubertsberg R. 0-0 (Persike) R. 0-1 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet0.sowi.uni-mainz.de/
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt Methodenlehre Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Dr. Malte Persike persike@uni-mainz.de
MehrStatistische Methoden in den Umweltwissenschaften
Statistische Methoden in den Umweltwissenschaften Korrelationsanalysen Kreuztabellen und χ²-test Themen Korrelation oder Lineare Regression? Korrelationsanalysen - Pearson, Spearman-Rang, Kendall s Tau
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009
MehrHäufigkeitsverteilungen
Häufigkeitsverteilungen Eine Häufigkeitsverteilung gibt die Verteilung eines erhobenen Merkmals an und ordnet jeder Ausprägung die jeweilige Häufigkeit zu. Bsp.: 100 Studenten werden gefragt, was sie studieren.
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de
MehrSozialwissenschaftlerInnen II
Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Wahrscheinlichkeitsfunktionen
MehrMathematische und statistische Methoden II
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de
MehrMathematische und statistische Methoden II
Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt Methodenlehre Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-06 Dr. Malte Persike persike@uni-mainz.de
MehrThema der Stunde. I. Die Form der Stichprobenkennwerteverteilung. II. Schlüsse von der Stichprobe auf die Population
Thema der Stunde I. Die Form der Stichprobenkennwerteverteilung II. Schlüsse von der Stichprobe auf die Population III. t-test für unabhängige und abhängige Stichproben Stichprobenkennwerte Population
MehrForschungsstatistik I
Psychologie Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS
MehrForschungsstatistik II
Psychologie Prof. r. G. Meinhardt 6. Stock, Taubertsberg R. 06-06 (Persike) R. 06-3 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung orschungsstatistik II r. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
MehrÜbung 1: Wiederholung Wahrscheinlichkeitstheorie
Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable
MehrEinführung in die Statistik
Einführung in die Statistik Analyse und Modellierung von Daten Von Prof. Dr. Rainer Schlittgen 4., überarbeitete und erweiterte Auflage Fachbereich Materialwissenschaft! der Techn. Hochschule Darmstadt
MehrEinführung in die Statistik
Einführung in die Statistik Analyse und Modellierung von Daten von Prof. Dr. Rainer Schlittgen Universität Hamburg 12., korrigierte Auflage Oldenbourg Verlag München Inhaltsverzeichnis 1 Statistische Daten
MehrForschungsstatistik I
Psychologie Prof. Dr. G. Meinhardt 6. Stock, TB II R. 06-206 (Persike) R. 06-321 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
Mehr2.Tutorium Multivariate Verfahren
2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung
MehrMathematische und statistische Methoden II
Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206 Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike
MehrSoftwaretechnik. Prof. Dr. Rainer Koschke. Fachbereich Mathematik und Informatik Arbeitsgruppe Softwaretechnik Universität Bremen
Softwaretechnik Prof. Dr. Rainer Koschke Fachbereich Mathematik und Informatik Arbeitsgruppe Softwaretechnik Universität Bremen Wintersemester 2010/11 Überblick I Statistik bei kontrollierten Experimenten
MehrKapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
MehrRegression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
MehrKlausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne
MehrMathematische und statistische Methoden II
Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrDWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt Statistik & Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Dr. Malte Persike persike@uni-mainz.de
MehrKlassifikation von Signifikanztests
Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen
MehrDie Familie der χ 2 (n)-verteilungen
Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +
MehrStatistische Methoden in den Umweltwissenschaften
Statistische Methoden in den Umweltwissenschaften Stetige und diskrete Wahrscheinlichkeitsverteilungen Lageparameter Streuungsparameter Diskrete und stetige Zufallsvariablen Eine Variable (oder Merkmal
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
MehrÜbungsblatt 9 (25. bis 29. Juni)
Statistik 2 Dr. Andrea Beccarini Dipl.-Vw. Dipl.-Kffr. Heike Bornewasser-Hermes Sommersemester 2012 Übungsblatt 9 (25. bis 29. Juni) Stetiges Verteilungsmodell und Gemeinsame Verteilung Stetiges Verteilungsmodell
MehrBivariater Zusammenhang in der Vierfeldertafel PEΣO
Bivariater Zusammenhang in der Vierfeldertafel PEΣO 12. Oktober 2001 Zusammenhang zweier Variablen und bivariate Häufigkeitsverteilung Die Bivariate Häufigkeitsverteilung gibt Auskunft darüber, wie zwei
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrMathematische und statistische Methoden II
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de
MehrStatistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de
rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent
MehrSchätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO
Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungen stetiger Zufallsvariablen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
MehrChi-Quadrat-Verteilung
Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist
Mehr[ 2 ] Die Zufallsvariablen X und Y haben die in der Tabelle gegebene gemeinsame Wahrscheinlichkeitsfunktion
Paare von Zufallsvariablen Kapitel : Paare von Zufallsvariablen A: Übungsaufgaben: [ ] Die Zufallsvariable X kann die Werte, 2 und die Zufallsvariable Y die Werte 0,, 2 annehmen. Die gemeinsame Verteilungsfunktion
MehrDie n-dimensionale Normalverteilung
U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrWahrscheinlichkeitsverteilungen
Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet
MehrMethodenlehre. Vorlesung 12. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg
Methodenlehre Vorlesung 12 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre II Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 18.2.15 Psychologie als Wissenschaft
MehrSignifikanzprüfung. Peter Wilhelm Herbstsemester 2014
Signifikanzprüfung Peter Wilhelm Herbstsemester 2014 1.) Auswahl des passenden Tests 2.) Begründete Festlegung des Alpha- Fehlers nach Abschätzung der Power 3.) Überprüfung der Voraussetzungen 4.) Durchführung
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt Statistik & Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-06 Dr. Malte Persike persike@uni-mainz.de
MehrKlausur zur Vorlesung
Institut für Mathematische Stochastik WS 2004/2005 Universität Karlsruhe 14. Februar 2005 Dr. Bernhard Klar Sebastian Müller Aufgabe 1: (15 Punkte) Klausur zur Vorlesung Statistik für Biologen Musterlösungen
MehrMethodenlehre. Vorlesung 11. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg
Methodenlehre Vorlesung 11 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 03.12.13 Methodenlehre I Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 25.9.13 Psychologie
MehrTest auf den Erwartungswert
Test auf den Erwartungswert Wir interessieren uns für den Erwartungswert µ einer metrischen Zufallsgröße. Beispiele: Alter, Einkommen, Körpergröße, Scorewert... Wir können einseitige oder zweiseitige Hypothesen
MehrKonfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
MehrMultivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
MehrLösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
MehrMethodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg
Methodenlehre Vorlesung 10 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre I Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 25.9.13 Psychologie als Wissenschaft
MehrTrim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19
Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, 2016 6:34 P.M. Page 11 Inhaltsverzeichnis Über die Übersetzerin 9 Einleitung 19 Was Sie hier finden werden 19 Wie dieses Arbeitsbuch aufgebaut ist
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel
MehrMathematische und statistische Methoden II
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrRegression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate
Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für
MehrKlausur zur Vorlesung
Institut für Mathematische Stochastik WS 2006/2007 Universität Karlsruhe 12. Februar 2007 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Aufgabe 1 (15 Punkte) Klausur zur Vorlesung Statistik für Biologen
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
Mehr5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrHäufigkeiten. Verteilungen. Lageparameter Mittelwert. oder
Formelsammlung Beschreibende Statistik Univariate Häufigkeitsverteilungen X ist ein diskretes Merkmal, mit k Ausprägungen TR: Mode 2 1 = AC absolute relative Häufigkeit Häufigkeiten Bivariate Häufigkeitsverteilungen
MehrKapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion
Kapitel 1 Stetige Zufallsvariablen 1.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig
MehrKapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte
Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte
Mehr1 Einleitung und Grundlagen 1
Inhaltsverzeichnis Vorwort vii 1 Einleitung und Grundlagen 1 1.1 Einführende Beispiele 1 1.2 Statistischer Prozess 2 1.3 Grundlagen 2 1.4 Unterscheidung von Merkmalen 3 1.4.1 Skalenniveaus 3 1.4.2 Stetige
MehrGrundgesamtheit, Merkmale, Stichprobe. Eigenschaften der Stichprobe. Klasseneinteilung, Histogramm. Arithmetisches Mittel, empirische Varianz
- 1 - Grundgesamtheit, Merkmale, Stichprobe Dimension, Umfang Skalierung Eigenschaften der Stichprobe kennzeichnende Größen Eigenschaften der Stichprobe kennzeichnende Größen Punktediagramm, Regressionsgerade,
Mehr9 Prinzipien der statistischen Hypothesenprüfung
9 Prinzipien der statistischen Hypothesenprüfung Prinzipien der statistischen Hypothesenprüfung Bei der Schätzung eines Populationsparamters soll dessen Wert aus Stichprobendaten erschlossen werden. Wenn
MehrMultivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Diese Selbstkontrollarbeit bezieht sich auf die Kapitel 1 bis 4 der Kurseinheit 1 (Multivariate Statistik) des Kurses Multivariate Verfahren (883). Hinweise:
MehrInformationen zur KLAUSUR am
Wiederholung und Fragen 1 Informationen zur KLAUSUR am 24.07.2009 Raum: 032, Zeit : 8:00 9:30 Uhr Bitte Lichtbildausweis mitbringen! (wird vor der Klausur kontrolliert) Erlaubte Hilfsmittel: Alle Unterlagen,
MehrModul G.1 WS 07/08: Statistik
Modul G.1 WS 07/08: Statistik 10.01.2008 1 2 Test Anwendungen Der 2 Test ist eine Klasse von Verfahren für Nominaldaten, wobei die Verteilung der beobachteten Häufigkeiten auf zwei mehrfach gestufte Variablen
Mehr1 x 1 y 1 2 x 2 y 2 3 x 3 y 3... n x n y n
3.2. Bivariate Verteilungen zwei Variablen X, Y werden gemeinsam betrachtet (an jedem Objekt werden gleichzeitig zwei Merkmale beobachtet) Beobachtungswerte sind Paare von Merkmalsausprägungen (x, y) Beispiele:
MehrÜbung zu Empirische Ökonomie für Fortgeschrittene SS 2009
Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte
Mehr9 Prinzipien der statistischen Hypothesenprüfung
9 Prinzipien der statistischen Hypothesenprüfung Prinzipien der statistischen Hypothesenprüfung Bei der Schätzung eines Populationsparamters soll dessen Wert aus Stichprobendaten erschlossen werden. Wenn
MehrEinführung in Quantitative Methoden
Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Juni 2014 Waldherr / Christodoulides Einführung in Quantitative Methoden 1/46 Anpassungstests allgemein Gegeben: Häufigkeitsverteilung
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrSTATISTIK FÜR DIE SOZIALWISSENSCHAFTEN
Steffen-M. Kühnel Dagmar Krebs 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. STATISTIK FÜR DIE SOZIALWISSENSCHAFTEN
Mehr7. Stochastische Prozesse und Zeitreihenmodelle
7. Stochastische Prozesse und Zeitreihenmodelle Regelmäßigkeiten in der Entwicklung einer Zeitreihe, um auf zukünftige Entwicklung zu schließen Verwendung zu Prognosezwecken Univariate Zeitreihenanalyse
Mehr