Crashkurs Einführung Biostatistik
|
|
- Emilia Rosenberg
- vor 7 Jahren
- Abrufe
Transkript
1 Crashkurs Einführung Biostatistik Prof. Burkhardt Seifert Abteilung Biostatistik, ISPM Universität Zürich Deskriptive Statistik Wahrscheinlichkeitsrechnung, ersuchsplanung Statistische Inferenz Prinzip statistischer Tests Konfidenzintervalle Stichprobengrösse, Power Korrelation und einfache lineare Regression Crashkurs Einführung Biostatistik
2 Korrelation und einfache lineare Regression Korrelation (Definition, Tests, Rangkorrelation, Gefahren) Einfache lineare Regression (Modell, Kleinste Quadrate, erklärte arianz, Tests) Multiple Regression (Idee) Crashkurs Einführung Biostatistik
3 Korrelation und Regression Analyse des Zusammenhangs von zwei stetigen ariablen (bivariate Daten) Beispiele: Beziehung Gewicht zu Grösse Zusammenhang zwischen Körperfett und BMI Fragestellungen: 1. Welcher Zusammenhang besteht zwischen zwei ariablen x und y? 2. Lässt sich die ariable y aus der ariablen x vorhersagen? Crashkurs Einführung Biostatistik
4 Bivariate Daten Beobachtung von zwei stetigen ariablen (x, y) an der selben Beobachtungseinheit paarweise Beobachtungen (x 1, y 1 ), (x 2, y 2 ),..., (x n, y n ) Beispiel: Anteil Körperfett bestimmt durch Wiegen unter Wasser n = 241 Männer im Alter von 22 bis 81 Jahren y = Anteil Körperfett (in %) x = BMI = Gewicht/Höhe 2 (in kg/m 2 ) Nr BMI bodyfat alle Beobachtungen eines Individuums in der selben Zeile Beobachtungen verschiedener Individuen untereinander Crashkurs Einführung Biostatistik
5 Korrelation Pearsons Produkt Moment Korrelation r = s xy s x s y mit Kovarianz s xy = 1 n 1 n (x i x)(y i ȳ) 1 Zähler s xy : ȳ x Nenner: Standardisierung Crashkurs Einführung Biostatistik
6 orzeichen zeigt Richtung des linearen Zusammenhangs Grösse zeigt Intensität des linearen Zusammenhangs 1 r 1 r = 1 deterministisch positiver linearer Zusammenhang r = 1 deterministisch negativer linearer Zusammenhang r = 0 kein linearer Zusammenhang x y r=1 x y r= 1 x y r=0 x y r=0 x y r=0.5 x y r=0.9 Crashkurs Einführung Biostatistik
7 /ARIABLES=bodyfat bmi /PRINT=TWOTAIL NOSIG /STATISTICS DESCRIPTIES XPROD /MISSING=PAIRWISE. NONPAR CORR /ARIABLES=bodyfat bmi /PRINT=SPEARMAN TWOTAIL NOSIG /MISSING=PAIRWISE. Tests auf linearen Zusammenhang Besteht ein linearer Zusammenhang jenseits des Zufalls? wissenschaftliche Hypothese: wahre Korrelation ρ 0 CORRELATIONS /ARIABLES=bodyfat bmi /PRINT=TWOTAIL NOSIG /MISSING=PAIRWISE. Nullypothese: wahre Korrelation ρ = 0 IGRAPH /IEWNAME='Scatterplot' /X1 = AR(bmi) TYPE = SC E = SCALE /COORDINATE = ERTICAL /FITLINE METHOD = REGRESSION LINEAR LINE = TOTAL MEFFECT SPIKE TH=3.0 /X2LENGTH=3.0 /CHARTLOOK='NONE' /SCATTER COINCIDENT = NONE. Interactive Graph Annahmen: (x, y) gemeinsam normalverteilt, Paare unabhängig Correlations bodyfat bmi Correlations Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N bodyfat 1.718** ** bmi **. Correlation is significant at the 0.01 level (2-tailed). NONPAR CORR /ARIABLES=bodyfat bmi /PRINT=SPEARMAN TWOTAIL NOSIG /MISSING=PAIRWISE. bodyfat bodyfat = * bmi R-Square = bmi Li Crashkurs Einführung Biostatistik EXE. Nonparametric Correlations
8 bodyfat bmi bodyfat Pearson Correlation 1.718** Sig. (2-tailed) N bmi Pearson Correlation BehandlungSig. von (2-tailed) Ausreissern? N Testen ohne Normalverteilung? Spearmans Rangkorrelation Idee: Ähnlich zu Mann-Whitney Mittelwerts ergleich orgehen: /PRINT=SPEARMAN ManTWOTAIL korreliert NOSIG die Ränge miteinander anstatt die Zahlen selber. Nonparametric Beispiel: PearsonCorrelations Korrelation ** **. Correlation is significant at the 0.01 level (2-tailed). NONPAR CORR /ARIABLES=bodyfat bmi /MISSING=PAIRWISE. Correlations Spearman's rho bodyfat bmi Correlation Coefficient Sig. (2-tailed) N Correlation Coefficient Sig. (2-tailed) N **. Correlation is significant at the 0.01 level (2-tailed). bodyfat bmi ** ** Page 1 Für normalverteilte Daten sehr ähnlich zu Pearson-Korrelation Crashkurs Einführung Biostatistik
9 Gefahren der Fehlinterpretation von Korrelationen Wahrscheinlichkeit einer falschen Signifikanz 5% für einen statistischen Test Anzahl ariable Anzahl Korrelationen Wahrsch. falscher Signif Anzahl der Paare steigt dramatisch mit der Anzahl ariablen erhöhte Wahrscheinlichkeit für falsche Signifikanzen Crashkurs Einführung Biostatistik
10 Gefahren der Fehlinterpretation von Korrelationen (contd) Heterogenitätskorrelation (kein oder sogar umgekehrter Zusammenhang in den Gruppen) y x nichtlinearer Zusammenhang (starker Zusammenhang, aber r = 0, d. h. r nicht aussagekräftig) y x Scheinkorrelationen über Zeit (gemeinsamer Trend) allgemeiner: Konfundierung durch 3. ariable Anzahl der Störche und Geburten in einem Gebiet sind korreliert Crashkurs Einführung Biostatistik
11 Lineare Regression Korrelation misst Zusammenhang symmetrisch Regressionsanalyse ist statistische Analyse der Wirkung einer ariablen auf eine andere gerichtete Beziehung y = abhängige ariable, Zielvariable x = unabhängige ariable, Prädiktor oft nicht zufällig (Zeit, Alter) und nicht stetig (Geschlecht, Gruppe) Ziel: quantitatives Gesetz finden wie sich y ändert, wenn x sich ändert Crashkurs Einführung Biostatistik
12 Beispiel: Ist das Gewicht ein gutes Mass für Übergewicht? Regression y = Gewicht, x = Höhe (n = 241 Männer) y = x, r 2 = 0.31, p < gewicht hoehe Das Gewicht hängt signifikant von der Körpergrösse ab. Crashkurs Einführung Biostatistik
13 Regression y = BMI, x = Höhe y = x, r 2 = 0.005, p = 0.27 bmi hoehe Der BMI hängt nicht von der Körpergrösse ab, ist also ein besseres Mass für Übergewicht als Gewicht. Crashkurs Einführung Biostatistik
14 Statistisches Modell der linearen Regression y i = a b x i ε i i = 1,..., n a b x = wahre Regressionsfunktion a = Achsenabschnitt (Wert der Regressionsfunktion für x = 0) b = Steigung ε = unbeobachtbare zufällige Residuen Annahmen zu den ε i : wahres Mittel = 0 arianz konstant für Tests und Konfidenzintervalle: unabhängig und normalverteilt Crashkurs Einführung Biostatistik
15 Beispiel: Ist der BMI ein gutes Mass für Körperfett? bodyfat bmi Geradengleichung: bodyfat = bmi Interpretationen: 1. Männer mit einem BMI von 26 kg/m 2 haben im Mittel 20.2% Körperfett. 2. Männer mit einem um 1 kg/m 2 erhöhten BMI haben im Mittel 1.8% mehr Körperfett. Crashkurs Einführung Biostatistik
16 Die Methode der kleinsten Quadrate Wie legt man Gerade am besten durch die Daten? bodyfat bmi Gefitteter Wert (orhersage): ŷ i = â ˆb x i Wähle Parameter so, dass quadratische Abweichung n (y i ŷ i ) 2 minimal wird i=1 Crashkurs Einführung Biostatistik
17 Die Methode der kleinsten Quadrate Es wäre möglich, die Gerade iterativ zu bestimmen: infiltration score Quadratsumme: cytotoxicity Crashkurs Einführung Biostatistik
18 Die Methode der kleinsten Quadrate Es wäre möglich, die Gerade iterativ zu bestimmen: infiltration score Quadratsumme: cytotoxicity Crashkurs Einführung Biostatistik
19 Die Methode der kleinsten Quadrate Es wäre möglich, die Gerade iterativ zu bestimmen: infiltration score Quadratsumme: cytotoxicity Es gibt aber eine explizite Formel: Steigung: ˆb = s xy s 2 x = r s y s x Achsenabschnitt: â = ȳ ˆb x Crashkurs Einführung Biostatistik
20 Durch die Regression erklärte arianz Frage: Kann die Regression von y auf x für die orhersage genutzt werden? Wieviel arianz von y kann durch Regressionsgerade, d. h., durch Kenntnis von x, erklärt werden? bodyfat x Rest { erklärt x i Regressionsgerade beobachtet Mittelwert bmi beobachtet = erklärt Rest Der Abstand der Regressionsgeraden vom Mittelwert ist der Teil des Abstands der Beobachtung vom Mittelwert, der durch die Regression erklärt wird. Crashkurs Einführung Biostatistik
21 bodyfat x Rest { erklärt x i Regressionsgerade beobachtet Mittelwert bmi arianzen sind additiv, nicht Standardabweichungen (hier: in Stichprobe) ar(beobachtet) = ar(erklärt) ar(rest) ar(beobachtet) = ar(y) = s 2 y erklärte arianz: ar(erklärt) = r 2 s 2 y für Interessierte: erklärt = ˆb(x i x) s 2 erklärt = ˆb 2 s 2 x = (r s y s x ) 2 s 2 x = r 2 s 2 y r 2 = ar(erklärt)/s 2 y = Teil der arianz von y, der durch x erklärt wird Crashkurs Einführung Biostatistik
22 Residualvarianz (nicht erklärt): ar(rest) = s 2 y r2 s 2 y = (1 r2 ) s 2 y d. h., Beobachtungen streuen um Regressionsgerade mit SD SD(Rest) = 1 r 2 s y r s res /s y = 1 r Gewinn= 1 1 r 2 5% 13% 29% 56% 86% Beispiel : Mittelwert Körperfett ist 18.9 Standardabweichung Körperfett s y ist 8.0 Korrelation(BMI,Körperfett) r ist 0.72 individuelles Körperfett variiert um Mittelwert 18.9 mit SD s y = 8.0 um vorhergesagte Werte ŷ mit SD 1 r 2 s y = 5.5 Gewinn: 30% Crashkurs Einführung Biostatistik
23 Test auf linearen Zusammenhang Wissenschaftliche Hypothese: y ändert sich mit x systematisch (b 0) Nullhypothese: wahre Steigung b = 0 falls (x, y) normalverteilt gleicher Test wie auf Korrelation ρ = 0 In Regressionsanalyse: alle Analysen bedingt für gegebene Werte x 1,..., x n erteilung von x nebensächlich, kann auch deterministisch sein einfacher als Analysen der Korrelation exaktes Konfidenzintervall für b Crashkurs Einführung Biostatistik
24 Model 1 ariables Entered ariables Removed bmi a. Enter a. All requested variables entered. b. Dependent ariable: bodyfat Method Output SPSS Model Summary Model 1 a. Predictors: (Constant), bmi R R Square Adjusted R Square Std. Error of the Estimate.718 a ANOA b Model 1 Regression Residual Total a. Predictors: (Constant), bmi b. Dependent ariable: bodyfat Sum of Squares df Mean Square F Sig a Coefficients a Model 1 (Constant) bmi a. Dependent ariable: bodyfat Unstandardized Coefficients B Std. Error Standardized Coefficients Beta t Sig. 95% Confidence Interval for B Lower Bound Upper Bound Crashkurs Einführung Biostatistik
25 Multiple Regression Regression mit mehreren erklärenden ariablen Gründe für multiple Regressionsanalyse: 1. mögliche Effekte von zusätzlichen Stör ariablen in einer Studie mit einer Einflussgrösse eliminieren. Beispiel: Häufige Störgrösse ist das Alter. y = Blutdruck, x 1 = Dosierung Hypertensivum, x 2 = Alter. 2. mögliche Prognosefaktoren erforschen, von denen wir nicht wissen, ob sie wichtig oder redundant sind. Beispiel: y = Stenose, x 1 = HDL, x 2 = LDL, x 3 = BMI, x 4 = Rauchen, x 5 = Triglyceride. 3. Formel zur besseren orhersage aus erklärenden ariablen entwickeln. Beispiel: y = Erwachsenengrösse, x 1 = Grösse als Kind, x 2 = Grösse der Mutter, x 3 = Grösse des aters. 4. Wirkung einer ariablen x 1 auf eine andere ariable y studieren, wobei Einfluss weiterer ariablen x 2,..., x k berücksichtigt wird. Crashkurs Einführung Biostatistik
26 Beispiel: y = Anteil Körperfett (in %) in Abhängigkeit von x = BMI, Quotient Bauch zu Hüftumfang, Bauchumfang bodyfat bmi waist/hip abdomen Crashkurs Einführung Biostatistik
27 b. Dependent ariable: bodyfat Model Summary Model 1 R R Square Adjusted R Square Std. Error of the Estimate.825 a a. Predictors: (Constant), abdomen, waist/hip, bmi ANOA b Model 1 Regression Residual Total Sum of Squares df Mean Square F Sig a a. Predictors: (Constant), abdomen, waist/hip, bmi b. Dependent ariable: bodyfat Coefficients a Model 1 (Constant) bmi waist/hip abdomen a. Dependent ariable: bodyfat Unstandardized Coefficients B Std. Error Standardized Coefficients Beta t Sig. 95% Confidence Interval for B Lower Bound Upper Bound Crashkurs Einführung Biostatistik
28 Coefficients a Model 1 (Constant) bmi waist/hip abdomen Unstandardized Coefficients B Std. Error Standardized Coefficients Beta t Sig. 95% Confidence Interval for B Lower Bound Upper Bound a. Dependent ariable: bodyfat orhersageformel: bodyfat = * BMI 38.5 * waist/hip 0.44 * abdomen Regressionskoeffizienten, Konfidenzintervalle und P Werte für einzelne ariable gelten bei festgehaltenen anderen Covariablen BMI nicht signifikant, wenn waist/hip und abdomen bekannt, Konfidenzintervall eng schrittweise Regression nötig Crashkurs Einführung Biostatistik
Biostatistik 101 Korrelation - Regressionsanalysen
Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 carl.herrmann@uni-heidelberg.de Korrelation Sind Alter und Blutdruck miteinander
Mehr7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien
Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)
MehrSyntax. Ausgabe *Ü12. *1. corr it25 with alter li_re kontakt.
Syntax *Ü2. *. corr it25 with alter li_re kontakt. *2. regression var=it25 alter li_re kontakt/statistics /dependent=it25 /enter. regression var=it25 li_re kontakt/statistics /dependent=it25 /enter. *3.
Mehr1. Erklären Sie den Unterschied zwischen einem einseitigen und zweiseitigen Hypothesentest.
Statistik II Übung 3: Hypothesentests Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier Stichproben). Verwenden
MehrStatistik II Übung 1: Einfache lineare Regression
Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der
MehrStatistik II für Betriebswirte Vorlesung 8
Statistik II für Betriebswirte Vorlesung 8 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 3. Dezember 2018 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 8 Version:
MehrDr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:
Mehr13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017
13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl
MehrBiostatistik 101 Korrelation - Regressionsanalysen
Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 carl.herrmann@uni-heidelberg.de Korrelation Sind Alter und Blutdruck miteinander
MehrÜbungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg
Übungsklausur Lineare le Prof. Dr. H. Toutenburg Aufgabe Ein lineares Regressionsmodell mit der abhängigen Variablen Körpergröße und der unabhängigen Variablen Geschlecht wurde einmal mit der dummykodierten
MehrKapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
MehrStatistik II Übung 1: Einfache lineare Regression
Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der
MehrMultiple Regression III
Multiple Regression III Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Überprüfung der Modellannahmen Residuen-Plot Normal-Q-Q-Plot Cook s Distanz-Plot Maßnahmen bei Abweichungen von Modellannahmen
Mehr6.2 Regressionsanalyse I: Die lineare Einfachregression
6.2 Regressionsanalyse I: Die lineare Einfachregression 6.2.1 Grundbegriffe und Hintergrund Bedeutung der Regression: Eines der am häufigsten verwendeten statistischen Verfahren. Vielfache Anwendung in
MehrRegression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
MehrStatistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
MehrB. Regressionsanalyse [progdat.sav]
SPSS-PC-ÜBUNG Seite 9 B. Regressionsanalyse [progdat.sav] Ein Unternehmen möchte den zukünftigen Absatz in Abhängigkeit von den Werbeausgaben und der Anzahl der Filialen prognostizieren. Dazu wurden über
MehrHypothesentests mit SPSS
Beispiel für eine einfache Regressionsanalyse (mit Überprüfung der Voraussetzungen) Daten: bedrohfb_v07.sav Hypothese: Die Skalenwerte auf der ATB-Skala (Skala zur Erfassung der Angst vor terroristischen
MehrPVK Statistik Tag Carlos Mora
PVK Statistik Tag 2 11.1.2012 Block 4 Block 3 Übersicht 11.1.2012 09:00 6. Zwei-Stichproben-Tests für stetige Verteilungen (2.Teil) Übung 2C 1h inkl. Pause 7. Lineare Regression 12:00 Übung 3 Mittag 13:00
MehrStatistische Datenanalyse mit R, Korrelation und Regression. Dr. Andrea Denecke Leibniz Universität IT-Services
Statistische Datenanalyse mit R, Korrelation und Regression Dr. Andrea Denecke Leibniz Universität IT-Services Korrelationsanalyse Eine Korrelationsanalyse soll herausfinden Ob ein linearer Zusammenhang
MehrPrognoseintervalle für y 0 gegeben x 0
10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen
MehrStatistik II für Betriebswirte Vorlesung 11
Statistik II für Betriebswirte Vorlesung 11 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 07. Januar 2019 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 11 Version:
Mehrsimple lineare Regression kurvilineare Regression Bestimmtheitsmaß und Konfidenzintervall
Regression Korrelation simple lineare Regression kurvilineare Regression Bestimmtheitsmaß und Konfidenzintervall Zusammenhänge zw. Variablen Betrachtet man mehr als eine Variable, so besteht immer auch
MehrDas Lineare Regressionsmodell
Das Lineare Regressionsmodell Bivariates Regressionsmodell Verbrauch eines Pkw hängt vom Gewicht des Fahrzeugs ab Hypothese / Theorie: Je schwerer ein Auto, desto mehr wird es verbrauchen Annahme eines
MehrTeil: lineare Regression
Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge
Mehr6. Tutoriumsserie Statistik II
6. Tutoriumsserie Statistik II 1. Aufgabe: Eine Unternehmensabteilung ist ausschließlich mit der Herstellung eines einzigen Produktes beschäftigt. Für 10 Perioden wurden folgende Produktmenge y und Gesamtkosten
MehrBiometrieübung 10 Lineare Regression. 2. Abhängigkeit der Körpergröße von der Schuhgröße bei Männern
Biometrieübung 10 (lineare Regression) - Aufgabe Biometrieübung 10 Lineare Regression Aufgabe 1. Düngungsversuch In einem Düngeversuch mit k=9 Düngungsstufen x i erhielt man Erträge y i. Im (X, Y)- Koordinatensystem
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrInstrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen.
Gliederung Grundidee Einfaches lineares Modell KQ-Methode (Suche nach der besten Geraden) Einfluss von Ausreißern Güte des Modells (Bestimmtheitsmaß R²) Multiple Regression Noch Fragen? Lineare Regression
MehrTeil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller
Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit
MehrKovarianzanalyse. Truthahngewicht. Truthahngewicht. Methoden empirischer Sozialforschung. 1 metrische und mehrere metrische und kategoriale Variablen
Kovarianzanalyse 1 metrische und mehrere metrische und kategoriale Variablen Methoden empirischer Sozialforschung Lineare Modelle (2. Teil) Wie läßt sich die Abhängigkeit einer metrischen Variablen von
MehrBeschreibende Statistik Zweidimensionale (bivariate) Daten
Mathematik II für Biologen Beschreibende Statistik Zweidimensionale (bivariate) Daten 8. Mai 2009 Lineare Regression Transformationen Produktmomenten-Korrelation Rangkorrelation Warnung Stichprobe ( 1,y
MehrEinführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
MehrInhaltsverzeichnis. 1 Über dieses Buch Zum Inhalt dieses Buches Danksagung Zur Relevanz der Statistik...
Inhaltsverzeichnis 1 Über dieses Buch... 11 1.1 Zum Inhalt dieses Buches... 13 1.2 Danksagung... 15 2 Zur Relevanz der Statistik... 17 2.1 Beispiel 1: Die Wahrscheinlichkeit, krank zu sein, bei einer positiven
MehrDr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9.
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Januar 2011 BOOTDATA11.GDT: 250 Beobachtungen für die Variablen...
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Ausgangsdaten Bundesliga 2008/2009 Gegeben: Daten zu den 18 Vereinen der ersten Bundesliga
MehrStatistik II Übung 4: Skalierung und asymptotische Eigenschaften
Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden
MehrVorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression
Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula
MehrKarl Entacher. FH-Salzburg
Ahorn Versteinert Bernhard.Zimmer@fh-salzburg.ac.at Statistik @ HTK Karl Entacher FH-Salzburg karl.entacher@fh-salzburg.ac.at Beispiel 3 Gegeben sind 241 NIR Spektren (Vektoren der Länge 223) zu Holzproben
MehrInhaltsverzeichnis. Über die Autoren Einleitung... 21
Inhaltsverzeichnis Über die Autoren.... 7 Einleitung... 21 Über dieses Buch... 21 Was Sie nicht lesen müssen... 22 Törichte Annahmen über den Leser... 22 Wie dieses Buch aufgebaut ist... 23 Symbole, die
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.
0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:
MehrVergleich von Gruppen I
Vergleich von Gruppen I t-test und einfache Varianzanalyse (One Way ANOVA) Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Der unverbundene t-test mit homogener Varianz Beispiel Modell Teststatistik
Mehr11. weitere Übungsaufgaben Statistik II WiSe 2017/2018
11. weitere Übungsaufgaben Statistik II WiSe 2017/2018 1. Aufgabe: Bei 100 Fahrzeugen des gleichen Typs sind neben dem Preis (PREIS) auch die gefahrene Strecke (MEILEN) und die Anzahl der Werkstattbesuche
MehrAnalyse von Querschnittsdaten. Signifikanztests I Basics
Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004
MehrDeskriptive Beschreibung linearer Zusammenhänge
9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,
MehrX =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?
Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2
MehrDie Anwendung des globalen und partiellen F-Tests beim Regressionsmodell
Dr. Wolfgang Langer - Integrierte Veranstaltung Methoden IV WS 2002/2003-1 Die Anwendung des globalen und partiellen F-Tests beim Regressionsmodell von XENOPHOB auf V247 und POSTMAT, MATERIAL Für unsere
MehrSchätzung im multiplen linearen Modell VI
Schätzung im multiplen linearen Modell VI Wie im einfachen linearen Regressionsmodell definiert man zu den KQ/OLS-geschätzten Parametern β = ( β 0, β 1,..., β K ) mit ŷ i := β 0 + β 1 x 1i +... β K x Ki,
Mehr1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt:
Beispiele zum Üben und Wiederholen zu Wirtschaftsstatistik 2 (Kurs 3) 1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Haushaltseinkommen 12 24 30 40 80 60
MehrStatistische Methoden in den Umweltwissenschaften
Statistische Methoden in den Umweltwissenschaften Korrelationsanalysen Kreuztabellen und χ²-test Themen Korrelation oder Lineare Regression? Korrelationsanalysen - Pearson, Spearman-Rang, Kendall s Tau
MehrDie Funktion f wird als Regressionsfunktion bezeichnet.
Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht
MehrZiel: Vorhersage eines Kriteriums/Regressand Y durch einen Prädiktor/Regressor X.
Lineare Regression Einfache Regression Beispieldatensatz: trinkgeld.sav Ziel: Vorhersage eines Kriteriums/Regressand Y durch einen Prädiktor/Regressor X. H0: Y lässt sich nicht durch X erklären, das heißt
MehrBivariate Zusammenhänge
Bivariate Zusammenhänge 40 60 80 Bivariater Zusammenhang: Zusammenhang zwischen zwei Variablen weight (kg) Gibt es einen Zusammenhang zwischen Größe & Gewicht? (am Beispieldatensatz) Offensichtlich positiver
MehrEinführung in Quantitative Methoden
in Quantitative Methoden Mag. Dipl.Ing. Dr. Pantelis Christodoulides & Mag. Dr. Karin Waldherr SS 2011 Christodoulides / Waldherr in Quantitative Methoden- 2.VO 1/47 Historisches Regression geht auf Galton
MehrVersuchsplanung und multivariate Statistik Sommersemester 2018
Versuchsplanung und multivariate Statistik Sommersemester 2018 Vorlesung 11: Lineare und nichtlineare Modellierung I Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 6.6.2018
MehrFragen. Einführung in die induktive Statistik. Übersicht. Lineare Einfachregression
Fragen Welche Unsicherheitsfaktoren beeinflussen die Schätzung einer Regressionsgeraden? Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München
MehrInhaltsverzeichnis. Vorwort
Vorwort 1 Die Grundlagen 15 Alles variiert 16 Signifikanz Gute und schlechte Hypothesen 18 Nullhypothesen 18 19 Interpretation Statistisches Modellieren 20 Maximale Wahrscheinlichkeit 21 Versuchsanordnung
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
MehrRegression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate
Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für
MehrStatistik mit und ohne Zufall
Christoph Weigand Statistik mit und ohne Zufall Eine anwendungsorientierte Einführung Mit 118 Abbildungen und 10 Tabellen Physica-Verlag Ein Unternehmen von Springer Inhaltsverzeichnis Teil I Deskriptive
Mehr11. Übungsblatt zur Vorlesung Ökonometrie SS 2014
Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer
MehrStatistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
MehrTeil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.
Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, 10.07.017 Wahrscheinlichkeit und Statistik Patric Müller WBL
MehrBiometrische und Ökonometrische Methoden I! Lösungen 3
TECHNISCHE UNIVERSITÄT MÜNCHEN - WEIHENSTEPHAN WS 97/98 MATHEMATIK UND STATISTIK, INFORMATIONS- UND DOKUMENTATIONSZENTRUM Biometrische und Ökonometrische Methoden I! Lösungen 3 1. MTB > Retrieve 'H:\STUDENT\MINITAB\TREES.MTW'.
MehrBeschreibende Statistik Zweidimensionale (bivariate) Daten
Mathematik II für Biologen Beschreibende Statistik Zweidimensionale (bivariate) Daten 26. April 2013 Prolog Lineare Regression Transformationen Produktmomenten-Korrelation Rangkorrelation Warnung Artensterben
MehrAufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:
Aufgabe 1 (8=2+2+2+2 Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Die Zufallsvariable X bezeichne die Note. 1443533523253. a) Wie groß ist h(x 5)? Kreuzen
MehrStatistik II für Betriebswirte Vorlesung 11
Statistik II für Betriebswirte Vorlesung 11 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 18. Januar 2017 Prof. Dr. Hans-Jörg Starkloff Statistik II für Betriebswirte Vorlesung
MehrLineare Modelle in R: Klassische lineare Regression
Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)
MehrFragestellungen. Ist das Gewicht von Männern und Frauen signifikant unterschiedlich? (2-sample test)
Hypothesen Tests Fragestellungen stab.glu 82 97 92 93 90 94 92 75 87 89 hdl 56 24 37 12 28 69 41 44 49 40 ratio 3.60 6.90 6.20 6.50 8.90 3.60 4.80 5.20 3.60 6.60 glyhb 4.31 4.44 4.64 4.63 7.72 4.81 4.84
MehrBachelorprüfung: Statistik (1 Stunde)
Prof. H.R. Künsch D-BIOL, D-CHAB Winter 2010 Bachelorprüfung: Statistik (1 Stunde) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt. Natels sind auszuschalten!
MehrZusammenhänge zwischen metrischen Merkmalen
Zusammenhänge zwischen metrischen Merkmalen Darstellung des Zusammenhangs, Korrelation und Regression Daten liegen zu zwei metrischen Merkmalen vor: Datenpaare (x i, y i ), i = 1,..., n Beispiel: x: Anzahl
MehrEine Einführung in R: Das Lineare Modell
Eine Einführung in R: Das Lineare Modell Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 29. November 2012 Bernd Klaus, Verena Zuber,
MehrBeispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
MehrKorrelation - Regression. Berghold, IMI
Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines
MehrÜbungsblätter zu Methoden der Empirischen Sozialforschung IV: Regressionsanalyse. Lösungsblatt zu Nr. 2
Martin-Luther-Universität Halle-Wittenberg Institut für Soziologie Dr. Wolfgang Langer 1 Übungsblätter zu Methoden der Empirischen Sozialforschung IV: Regressionsanalyse Lösungsblatt zu Nr. 2 1. a) Je
MehrSchätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO
Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung
MehrDeskriptive Statistik und Explorative Datenanalyse
Springer Gabler PLUS Zusatzinformationen zu Medien von Springer Gabler Deskriptive Statistik und Explorative Datenanalyse Eine computergestützte Einführung mit Excel, SPSS und STATA 2015 3, überarbeitete
MehrDatenanalyse für Ingenieure im betriebswirtschaftlichen Umfeld: Gedanken zum Curriculum
GMF-Tagung Zukunft der Lehre in Statistik und Stochastik Zürich, 21. Oktober 2017 Datenanalyse für Ingenieure im betriebswirtschaftlichen Umfeld: Gedanken zum Curriculum Andreas Ruckstuhl Dozent für Statistische
MehrEmpirische Wirtschaftsforschung in R
Empirische Wirtschaftsforschung in R Schätzung der keynesianischen Geldnachfragefunktion auf Basis von Daten der dänischen Volkswirtschaft Jonas Richter-Dumke Universität Rostock, Institut für Volkswirtschaftslehre
MehrStatistikübungen für die Pflegewissenschaften II Beispiellösungen
Statistikübungen für die Pflegewissenschaften II Beispiellösungen INHALTSVERZEICHNIS BEISPIEL 18...2 BEISPIEL 19...5 BEISPIEL 20...6 BEISPIEL 21...8 BEISPIEL 23...9 BEISPIEL 25...13 BEISPIEL 26...15 BEISPIEL
MehrSozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS
Sommersemester 2009 Statistik mit SPSS 15. Mai 2009 15. Mai 2009 Statistik Dozentin: mit Esther SPSSOchoa Fernández 1 Überblick 1. Korrelation vs. Regression 2. Ziele der Regressionsanalyse 3. Syntax für
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
Mehr1 Beispiel zur Methode der kleinsten Quadrate
1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25
MehrStichwortverzeichnis. Symbole
Stichwortverzeichnis Symbole 50ste Perzentil 119 A Absichern, Ergebnisse 203 Abzählbar unendliche Zufallsvariable 146 Alternativhypothese 237 238 formulieren 248 Anekdote 340 Annäherung 171, 191 Antwortquote
Mehr2. Generieren Sie deskriptive Statistiken (Mittelwert, Standardabweichung) für earny3 und kidsunder6yr3 und kommentieren Sie diese kurz.
Statistik II Übung : Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (6-24 Jahre alt) und der Anzahl der unter
MehrAnalyse von Querschnittsdaten. Signifikanztests I Basics
Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Datum Vorlesung 18.10.2006 Einführung 18.10.2006 Beispiele 25.10.2006 Daten 08.11.2006 Variablen Kontinuierliche
Mehr4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
MehrPolynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen
Rückblick Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Ridge Regression vermeidet Überanpassung, indem einfachere Modelle mit
Mehr2.5 Lineare Regressionsmodelle
2.5.1 Wiederholung aus Statistik I Gegeben Datenpunkte (Y i, X i ) schätze die beste Gerade Y i = β 0 + β 1 X i, i = 1,..., n. 2 Induktive Statistik 409 Bsp. 2.30. [Kaffeeverkauf auf drei Flohmärkten]
MehrStochastik Praktikum Lineare Modelle
Stochastik Praktikum Lineare Modelle Thorsten Dickhaus Humboldt-Universität zu Berlin 06.10.2010 Übersicht 1 Einfache lineare Regression 2 Multiple lineare Regression 3 Varianzanalyse 4 Verallgemeinerte
MehrZusammenfassung 11. Sara dos Reis.
Zusammenfassung 11 Sara dos Reis sdosreis@student.ethz.ch Diese Zusammenfassungen wollen nicht ein Ersatz des Skriptes oder der Slides sein, sie sind nur eine Sammlung von Hinweise zur Theorie, die benötigt
Mehr