Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

Größe: px
Ab Seite anzeigen:

Download "Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester"

Transkript

1 6.0 Logistische Regression Die logistische Regression ist ein Spezialfall des Generalisierten Linearen Modells (GLM), ist ein spezielles Klassifikationsverfahren, wird in der Praxis sehr häufig verwendet, obwohl andere Verfahren oft (aber nicht immer) verständlicher, theoretisch einfacher oder performanter sind. Bemerkung 1: Dies stellt einen Sonderfall der generalisierten linearen Modelle (GLM) dar (vgl. Fahrmeir und Hamerle, 1983), bei denen anstelle von F (η) eine beliebige umkehrbare Funktion h(η) (inverse Link-Funktion) verwendet wird. und π1 auch eine metrische Zielgröße sein darf. Bemerkung 2: Wählt man für F (η) die Verteilungsfunktion der Standardnormalverteilung Φ(η), dann erhält man das binäre Probit-Modell. 6.2 Eigenschaften 6.2 Eigenschaften 6.2 Eigenschaften Mit der Wahrscheinlichkeit für das Eintreten eines Ereignisses ist der Begriff der Chance (odds) eng verbunden (Tutz, 2000). Die Chance 1. Ordnung ist das Verhältnis der Eintrittswahrscheinlichkeit zu ihrer Gegenwahrscheinlichkeit γ(x) = P(Y = 1 x) P(Y = 0 x) = π(x) 1 π(x) Eine Chance von 3:1 entspricht γ(x) = 3, π(x) = 0.75 und 1 π(x) = (6) Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Ziel ist zunächst die Erklärung einer binären Zielgröße Y {0, 1} mit Hilfe eines Vektors von Einflussgrößen X R p, d.h. wir beschränken uns hier auf 2 Klassen. Beim binären Logit wird für F (η) die Verteilungsfunktion der standardisierten logistischen Verteilung Logist(η) = exp(η) 1 + exp(η) verwendet. Man erhält dann als Modell: (4) exp(x β) π1 = P(Y = 1 x, β) = + exp(x β) 1. (5) Hier wird die a posteriori Eintrittswahrscheinlichkeit direkt modelliert und daher müssen die a priori-wahrscheinlichkeiten der Klassen nicht geschätzt werden, wie z.b. bei der linearen Diskriminanzanalyse. 6.2 Eigenschaften 6.2 Eigenschaften Im binären Logit-Modell ist die Chance γ(x) = π1 1 π1 = exp(x β) 1+exp(x β) 1 1+exp(x β) = exp(x β) (7) Logarithmiert man die Chance, dann erhält man die so genannten Logits ( ) π1 Logit(x) = ln = x β (8) 1 π1 Im Wesentlichen wird also durch das binäre Logit-Modell eine Regression der logarithmierten Chancen auf die unabhängigen Variablen beschrieben. Problem: Da die Eintrittswahrscheinlichkeiten π1 = P(Y = 1 x, β) nicht beobachtet werden, kann der von der Regression bekannte Kleinste-Quadrate-Schätzer nicht direkt angewandt werden. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Sei x der Vektor der Einflussgrößen mit einem Eins-Element, um die Regressionskonstante zu modellieren. Angenommen, es gilt das Regressionsmodell: yi = x i β + ɛi mit E(ɛ) = 0, ɛi, ɛj unabhängig für i j. Für die binäre Zielgröße Y gilt dann: πi := P(yi = 1 xi) = E(yi xi) = x i β. Leider kann x i β auch Werte außerhalb von [0, 1] annehmen. Deshalb wird die Wahrscheinlichkeit P(Y = 1 x, β) mit Hilfe einer Verteilungsfunktion F (η) modelliert, da die Werte von F in [0, 1] liegen: π1 = P(Y = 1 x, β) = F (x β) (3) Üblicherweise erfolgt die Klassifikation über einen Schwellenwert τ: Ist ˆπ1 > τ, dann wird Kategorie 1 prognostiziert, ansonsten Kategorie 0. Verwendet man den Schwellenwert 0.5, dann ist dies äquivalent zur Auswahl der Kategorie mit der größten Eintrittswahrscheinlichkeit. 6.3 Einschub: ML Prinzip 6.3 Einschub Maximum Likelihood Prinzip 6.3 Einschub: ML Prinzip Erläuterung des Maximum Likelihood Prinzips am Beispiel einer diskreten Verteilung: Gesucht: Schätzung für Parameter θ einer diskreten Verteilung Bestimme Wahrscheinlichkeit für das Auftreten der Stichprobe x1,..., xn unter der Annahme einer jeden der in Frage kommenden Verteilungen. ML-Schätzer := derjenige Parameter der Verteilung, der die größte Wahrscheinlichkeit für die beobachtete Stichprobe liefert (maximale Mutmaßlichkeit). Bei dieser Verteilung ist die beobachtete Stichprobe also am ehesten zu erwarten. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

2 6.3 Einschub: ML Prinzip 6.3 Einschub Maximum Likelihood Prinzip Beispiel: Bei der Stichprobe der Personen (davon 2475 Raucher) im Blutdruckdatensatz wird untersucht, ob sie rauchen. Es soll nun das p der Bernoulliverteilung (Binomialverteilung mit einer Wiederholung, B(1,p)) geschätzt werden. Annahme: Die Xi sind u.i.v. B(1, p). Die Likelihood für p ist gegeben durch die Wahrscheinlichkeit, dass x1,..., xn auftritt, wenn Parameter p vorliegt: ( ) n L(p) := P(x1,..., xn p) = p x (1 p) n x x n mit x = xi = 2475, n = Parameter-Schätzung 6.4 Schätzung: (Log)-Likelihood Die Likelihood-Funktion bei einer Stichprobe (yi, x i ), i = 1,..., n, unter der Annahme der unabhängigen identischen Verteilung ergibt sich damit als: L(β) = mit πi1 = Logist(x i β). n Die Log-Likelihood-Funktion ist dann ln L(β) = n π yi i1 (1 πi1)1 yi (10) yi ln(πi1) + (1 yi) ln(1 πi1). (11) 6.4 Parameter-Schätzung Nichtlineare Optimierung Schätzung: Nichtlineare Optimierung Wenn δ eine uphill Richtung ist, wird ein kleiner Schritt in dieser Richtung sicher zu einer Vergrößerung der Zielfunktion führen. Wir suchen also nach einem δ, so dass S(θn + tδ) eine steigende Funktion von t ist für t genügend nahe bei Null, d.h. d[s(θn + tδ)] dt = t=0 [ S θ ] [ ] d(θ + tδ) θn dt = t=0 [ S θ θn ] δ > 0. (14) Wenn wir den Gradienten der Zielfunktion S θ durch γn θn abkürzen, dann ist es klar, dass wir δ = Pnγn wählen können, wobei Pn irgendeine positiv definite Matrix ist, d.h. γ Pnγ > 0 für alle Vektoren γ 0, also γ n = γ npγn > 0, wenn γn 0. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Einschub: ML Prinzip 6.3 Einschub Maximum Likelihood Prinzip Beispiel: Fortsetzung Das ist schwierig zu maximieren, daher nehmen wir den Logarithmus, der zur log-likelihood führt, die leichter differenzierbar ist. Die erste Ableitung wird gleich Null gesetzt, um ˆp zu bestimmen: ( ) n log L(p) = log + k log p + (n k) log(1 p) k (log L(ˆp)) = (n k) (1 ˆp) = kˆp nˆp kˆp = k kˆp kˆp (n k) (1 ˆp) = 0 ˆp = k/n = 2475/16386 Anschließend wird überprüft, ob die zweite Ableitung negativ ist. 6.4 Parameter-Schätzung 6.4 Schätzung: (Log)-Likelihood Zur Maximierung muss als notwendige (nicht hinreichende!) Bedingung der Vektor der ersten Ableitungen (Gradient) gleich dem Nullvektor gesetzt werden: ln L(β) β! = 0. (12) Da πi1 eine nichtlineare Funktion von β ist, muss dies mit Hilfe einer numerische Maximierungsmethode erfolgen. Bei ML-Schätzungen von GLM verwendet man üblicherweise dazu das Fisher-Scoring-Verfahren (vgl. Fahrmeir und Hamerle, 1983) oder den IWLS (Iterative Weighted Least Squares) Algorithmus. 6.4 Parameter-Schätzung Nichtlineare Optimierung Schätzung: Nichtlineare Optimierung Für γn = 0 können wir hoffen, dass wir das Maximum in dieser Richtung erreicht haben. Daraus ergibt sich als allgemeine Form der Iteration: θn+1 = θn + tnpnγn, wobei tn die Schrittlänge in der n-ten Iteration ist. Offenbar gibt es viele uphill Richtungen in dem Gebirge allgemeiner Zielfunktionen S, nämlich mindestens so viele wie positiv definite Matrizen. Da wir im Allg. nicht a-priori einschätzen können, welche Richtung optimal ist, werden in der Literatur viele verschiedene Richtungen vorgestellt. Eine mögliche Wahl für P ist das Negative der Hessematrix (Newton-Raphson-Methode). Allgemein wird die Hessematrix jedoch nicht negativ definit sein außerhalb einer kleinen Umgebung des Maximums. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Parameter-Schätzung 6.4 Schätzung: (Log)-Likelihood 6.4 Parameter-Schätzung Likelihood und Log-Likelihood-Funktion Die Schätzung des Parametervektors β erfolgt in der Regel mit Hilfe der Maximum-Likelihood-Methode (ML-Methode). Beim zugrunde liegenden Bernoulli-Experiment gilt: P(Y = y) = π y 1 (1 π1)1 y (9) 6.4 Parameter-Schätzung Nichtlineare Optimierung Schätzung: Nichtlineare Optimierung Einschub: Nichtlineare Optimierung: Wir verwenden ein iteratives Verfahren zur Maximierung einer nichtlinearen Zielfunktion S(θ). Gegeben sei ein Punkt θn im Koeffizientenraum. Dann suchen wir eine Richtung δ, in der S(θ) steigt (uphill). Dabei müssen wir allerdings einerseits darauf achten, dass wir in einer solchen Richtung nicht zu weit vorangehen, weil uns das u. U. über den Maximalpunkt in dieser Richtung hinausführt, d.h. wieder den Berg hinab (downhill). Andererseits wären zu kleine Schritte natürlich ineffizient. Mit anderen Worten, wir müssen eine angemessene Schrittlänge t und eine Schrittrichtung δ finden, so dass S(θn + tδ) > S(θn). (13) 6.4 Parameter-Schätzung Nichtlineare Optimierung Schätzung: Fisher-Scoring Fisher-Scoring Ausgehend von einem Startvektor ˆβ (0) wird die Iteration ˆβ (m) = ˆβ (m 1) + Q 1 m 1 sm 1 (15) mit m = 1, 2,... solange durchgeführt, bis sm 1 nahe genug am Nullvektor ist oder bis keine Veränderung mehr erfolgt. Dabei ist sm = ln L( ˆβ(m) ) β der Gradientenvektor (Score-Vektor) und (16) Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

3 6.4 Parameter-Schätzung Nichtlineare Optimierung Schätzung: Fisher-Scoring ( 2 ln L( Qm = E(Hm) = E ˆβ ) (m) ) β β (17) die Fisher-Informationsmatrix (gleich dem negativen Erwartungswert der Hesse-Matrix). Das Verfahren unterscheidet sich vom Newton-Raphson-Verfahren darin, dass anstelle der Hesse-Matrix deren Erwartungswert verwendet wird. Die Elemente des Score-Vektors ergeben sich für die angegebene Log-Likelihood-Funktion in Matrix-Schreibweise: sm = X (y ˆπm), wobei X := ((xij)), ˆπm := (πi1( ˆβ (m) )). (ohne Beweis, siehe Literatur). 6.5 Beispiel Beispiel für logistische Regression in R: Kann aus Blutdruck (systolisch + diastolisch) und Geschlecht auf Raucher vs. Nichtraucher geschlossen werden? Vermutlich nicht gut, aber es gibt interessante Einsichten... s <- sample(1:nrow(blutdruck), 1000) glmobj <- glm(raucher ~ messwert_bp_sys + messwert_bp_dia + geschlecht, data = Blutdruck[-s,], family = binomial) summary(glmobj) # Ausgabe auf nächster Folie hist(predict(glmobj, newdata = Blutdruck[s,], type = "response")) 6.6 Interpretation 6.6 Interpretation der logist. Regression 6.6 Interpretation Die Elemente des geschätzten Koeffizientenvektors ˆβ lassen sich direkt nur schlecht interpretieren. Stattdessen interpretiert man meistens exp(ˆβ), das äquivalent ist zum Odds Ratio. Definition: Das Odds Ratio für Wahrscheinlichkeiten p1, p2 ist definiert als: p1/(1 p1) p2/(1 p2). Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Parameter-Schätzung Nichtlineare Optimierung Schätzung: Fisher-Scoring Die Fisher-Informationsmatrix lässt sich schreiben als: mit Vm = Qm = n πi1( ˆβ (m) )(1 πi1( ˆβ (m) )) xi x i = X VmX (18) ˆπ (m) 11 (1 ˆπ(m) 11 ) (m) 0 ˆπ 21 (1 ˆπ(m) ) ˆπ (m) n1 (1 ˆπ(m) n1 ) (19) (ohne Beweis, siehe Literatur). 6.5 Beispiel Ausgabe: Call: glm(formula = raucher ~ messwert_bp_sys + messwert_bp_dia + geschlecht, family = binomial, data = Blutdruck) Coefficients: Estimate Std. Error z value Pr(> z ) < 2e-16 (Intercept) *** messwert_bp_sys e-09 *** messwert_bp_dia e-08 *** geschlechtm Signif. codes: *** ** 0.01 * (Dispersion parameter for binomial family taken to be 1) Number of Fisher Scoring iterations: Interpretation 6.6 Interpretation der logist. Regression Es gilt nämlich: ( ) P(Y = 1 Xi = 1; X1,..., Xi 1, Xi+1,..., Xp) exp(βi) = P(Y = 0 Xi = 1; X1,..., Xi 1, Xi+1,..., Xp) ( ). P(Y = 1 Xi = 0; X1,..., Xi 1, Xi+1,..., Xp) P(Y = 0 Xi = 0; X1,..., Xi 1, Xi+1,..., Xp) (In der R Ausgabe findet man den zugehörigen Test auf H0 : βi = 0 bzw. H0 : exp(β) = 1.) Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Beispiel 6.5 Beispiel Bemerkung: Die Matrix Q wird im Fisher-Scoring invertiert. Dazu muss gelten: 0 < ˆπ < 1. Eine perfekte Trennung der Klassen führt also zu Problemen. 6.5 Beispiel Wahrscheinlichkeit für Raucher bei 1000 Testfällen. Raucher können durch die benutzen Variablen nicht besonders sicher erklärt werden, denn die maximale Wahrscheinlichkeit ist knapp über 20%: Anzahl a posteriori Wahrscheinlichkeiten für Raucher a posteriori W. für Raucher Raucher: 2475 Nichtraucher: Bayes: Interpretation 6.6 Interpretation der logist. Regression Eine Koeffizientenschätzung von βi = 0 bedeutet also ein Odds Ratio von 1: Das Risiko für Klasse 1 gegen Klasse 0 ändert sich nicht mit Xi. Eine Koeffizientenschätzung von βi = 1 bedeutet also ein Odds Ratio von exp(1), das Risiko für Klasse 1 gegen Klasse 0 erhöht sich also mit der erklärenden Variablen um den entsprechenden Faktor. Eine Koeffizientenschätzung von βi = 1 bedeutet also ein Odds Ratio von exp( 1), das Risiko für Klasse 1 gegen Klasse 0 verringert sich also mit der erklärenden Variablen um den entsprechenden Faktor. Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

4 > hist(pimaindiansdiabetes$mass, main = "") > hist(pimaindiansdiabetes$glucose, main = "") > plot( ~ glucose, data = pid) Es folgt eine kleine Fallstudie in R. Daten aus dem UCI repository of machine learning databases. Eine Gesamtheit von mindestens 21 Jahre alten Frauen des Pima Indianerstamms, die bei Phoenix, Arizona, USA leben und gemäß WHO Kriterien auf Diabetes getestet wurden. n = 768 Beobachtungen Frequency PimaIndiansDiabetes$mass Frequency PimaIndiansDiabetes$glucose glucose Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Variable Beschreibung pregnant Anz. Schwangerschaften glucose Glukose Konzentration laut oralem Glukose-Toleranz Test pressure Blutdruck (mm Hg) triceps Triceps Hautfaltendicke (mm) insulin Insulin im Serum (µ U/ml) mass BMI (kg/m 2 ) pedigree Diabetes Vererbungs Index age Alter (in Jahren) Diabetestest > plot( ~ glucose, data = PimaIndiansDiabetes) > plot( ~ pregnant, data = pid) glucose pregnant Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester > data("pimaindiansdiabetes", package = "mlbench") > summary(pimaindiansdiabetes) pregnant glucose pressure triceps Min. : Min. : Min. : 0.0 Min. : st Qu.: st Qu.: st Qu.: st Qu.: 0.00 Median : Median :117.0 Median : 72.0 Median :23.00 Mean : Mean :120.9 Mean : 69.1 Mean : rd Qu.: rd Qu.: rd Qu.: rd Qu.:32.00 Max. : Max. :199.0 Max. :122.0 Max. :99.00 insulin mass pedigree age Min. : : Min. : :21.00 neg: Min Min. 1st Qu.: 0.0 1st Qu.: st Qu.: st Qu.:24.00 pos:268 Median : 30.5 Median :32.00 Median : Median :29.00 Mean : 79.8 Mean :31.99 Mean : Mean : rd Qu.: rd Qu.: rd Qu.: rd Qu.:41.00 Max. :846.0 Max. :67.10 Max. : Max. :81.00 Viele Messungen sind so nicht möglich und sollten auf fehlend gesetzt werden. Nach Wahba et al. (1995) ignorieren wir fortan insulin and die 0 Beobachtungen in mass und glucose. > pid <- subset(pimaindiansdiabetes[, -5], + mass > 0 & glucose > 0) > dim(pid) [1] > plot( ~ pressure, data = pid) pressure Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

5 > plot( ~ triceps, data = pid) > plot( ~ age, data = pid) > summary(pid_glm) Estimate Std. Error z value Pr(> z ) (Intercept) < 2.2e-16 *** pregnant ** glucose < 2.2e-16 *** pressure triceps mass e-06 *** pedigree * age Signif. codes: 0 *** ** 0.01 * triceps age Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester > plot( ~ mass, data = pid) mass Für die Modellevaluation nehmen wir hier zunächst einen ganz einfachen, groben Ansatz: Wir teilen die Daten in einen Lerndatensatz mit 500 Beobachtungen (etwa 2/3) und einen Testdatensatz mit 252 Beobachtungen, um hinterher zu evaluieren. > set.seed( ) > pid_index <- sample(1:nrow(pid)) > pid_learn <- pid[pid_index[1:500], ] > pid_test <- pid[pid_index[-(1:500)], ] > pred_true <- pid_test$ > pid_test <- pid_test[, -8] Später werden noch ausgefeiltere Methoden zur Evaluation vorgestellt. > pid_glm <- step(pid_glm) > summary(pid_glm) Estimate Std. Error z value Pr(> z ) (Intercept) < 2.2e-16 *** pregnant e-05 *** glucose < 2.2e-16 *** pressure mass e-07 *** pedigree * --- Signif. codes: 0 *** ** 0.01 * Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester > plot( ~ pedigree, data = pid) Als Startmodell nehmen wir eben eine logistische Regression (also Binomialfamilie mit Logit link Funktion) uns alle zur Verfügung stehende Variablen als erlkärende Haupteffekte: Zur Beurteilung der Anpassungsgüte können wir die angepassten Werte (fitted()) mit den beobachteten y vergleichen. > pid_glm <- glm( ~., data = pid_learn, + family = binomial) Dieses Modell wollen wir nun schrittweise per Modellselektion nach dem AIC Kriterium verbessern. Weil das auf den Originalbeobachtungen aber zu optimistisch sein wird, sollte man auch die vorhergesagten (predict()) Werte des Testdatensatzes anschauen pedigree Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

6 > plot(fitted(pid_glm) ~, data = pid_learn) fitted(pid_glm) Ausserdem kann man die beobachteten Klassen mit vorhergesagten Wahrscheinlichkeiten vergleichen, indem man von den Wahrscheinlichkeiten zur Klassifikation übergeht: > pred_glm <- factor(pred_glm > 0.5, + labels = c("neg", "pos")) > (tab <- table(true = pred_true, pred = pred_glm)) pred true neg pos > 1 - sum(diag(tab))/sum(tab) 6.8 Literatur 6.8 Literatur Logistische Regression Anderson, J.A. (1982): Logistic Discrimination. In: P.R. Krishnaiah und L.N. Kanal (Hrsg.): Handbook of Statistics, Volume 2. North Holland Publishing Company, Amsterdam. Fahrmeir, L. und Hamerle, A. (1983): Multivariate statistische Verfahren. de Gruyter, Berlin. Tutz, G. (2000): Die Analyse kategorialer Daten. Oldenbourg Verlag, München. neg pos [1] Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester > pred_glm <- predict(pid_glm, newdata = pid_test, + type = "response") > plot(pred_glm ~ pred_true) pred_glm neg pos pred_true Katharina Morik und Uwe Ligges: Wissensentdeckung in Datenbanken Sommersemester

6.0 Logistische Regression. 6 Logistische Regression. 6.1 Das binäre Modell. 6 Logistische Regression

6.0 Logistische Regression. 6 Logistische Regression. 6.1 Das binäre Modell. 6 Logistische Regression 6.0 Logistische Regression 6.1 Das binäre Modell 6.1 Das binäre Modell Sei x der Vektor der Einflussgrößen mit einem Eins-Element, um die Regressionskonstante zu modellieren. Angenommen, es gilt das Regressionsmodell:

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

2.Tutorium Generalisierte Regression

2.Tutorium Generalisierte Regression 2.Tutorium Generalisierte Regression - Binäre Regression - Moritz Berger: 04.11.2013 und 11.11.2013 Shuai Shao: 06.11.2013 und 13.11.2013 Institut für Statistik, LMU München 1 / 16 Gliederung 1 Erweiterte

Mehr

Seminar zur Energiewirtschaft:

Seminar zur Energiewirtschaft: Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable

Mehr

Unterlagen zu Fisher s Exact Test, Vergleich von Anteilswerten und logistischer Regression. Robin Ristl. Wintersemester 2012/13

Unterlagen zu Fisher s Exact Test, Vergleich von Anteilswerten und logistischer Regression. Robin Ristl. Wintersemester 2012/13 Unterlagen zu Fisher s Exact Test, Vergleich von Anteilswerten und logistischer Regression Robin Ristl Wintersemester 2012/13 1 Exakter Test nach Fisher Alternative zum Chi-Quadrat Unabhängigkeitstest

Mehr

Logistische Regression I. Odds, Logits, Odds Ratios, Log Odds Ratios

Logistische Regression I. Odds, Logits, Odds Ratios, Log Odds Ratios Logistische Regression I. Odds, Logits, Odds Ratios, Log Odds Ratios PD Dr.Gabriele Doblhammer, Fortgescrittene Methoden, SS2004 Logistische Regression Tabelle 2 Alter und Symptome von Herz-/Kreislauferkrankung(CD)

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:

Mehr

Lineare Klassifikatoren. Volker Tresp

Lineare Klassifikatoren. Volker Tresp Lineare Klassifikatoren Volker Tresp 1 Klassifikatoren Klassifikation ist die zentrale Aufgabe in der Mustererkennung Sensoren liefern mir Informationen über ein Objekt Zu welcher Klasse gehört das Objekt:

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Kap. 9: Regression mit einer binären abhängigen Variablen

Kap. 9: Regression mit einer binären abhängigen Variablen Kap. 9: Regression mit einer binären abhängigen Variablen Motivation Lineares Wahrscheinlichkeitsmodell Probit- und Logit-Regression Maximum Likelihood Empirisches Beispiel: Analyse der HMDA-Daten Ausblick:

Mehr

1 Analyse von Kontigenztafeln: Das loglineare Modell

1 Analyse von Kontigenztafeln: Das loglineare Modell Übung zur Vorlesung Kategoriale Daten Blatt 3 Gerhard Tutz, Moritz Berger WiSe 15/16 1 Analyse von Kontigenztafeln: Das loglineare Modell Aufgabe 12 Analyse des Datensatzes EyeColor (a) Visualisierung

Mehr

Schriftliche Prüfung (90 Minuten)

Schriftliche Prüfung (90 Minuten) Dr. M. Kalisch Probeprüfung Statistik 1 Sommer 2014 Schriftliche Prüfung (90 Minuten) Bemerkungen: Alle schriftlichen Hilfsmittel und ein Taschenrechner sind erlaubt. Mobiltelefone sind auszuschalten!

Mehr

Von Kernkraftwerken zu Space Shuttles

Von Kernkraftwerken zu Space Shuttles Statistische Methoden in Forschung und Alltag Johannes Hain Lehrstuhl für Mathematik VIII Statistik Universität Würzburg 01.03.2011 Das erwartet einen Mathematik-Studenten auf der Uni... ... oder das hier:

Mehr

Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS)

Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Es soll untersucht werden, ob und wie sich Rauchen während der Schwangerschaft auf den Gesundheitszustand des Neugeborenen auswirkt. Hierzu werden

Mehr

Generalisierte lineare Modelle. Statistik 3 im Nebenfach. Binäre Regressionsmodelle. 4.1 Binäre Regression

Generalisierte lineare Modelle. Statistik 3 im Nebenfach. Binäre Regressionsmodelle. 4.1 Binäre Regression Generalisierte lineare Modelle Statistik 3 im Nebenfach Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München WS 2010/2011 basierend auf Fahrmeir, Kneib & Lang (2007) 4 Generalisierte

Mehr

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische

Mehr

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade

Mehr

Klausur zur Vorlesung Statistik III für Studenten mit Wahlfach Statistik. 7. Februar 2008

Klausur zur Vorlesung Statistik III für Studenten mit Wahlfach Statistik. 7. Februar 2008 L. Fahrmeir, G. Walter Department für Statistik Bitte für die Korrektur freilassen! Aufgabe 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit Wahlfach Statistik 7. Februar 8 Hinweise:. Überprüfen

Mehr

4 Binäre Regressionsmodelle, Folien 2

4 Binäre Regressionsmodelle, Folien 2 4 Binäre Regressionsmodelle, Folien 2 Ludwig Bothmann (basierend auf Unterlagen von Nora Fenske) Statistik III für Nebenfachstudierende WS 2014/2015 4.5 Hypothesentests Lineare Hypothesen Betrachtet werden

Mehr

Einführung in die Induktive Statistik: Testen von Hypothesen

Einführung in die Induktive Statistik: Testen von Hypothesen Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte

Mehr

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Statistische Methoden in der Wirtschaftsund Sozialgeographie

Statistische Methoden in der Wirtschaftsund Sozialgeographie Statistische Methoden in der Wirtschaftsund Sozialgeographie Ort: Zeit: Multimediapool Rechenzentrum Mittwoch 10.15-11-45 Uhr Material: http://www.geomodellierung.de Thema: Beschreibung und Analyse Wirtschafts-

Mehr

Die Maximum-Likelihood-Methode

Die Maximum-Likelihood-Methode Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Mehr

Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!!

Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!! Nachholklausur zur Vorlesung Schätzen und Testen I 04. April 2013 Volker Schmid, Ludwig Bothmann, Julia Sommer Aufgabe 1 2 3 4 5 6 Punkte Note Bitte ausfüllen und unterschreiben!!! Name, Vorname: Matrikelnummer:

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)

Mehr

4 Statistik der Extremwertverteilungen

4 Statistik der Extremwertverteilungen In diesem Kapitel beschäftigen wir uns mit statistischen Anwendungen der Extremwerttheorie. Wir werden zwei verschiedene Zugänge zur Modellierung von Extremwerten betrachten. Der erste Zugang basiert auf

Mehr

Statistik Einführung // Lineare Regression 9 p.2/72

Statistik Einführung // Lineare Regression 9 p.2/72 Statistik Einführung Lineare Regression Kapitel 9 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Ledold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // Lineare Regression

Mehr

Gemischte Modelle zur Schätzung geoadditiver Regressionsmodelle

Gemischte Modelle zur Schätzung geoadditiver Regressionsmodelle Gemischte Modelle zur Schätzung geoadditiver Regressionsmodelle Thomas Kneib & Ludwig Fahrmeir Institut für Statistik, Ludwig-Maximilians-Universität München 1. Regressionsmodelle für geoadditive Daten

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood

Mehr

ε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS?

ε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS? BINARY CHOICE MODELS 1 mit Pr( Y = 1) = P Y = 0 mit Pr( Y = 0) = 1 P Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS? Y i = X i β + ε i Probleme: Nonsense Predictions

Mehr

Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk

Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC Referenten: Linda Gräfe & Konstantin Falk 1 Agenda Schätzverfahren ML REML Beispiel in SPSS Modellbeurteilung Devianz AIC BIC

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Binäre abhängige Variablen

Binäre abhängige Variablen Binäre abhängige Variablen Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Einführung Oft wollen wir qualitative Variablen

Mehr

Eine Einführung in R: Das Lineare Modell

Eine Einführung in R: Das Lineare Modell Eine Einführung in R: Das Lineare Modell Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2009 Bernd Klaus, Verena Zuber

Mehr

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h 5. Die partielle Autokorrelationsfunktion 5.1 Definition, Berechnung, Schätzung Bisher: Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h ρ X (h) = Corr(X t, X

Mehr

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg Übungsklausur Lineare le Prof. Dr. H. Toutenburg Aufgabe Ein lineares Regressionsmodell mit der abhängigen Variablen Körpergröße und der unabhängigen Variablen Geschlecht wurde einmal mit der dummykodierten

Mehr

Multinomiale logistische Regression

Multinomiale logistische Regression Multinomiale logistische Regression Die multinomiale logistische Regression dient zur Schätzung von Gruppenzugehörigkeiten bzw. einer entsprechenden Wahrscheinlichkeit hierfür, wobei als abhänginge Variable

Mehr

Lineare Modelle in R: Klassische lineare Regression

Lineare Modelle in R: Klassische lineare Regression Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)

Mehr

Lineare Regression Blockpraktikum zur Statistik mit R 28. März 2012 Sören Gröttrup Institut für Mathematische Statistik Universität Münster SS 2012

Lineare Regression Blockpraktikum zur Statistik mit R 28. März 2012 Sören Gröttrup Institut für Mathematische Statistik Universität Münster SS 2012 Lineare Regression Blockpraktikum zur Statistik mit R 28. März 2012 Sören Gröttrup Institut für Mathematische Statistik Universität Münster SS 2012 Beispiel: Ausgangsfrage Ziel: Wie wirkt sich die eingesetzte

Mehr

Kategoriale abhängige Variablen: Logit- und Probit -Modelle. Statistik II

Kategoriale abhängige Variablen: Logit- und Probit -Modelle. Statistik II Kategoriale abhängige Variablen: Logit- und Probit -Modelle Statistik II Wiederholung Literatur Annahmen und Annahmeverletzungen Funktionen Exponenten, Wurzeln usw. Das Problem Das binäre Logit-Modell

Mehr

Regressionsanalyse in R

Regressionsanalyse in R Regressionsanalyse in R Session 6 1 Einfache Regression Lineare Regression ist eines der nützlichsten Werkzeuge in der Statistik. Regressionsanalyse erlaubt es Zusammenhänge zwischen Parametern zu schätzen

Mehr

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

Institut für Biometrie und klinische Forschung. WiSe 2012/2013 Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9.

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Januar 2011 BOOTDATA11.GDT: 250 Beobachtungen für die Variablen...

Mehr

Teil: lineare Regression

Teil: lineare Regression Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge

Mehr

Fall-Kontroll Studien und Selection Bias. 1.4 Fall-Kontroll Studien: Vorbemerkungen

Fall-Kontroll Studien und Selection Bias. 1.4 Fall-Kontroll Studien: Vorbemerkungen 1.4 Fall-Kontroll Studien: Vorbemerkungen Fall-Kontroll Studien und Selection Bias Fall-Kontroll Studien versuchen in gewisser Weise, eine Kohortenstudie zu imitieren, aber auf das oft zeit- und kostenaufwendige

Mehr

2 Aufgaben aus [Teschl, Band 2]

2 Aufgaben aus [Teschl, Band 2] 20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

Kategoriale abhängige Variablen:

Kategoriale abhängige Variablen: Kategoriale abhängige Variablen: Logit- und Probit -Modelle Statistik II Literatur Annahmen und Annahmeverletzungen Funktionen Exponenten, Wurzeln usw. Das Problem Das binäre Logit-Modell Statistik II

Mehr

Empirische Analysen mit dem SOEP

Empirische Analysen mit dem SOEP Empirische Analysen mit dem SOEP Methodisches Lineare Regressionsanalyse & Logit/Probit Modelle Kurs im Wintersemester 2007/08 Dipl.-Volksw. Paul Böhm Dipl.-Volksw. Dominik Hanglberger Dipl.-Volksw. Rafael

Mehr

Das Bayes'sche Prinzip

Das Bayes'sche Prinzip Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem

Mehr

Bivariate Analyseverfahren

Bivariate Analyseverfahren Bivariate Analyseverfahren Bivariate Verfahren beschäftigen sich mit dem Zusammenhang zwischen zwei Variablen Beispiel: Konservatismus/Alter Zusammenhangsmaße beschreiben die Stärke eines Zusammenhangs

Mehr

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung

Mehr

Multiplizitätskorrektur bei Variablenselektion

Multiplizitätskorrektur bei Variablenselektion Multiplizitätskorrektur bei Variablenselektion Seminar: Multiples Testen Dozent: Prof. Dr. T. Dickhaus Referent: Maximilian Mönch - 22.11.2010 - Überblick 1) Einleitung 2) Multiplizitätskorrektur 3) Median

Mehr

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und Übersicht über die Vorlesung Teil : Deskriptive fru@hephy.oeaw.ac.at VO 42.090 http://tinyurl.com/tu42090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 200 Teil 4:

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Mathematik in den Life Siences

Mathematik in den Life Siences Gerhard Keller Mathematik in den Life Siences Grundlagen der Modellbildung und Statistik mit einer Einführung in die Statistik-Software R 49 Abbildungen Verlag Eugen Ulmer Stuttgart Inhaltsverzeichnis

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Prof. Dr. Michael Havbro Faber 28.05.2009 1 Korrektur zur letzten Vorlesung Bsp. Fehlerfortpflanzung in einer Messung c B a 2 2 E c Var c a b A b 2 2 2 n h( x)

Mehr

Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr.

Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof. Dr. Grundlagen der Ökonometrie (für Wirtschaftsmathematikstudenten und mathematisch orientierte Volkswirtschaftsstudenten) Prof Dr Enno Mammen 0 Exkurs: Orthogonaltransformationen, Projektionen im R n In diesem

Mehr

Statistik. Ludwig Fahrmeir Rita Künstler Iris Pigeot Gerhard Tutz. Der Weg zur Datenanalyse. Springer. Zweite, verbesserte Auflage

Statistik. Ludwig Fahrmeir Rita Künstler Iris Pigeot Gerhard Tutz. Der Weg zur Datenanalyse. Springer. Zweite, verbesserte Auflage Ludwig Fahrmeir Rita Künstler Iris Pigeot Gerhard Tutz Statistik Der Weg zur Datenanalyse Zweite, verbesserte Auflage Mit 165 Abbildungen und 34 Tabellen Springer Inhaltsverzeichnis Vorwort v 1 Einführung

Mehr

Dabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen

Dabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen Lineare Regression und Matrizen. Einführendes Beispiel Der im Kapitel Skalarprodukt gewählte Lösungsweg für das Problem der linearen Regression kann auch mit Matrizen formuliert werden. Die Idee wird zunächst

Mehr

8 Extremwerte reellwertiger Funktionen

8 Extremwerte reellwertiger Funktionen 8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R

Mehr

Lineare Regression 1 Seminar für Statistik

Lineare Regression 1 Seminar für Statistik Lineare Regression 1 Seminar für Statistik Markus Kalisch 17.09.2014 1 Statistik 2: Ziele Konzepte von einer breiten Auswahl von Methoden verstehen Umsetzung mit R: Daten einlesen, Daten analysieren, Grafiken

Mehr

Klassifikation von Daten Einleitung

Klassifikation von Daten Einleitung Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung

Mehr

Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief

Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief Statistik II Literatur Kategoriale Unabhängige, Interaktion, nicht-lineare Effekte : Schätzung Statistik

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

2.3 Nichtlineare Regressionsfunktion

2.3 Nichtlineare Regressionsfunktion Nichtlineare Regressionsfunktion Bisher: lineares Regressionsmodell o Steigung d. Regressionsgerade ist konstant o Effekt einer Änderung von X auf Y hängt nicht vom Niveau von X oder von anderen Regressoren

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 017 4 Spezielle Zufallsgrößen Einführung 1 Wahrscheinlichkeit: Definition

Mehr

Strukturgleichungsmodellierung

Strukturgleichungsmodellierung Strukturgleichungsmodellierung FoV Methodenlehre FSU-Jena Dipl.-Psych. Norman Rose Parameterschätzung, Modelltest & Fit Indizes bei SEM Forschungsorientierte Vertiefung - Methodenlehre Dipl.-Psych. Norman

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als

Mehr

Multivariate Statistische Methoden und ihre Anwendung

Multivariate Statistische Methoden und ihre Anwendung Multivariate Statistische Methoden und ihre Anwendung in den Wirtschafts- und Sozialwissenschaften Von Prof. Dr. Hans Peter Litz Carl von Ossietzky Universität Oldenburg R. Oldenbourg Verlag München Wien

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

8. Februar 2007. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt.

8. Februar 2007. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt. L. Fahrmeir, C. Belitz Department für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit Wahlfach Statistik 8. Februar 2007 Hinweise:

Mehr

Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief. Statistik II

Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief. Statistik II Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief Statistik II Wiederholung Literatur Kategoriale Unabhängige, Interaktion, nicht-lineare Effekte

Mehr

Statistische Modellierung Merkblatt

Statistische Modellierung Merkblatt Inhaltsverzeichnis Statistische Modellierung Merkblatt Welches Modell nimmt man wann?... 1 Logit:... 2 Probit:... 2 Poisson:...2 Loglinear:... 2 multinomiales Logit:... 2 Ordinales Logit (PROC LOGISTIC

Mehr

Einführung in die (induktive) Statistik

Einführung in die (induktive) Statistik Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Ein- und Zweistichprobentests

Ein- und Zweistichprobentests (c) Projekt Neue Statistik 2003 - Lernmodul: Ein- Zweistichprobentests Ein- Zweistichprobentests Worum geht es in diesem Modul? Wiederholung: allgemeines Ablaufschema eines Tests Allgemeine Voraussetzungen

Mehr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p

Mehr

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J} 9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen

Mehr

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen

Mehr

Institut für Soziologie Dipl.-Soz. Benjamin Gedon. Methoden 2. Logistische Regression II

Institut für Soziologie Dipl.-Soz. Benjamin Gedon. Methoden 2. Logistische Regression II Institut für Soziologie Dipl.-Soz. Methoden 2 Logistische Regression II Bringen Sie zur nächsten Übung und in die Klausur einen (nicht programmierbaren) Taschenrechner mit! # 2 Programm Wiederholung der

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

Kategorielle Daten. Seminar für Statistik Markus Kalisch

Kategorielle Daten. Seminar für Statistik Markus Kalisch Kategorielle Daten Markus Kalisch 1 Phase 3 Studie: Wirksamer als Placebo? Medikament Placebo Total Geheilt 15 9 24 Nicht geheilt 10 11 21 Total 25 20 45 Grundfrage: Sind Heilung und Medikamentengabe unabhängig?

Mehr

1 Inhaltsverzeichnis. 1 Einführung...1

1 Inhaltsverzeichnis. 1 Einführung...1 1 Inhaltsverzeichnis 1 Einführung...1 1.1 Arten der stochastischen Abhängigkeit...2 1.2 Wo kommen regressive Abhängigkeiten vor?...3 1.3 Hauptaufgaben von Regressionsmodellen...3 1.4 Wissenschaftstheoretische

Mehr

Fortgeschrittene Statistik Logistische Regression

Fortgeschrittene Statistik Logistische Regression Fortgeschrittene Statistik Logistische Regression O D D S, O D D S - R A T I O, L O G I T T R A N S F O R M A T I O N, I N T E R P R E T A T I O N V O N K O E F F I Z I E N T E N, L O G I S T I S C H E

Mehr

Dierentialgleichungen 2. Ordnung

Dierentialgleichungen 2. Ordnung Dierentialgleichungen 2. Ordnung haben die allgemeine Form x = F (x, x, t. Wir beschränken uns hier auf zwei Spezialfälle, in denen sich eine Lösung analytisch bestimmen lässt: 1. reduzible Dierentialgleichungen:

Mehr

Mathematik für Naturwissenschaften, Teil 2

Mathematik für Naturwissenschaften, Teil 2 Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Multivariate Statistische Methoden

Multivariate Statistische Methoden Multivariate Statistische Methoden und ihre Anwendung in den Wirtschafts- und Sozialwissenschaften Von Prof. Dr. Hans Peter Litz Carl von Ossietzky Universität Oldenburg v..v.-'... ':,. -X V R.Oldenbourg

Mehr

Einführung in die statistische Testtheorie II

Einführung in die statistische Testtheorie II 1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.

Mehr