Anwendungen mit SAS: Direkt aus der Praxis! Block 3

Größe: px
Ab Seite anzeigen:

Download "Anwendungen mit SAS: Direkt aus der Praxis! Block 3"

Transkript

1 Anwendungen mit SAS: Direkt aus der Praxis! Block 3 Supervised Learning - Die Logistische Regression Fachhochschule Koblenz Fachbereich Mathematik und Technik Dr. Denise Rey 30. Januar

2 Inhalt 1. Was ist Data Mining? 2. Hauptkomponentenanalyse 3. Supervised Learning 4. Lineare Regression 5. Logistische Regression 6. Voraussetzungen Anwendungen mit SAS. Denise Rey. 2

3 Was ist Data Mining? Flache Datentabelle zur Analyse: Id Y 1 Y p X 1 X m 1 y1 1 y p 1 x1 1 xm n yn 1 yn p x 1 n x m n Anwendungen mit SAS. Denise Rey. 3

4 Was ist Data Mining? Anwendungen im Customer Relationship Management Verfahren zur Sicherung des aktuellen Kundenbestandes - Analyse des Kündigungsverhaltens - Verfahren zur Kundenbindung Verfahren zur Erweiterung des Kundenbestandes - Response Optimierung bei Werbekampagnen Verfahren zur Steigerung der Profitabilität - Cross- UpSelling - Kundenwertmodelle - Betrugserkennung Anwendungen mit SAS. Denise Rey. 4

5 Was ist Data Mining? Typische Herausforderungen bei dem Einsatz von Data Mining Methoden: - Anzahl der Beobachtungen n gross (n >> 10 6 möglich) - Anzahl der Attribute m gross (>> 10 4 möglich) - Fehlende Werte - Ausreisser und Extremwerte - Andere Datenqualitätsprobleme - Unterschiedliche Verteilungen (binär, diskret, stetig) Data Mining bezeichnet eine wissenschaftliche Disziplin die sich mit Entwicklung, Implementierung und Anwendung von Verfahren für die Analyse von grossen Datenmengen mit komplexer Struktur befasst. Anwendungen mit SAS. Denise Rey. 5

6 Was ist Data Mining? Unsupervised Learning - Es gibt keine Zielvariable - Dient zur deskriptiven Analyse eines Datenbestandes und zur Mustererkennung Id X 1 X m 1. x x m n x 1 n x m n Typische Verfahren: Clusteranalyse, Hauptkomponentenverfahren, Assoziationsanalyse usw. Anwendungen mit SAS. Denise Rey. 6

7 Anwendungen mit SAS. Denise Rey. 7

8 Hauptkomponentenanalyse Loading Plot - Darstellung der Originalvariablen - Korrelierte Variablen naheliegend - Invers korrelierte Variablen in entgegengesetzter Richtung - Länge der Pfleile zeigt die Stärke des Einflusses - Geometrisch, Kosinus der Winkel (Werte zwischen -1 und 1). Score Plot - Darstellung der Beobachtungen - Cluster der ähnlichen Beobachtungen - Zugehörigkeit zu den relevanten Einflussvariablen - Koordinaten in dem neuen Raum Anwendungen mit SAS. Denise Rey. 8

9 Hauptkomponentenanalyse - Verfahren zur Reduktion der Dimensionalität - Verfahren zur Erkennung von Strukturen in dem gegebenen Variablenraum bzw. Beobachtungsraum - Einsatz bei korrelierten quantitativen Inputvariablen - Reduktion von vielen korrelierten Einflussvariablen zu wenigen unkorrelierten Hauptkomponenten - Projezierung der Beobachtungen in einem 2-dimensionalem Raum - Grafische Darstellung aller Daten - Methode zur Entdeckung multivariater Ausreisser - Hauptkomponenten als Input in andere Data Mining Verfahren (Cluster usw.) - Mathematisch eine orthogonale lineare Transformation zu einem neuen Koordinatensystem - proc princomp in SAS Anwendungen mit SAS. Denise Rey. 9

10 Supervised Learning - Die Analyse hat (wenigstens) eine Zielvariable - Dient zur Findung der signifikanten Einflussfaktoren und zur Vorhersage Id Y X 1 X m 1. y 1. x x m n y n x 1 n x m n Anwendungen mit SAS. Denise Rey. 10

11 Anwendungen mit SAS. Denise Rey. 11

12 Supervised Learning...wende Supervised Verfahren an heisst: Suche ein mathematisches Modell f so dass der Fehler minimiert wird (bzw. Y durch X erklärt wird): Ŷ min f Y = f(x) Y Das Modell bestimmt welche Attribute (Spalten) einen signifikanten Einfluss auf Y haben und welche nicht, bzw. es findet die Variablenselektion statt. Benutze das Modell f zur Vorhersage. Anwendungen mit SAS. Denise Rey. 12

13 Supervised Learning Typische Verfahren für die Modellfindung: Regression, Entscheidungsbäume, Neuronale Netze, Support Vector Machines usw. Modellauswahl - Mathematische Voraussetzungen für das Anwenden eines Varfahrens müssen erfüllt sein - Falls mehrere Verfahren die Voraussetzungen erfüllen, ist das Verfahren bzw. das Modell welches den Fehler minimiert auszuwählen. Anwendungen mit SAS. Denise Rey. 13

14 Das theoretische Modell: Lineare Regression Y = Xβ + ɛ (1) heisst klassiches lineares Regressionsmodell, wenn folgende Annahmen gelten: 1. E(ɛ) = 0 2. Cov(ɛ) = E(ɛɛ ) = σ 2 I 3. Die Designmatrix X besitzt vollen Spaltenrang, d.h. rg(x) = k + 1 = p Wir sprechen von klassischer Normalregression, wenn zusätzlich die Annahme 4. ɛ N(0, σ 2 I) getroffen wird. Ziel ist das geschätzte Modell: Ŷ = Xˆβ (2) Anwendungen mit SAS. Denise Rey. 14

15 Anwendungen mit SAS. Denise Rey. 15

16 Anwendungen mit SAS. Denise Rey. 16

17 Anwendungen mit SAS. Denise Rey. 17

18 Variablenselektion Forward Wählt zuerst das beste Modell mit einer einzigen Variablen. Danach wählt die Methode unter allen Modellen mit jeweils zwei Variablen, bei denen die erste ausgewählte Variable enthalten ist, das beste Modell usw. Solange bis der Punkt erreicht ist, an dem keine weiteren Variablen einen Wert haben, der unter dem festgelegten p-wert für die Annahme in das Modell liegt. Backward Startet mit einem vollständigen Modell mit allen Variablen. Stepwise Spiel zwischen Forward und Backward. Anwendungen mit SAS. Denise Rey. 18

19 Lineare Regression demo1 proc reg Anwendungen mit SAS. Denise Rey. 19

20 Anwendungen mit SAS. Denise Rey. 20

21 Anwendungen mit SAS. Denise Rey. 21

22 proc reg - Voraussetzungen und Eigenschaften Y (Target) Variable: Quantitativ X Variablen (Prädiktoren): Quantitativ Automatische Modellauswahl: Neun Verfahren (F,B,S,Rsquare usw.) Regressionsdiagnostiken (Ausreisser): Ja Maße für Modellgüte (Fehler): Ja (MSE,RMSE,R 2,AIC,BIC usw.) Automatische Datenpartition (Train, Valid): Nein Score Datei: Nein Grafische Ausgabe: Ja, via ODS GRAPHICS Anwendungen mit SAS. Denise Rey. 22

23 Logistische Regression Das theoretische Modell: Y Be(π) E(Y ) = π(x) = h(β 0 + x 1 β x p β p ) = h(η) - h ist die Link Funktion - η ist der lineare Prädiktor Für die logistische Regression gilt π(x) = h(η) = Ziel ist das geschätzte Modell: exp(η) 1 + exp(η) log ( π 1 π ) = η. ˆπ(x) = h(ˆβ 0 + x 1 ˆβ x p ˆβ p ) ( ) π log = ˆβ 0 + x 1 ˆβ x p ˆβ p. 1 π Anwendungen mit SAS. Denise Rey. 23

24 Logistische Regression Interpretation der logistischen Regression Für die Chance (odds) gilt das multiplikative Modell π 1 π = P (Y = 1 x) P (Y = 0 x) = exp(β 0)exp(x 1 β 1 )... exp(x p β p ) (3) Wird z.b. x 1 auf x erhöht, so gilt für das Verhältnis der Chancen: P (Y = 1 x 1,...) P (Y = 0 x 1,...) /P (Y = 1 x 1 + 1,...) P (Y = 0 x 1 + 1,...) = exp(β 1) (4) β 1 > 0: Chance P(Y=1)/P(Y=0) wird größer (x 1 begünstigt Y ). β 1 < 0: Chance P(Y=1)/P(Y=0) wird kleiner. β 1 = 0: Chance P(Y=1)/P(Y=0) bleibt gleich. 24

25 Anwendungen mit SAS. Denise Rey. 25

26 Logistische Regression demo2 proc logistic simulated demo3 proc logistic kunden Anwendungen mit SAS. Denise Rey. 26

27 Anwendungen mit SAS. Denise Rey. 27

28 Anwendungen mit SAS. Denise Rey. 28

29 Anwendungen mit SAS. Denise Rey. 29

30 Anwendungen mit SAS. Denise Rey. 30

31 Anwendungen mit SAS. Denise Rey. 31

32 Anwendungen mit SAS. Denise Rey. 32

33 Anwendungen mit SAS. Denise Rey. 33

34 Anwendungen mit SAS. Denise Rey. 34

35 Logistische Regression proc logistic data=block3.train outmodel = model; class online multi abo flag praemie verschickt flag k schlechter zahler / descending PARAM=effect; model abo status(desc) = online multi abo flag praemie verschickt flag k alter k schlechter zahler /CLPARM=WALD RSQUARE expb lackfit CTABLE outroc=roc initial dataset; output out=pred p=phat lower=lcl upper=ucl predprobs=individual; score data = block3.validation out=validated outroc=roc validation fitstat; score data = block3.neue kunden out=scored; run; Anwendungen mit SAS. Denise Rey. 35

36 Logistische Regression /**********Alternativ für Scoring************* proc logistic inmodel=model; score data = block3.neue kunden out=scored; run; *********************************************/ Anwendungen mit SAS. Denise Rey. 36

37 proc logistic - Voraussetzungen und Eigenschaften Y (Target) Variable: Binär oder ordinal X Variablen (Prädiktoren): Quantitativ oder diskret Automatische Modellauswahl: Ja (F,B,S,Rsquare usw.) Regressionsdiagnostiken (Ausreisser): Ja Maße für Modellgüte (Fehler): Ja (MSE,RMSE,MISC,AIC, BIC usw.) Automatische Datenpartition (Train, Valid): Nein Score Datei: Ja Grafische Ausgabe: Ja, via ODS GRAPHICS Anwendungen mit SAS. Denise Rey. 37

38 Wiederholung Voraussetzungen -Fehlende Daten und hinreichende Besetzung der Klassen -Additivität des Modells -Multikollinearität (Analyse z.b. durch Korrelationsmatrix, Lösung durch Aggregation oder Hauptkomponentenanalyse) -Ausreisser (DIFCHISQ, DIFDEV, DIFBETA) -Heteroskedastizität und Normalverteilung der Residuen Anwendungen mit SAS. Denise Rey. 38

39 Anwendungen mit SAS. Denise Rey. 39

40 Anwendungen mit SAS. Denise Rey. 40

41 Anwendungen mit SAS. Denise Rey. 41

42 Literatur 1. Regression. Ludwig Fahrmeir et al. Springer The Elements of Statistical Learning. Hastie et al Anwendungen mit SAS. Denise Rey. 42

Anwendungen mit SAS: Direkt aus der Praxis! Block 2

Anwendungen mit SAS: Direkt aus der Praxis! Block 2 Anwendungen mit SAS: Direkt aus der Praxis! Block 2 Wie können wir Mehrdimensionalität verstehen? - Clusterverfahren und Hauptkomponentenverfahren - Fachhochschule Koblenz Fachbereich Mathematik und Technik

Mehr

Multiple Lineare Regression (Forts.) Residualanalyse (1)

Multiple Lineare Regression (Forts.) Residualanalyse (1) 6. Multivariate Verfahren Lineare Regression Multiple Lineare Regression (Forts.) Residualanalyse (1) Studentisierte Residuen (Option R) r i = e i s 1 h ii e i = y i ŷ i (Residuen) sind korreliert, var

Mehr

Multivariate Statistik

Multivariate Statistik Multivariate Statistik von Univ.-Prof. Dr. Rainer Schlittgen Oldenbourg Verlag München I Daten und ihre Beschreibung 1 1 Einführung 3 1.1 Fragestellungen 3 1.2 Datensituation 8 1.3 Literatur und Software

Mehr

Einführung in die Induktive Statistik: Regressionsanalyse

Einführung in die Induktive Statistik: Regressionsanalyse Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse

Mehr

(G)LM. 24. November 2009

(G)LM. 24. November 2009 (G)LM 24 November 29 Dies ist eine kurze Zusammenfassung der Grundlagen von linearen Modellen, sowie aufbauend darauf von generalisierten linearen Modellen Sie dient lediglich zum Einstieg und zur knappen

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe

Mehr

Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders

Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders Gerhard Svolba SAS Austria Mariahilfer Straße 116 A-1070 Wien Sastools.by.gerhard@gmx.net Zusammenfassung

Mehr

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade

Mehr

Lineare Klassifikationsmethoden

Lineare Klassifikationsmethoden Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung

Mehr

Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.

Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression. Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, 10.07.017 Wahrscheinlichkeit und Statistik Patric Müller WBL

Mehr

Glossar Statistik 2. Bivariate Verfahren: zwei nummerische Merkmale

Glossar Statistik 2. Bivariate Verfahren: zwei nummerische Merkmale Glossar Statistik 2 Bivariate Verfahren: zwei nummerische Merkmale Streudiagramm - Datenpaare (X, Y) als Punkte auf einem zweidimensionale Diagramm (Ordinate: Y, Abszisse: X) Lineare Regression - Optimierungsproblem

Mehr

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische

Mehr

6.2 Lineare Regression

6.2 Lineare Regression 6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )

Mehr

Logistische Regression

Logistische Regression Logistische Regression 13.11.2017 Motivation Regressionsrechnung: Untersuchung des Zusammenhangs zwischen einer (oder mehreren) Zielvariablen und einer oder mehreren erklärenden Variablen. Bisher gesehen:

Mehr

Inhaltsverzeichnis. Vorwort. 1 Einführung in die multivariate Datenanalyse 1

Inhaltsverzeichnis. Vorwort. 1 Einführung in die multivariate Datenanalyse 1 V Inhaltsverzeichnis Vorwort XI 1 Einführung in die multivariate Datenanalyse 1 1.1 Was ist multivariate Datenanalyse? 1 1.2 Datensätze in der multivariaten Datenanalyse 4 1.3 Ziele der multivariaten Datenanalyse

Mehr

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume 4. Klassifikation Inhalt 4.1 Motivation 4.2 Evaluation 4.3 Logistische Regression 4.4 k-nächste Nachbarn 4.5 Naïve Bayes 4.6 Entscheidungsbäume 4.7 Support Vector Machines 4.8 Neuronale Netze 4.9 Ensemble-Methoden

Mehr

Vergleich von Partial Cox Regression und Lasso zur Analyse von U berlebenszeiten bei hochdimensionalen Daten

Vergleich von Partial Cox Regression und Lasso zur Analyse von U berlebenszeiten bei hochdimensionalen Daten Vergleich von Partial Cox Regression und Lasso zur Analyse von U berlebenszeiten bei hochdimensionalen Daten Claudia-Martina Messow Robertson Centre for Biostatistics, University of Glasgow Situation Methoden

Mehr

Logistische Regression in SAS

Logistische Regression in SAS Logistische Regression in SAS Oliver Kuß Medizinische Universitätsklinik, Abt. Klinische Sozialmedizin, Bergheimer Str. 58, 69115 Heidelberg, email: okuss@med.uni-heidelberg.de 3. Konferenz für SAS -Anwender

Mehr

Logistische Regression

Logistische Regression Logistische Regression Markus Kalisch 30.09.2014 1 Big Picture: Statistisches Lernen Supervised Learning (X,Y) Unsupervised Learning X VL 7, 11, 12 Regression Y kontinuierlich VL 1, 2, 4, 5, 6 Klassifikation

Mehr

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T 9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon

Mehr

Kategorielle Zielgrössen

Kategorielle Zielgrössen Kategorielle Zielgrössen 27.11.2017 Motivation Bisher gesehen: Regressionsmodelle für diverse Arten von Zielgrössen Y. kontinuierliche Zielgrösse Lineare Regression Binäre/binomiale Zielgrösse Logistische

Mehr

5.Tutorium Generalisierte Regression

5.Tutorium Generalisierte Regression 5.Tutorium Generalisierte Regression - Multinomiales/Kummulatives Logit-Modell - Cynthia Huber: 09.12.2014 und 16.12.2014 Michael Hanselmann: 18.12.2014 Institut für Statistik, LMU München 1 / 16 Gliederung

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula

Mehr

Multivariate Lineare Modelle SS Einführung. 1. Organisation. 2. Übersicht. 3. Arbeiten mit SAS

Multivariate Lineare Modelle SS Einführung. 1. Organisation. 2. Übersicht. 3. Arbeiten mit SAS Multivariate Lineare Modelle SS 2009 0 Einführung 1. Organisation 2. Übersicht 3. Arbeiten mit SAS 1 0.1 Organisation Lehrziele: Theorie von multivariaten linearen Modellen Praktische Anwendung mit SAS

Mehr

1 Beispiele multivariater Datensätze... 3

1 Beispiele multivariater Datensätze... 3 Inhaltsverzeichnis Teil I Grundlagen 1 Beispiele multivariater Datensätze... 3 2 Elementare Behandlung der Daten... 15 2.1 Beschreibung und Darstellung univariater Datensätze... 15 2.1.1 Beschreibung und

Mehr

1 Diskriminanzanalyse

1 Diskriminanzanalyse Multivariate Lineare Modelle SS 2008 1 Diskriminanzanalyse 1. Entscheidungstheorie 2. DA für normalverteilte Merkmale 3. DA nach Fisher 1 Problemstellungen Jedes Subjekt kann einer von g Gruppen angehören

Mehr

Gegenüberstellung alternativer Methoden zur Variablenselektion

Gegenüberstellung alternativer Methoden zur Variablenselektion Gegenüberstellung alternativer Methoden zur Variablenselektion Reinhard Strüby, Ulrich Reincke SAS Deutschland Business Competence Center Analytical Solutions Copyright 2004, SAS Institute Inc. All rights

Mehr

Multiple lineare Regression

Multiple lineare Regression Multiple lineare Regression Bisher eine Einflußgröße X 1 (und der Achsenabschnitt). Dagegen das Modell der multiplen Regression Y = β 0 X 0 + β 1 X 1 +... + β p X p + ε mit p Einflußgrößen und dem Achsenabschnitt.

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Regressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/

Regressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/ Regressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/2018 06.12.2018 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN Nachname:...................................................................

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Inferenzstatistik in Regressionsmodellen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für

Mehr

Seminar zur Energiewirtschaft:

Seminar zur Energiewirtschaft: Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable

Mehr

Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen

Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Rückblick Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Ridge Regression vermeidet Überanpassung, indem einfachere Modelle mit

Mehr

BZQ II: Stochastikpraktikum

BZQ II: Stochastikpraktikum BZQ II: Stochastikpraktikum Block 3: Lineares Modell, Klassifikation, PCA Randolf Altmeyer January 9, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden

Mehr

D-CHAB Frühlingssemester 2017 T =

D-CHAB Frühlingssemester 2017 T = D-CHAB Frühlingssemester 17 Grundlagen der Mathematik II Dr Marcel Dettling Lösung 13 1) Die relevanten Parameter sind n = 3, x = 1867, σ x = und µ = 18 (a) Die Teststatistik T = X µ Σ x / n ist nach Annahme

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Inhaltsverzeichnis. 1 Über dieses Buch Zum Inhalt dieses Buches Danksagung Zur Relevanz der Statistik...

Inhaltsverzeichnis. 1 Über dieses Buch Zum Inhalt dieses Buches Danksagung Zur Relevanz der Statistik... Inhaltsverzeichnis 1 Über dieses Buch... 11 1.1 Zum Inhalt dieses Buches... 13 1.2 Danksagung... 15 2 Zur Relevanz der Statistik... 17 2.1 Beispiel 1: Die Wahrscheinlichkeit, krank zu sein, bei einer positiven

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:

Mehr

MEHR ALS LINEAR ODER LOGISTISCH?

MEHR ALS LINEAR ODER LOGISTISCH? MEHR ALS LINEAR ODER LOGISTISCH? QUANTILS EN UND ADAPTIVE SPLINES IN SAS MIHAI PAUNESCU QUANTILE proc univariate data=dat; ods select moments quantiles; var sales; Basic Statistical Measures Location Variability

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

Vorlesung: Lineare Modelle. Verschiedene Typen von Residuen. Probleme bei der Regression und Diagnose. Prof. Dr. Helmut Küchenhoff.

Vorlesung: Lineare Modelle. Verschiedene Typen von Residuen. Probleme bei der Regression und Diagnose. Prof. Dr. Helmut Küchenhoff. Vorlesung: Lineare Modelle Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München SoSe 205 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen.

Mehr

Mustererkennung und Klassifikation

Mustererkennung und Klassifikation Mustererkennung und Klassifikation WS 2007/2008 Fakultät Informatik Technische Informatik Prof. Dr. Matthias Franz mfranz@htwg-konstanz.de www-home.htwg-konstanz.de/~mfranz/heim.html Grundlagen Überblick

Mehr

2.Tutorium Generalisierte Regression

2.Tutorium Generalisierte Regression 2.Tutorium Generalisierte Regression - Binäre Regression - Moritz Berger: 04.11.2013 und 11.11.2013 Shuai Shao: 06.11.2013 und 13.11.2013 Institut für Statistik, LMU München 1 / 16 Gliederung 1 Erweiterte

Mehr

Regressionsmodelle für diskrete Zielgrößen und korrelierte Beobachtungen. Oliver Kuß*; Uwe Hasenbein**;

Regressionsmodelle für diskrete Zielgrößen und korrelierte Beobachtungen. Oliver Kuß*; Uwe Hasenbein**; Regressionsmodelle für diskrete Zielgrößen und korrelierte Beobachtungen Oliver Kuß*; Uwe Hasenbein**; *Institut für Medizinsche Epidemiologie, Biometrie und Informatik, Martin-Luther-Universität Halle-Wittenberg,

Mehr

1 Binäre Regression (I)

1 Binäre Regression (I) Übung zur Vorlesung Generalisierte Regressionsmodelle Blatt 2 Gerhard Tutz, Moritz Berger, Wolfgang Pößnecker WiSe 14/15 1 Binäre Regression (I) Aufgabe 1 Der Datensatz shuttle beschreibt für die 23 Space

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests. 0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:

Mehr

y = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0

y = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0 8 Lineare Modelle In diesem Abschnitt betrachten wir eine spezielle Klasse von statistischen Modellen, in denen die Parameter linear auftauchen Wir beginnen mit zwei Beispielen Beispiel 8 (lineare Regression)

Mehr

Statistikpraktikum. Carsten Rezny. Sommersemester Institut für angewandte Mathematik Universität Bonn

Statistikpraktikum. Carsten Rezny. Sommersemester Institut für angewandte Mathematik Universität Bonn Statistikpraktikum Carsten Rezny Institut für angewandte Mathematik Universität Bonn Sommersemester 2014 Mehrdimensionale Datensätze: Multivariate Statistik Multivariate Statistik Mehrdimensionale Datensätze:

Mehr

Fehler in der abhängigen Variablen

Fehler in der abhängigen Variablen Fehler in der abhängigen Variablen Bachelor- Seminar im Wintersemester 2014/ 2015 Nina Markovic Institut für Statistik, LMU 19. Dezember 2014 Nina M. (Institut für Statistik, LMU) Fehler in der abhängigen

Mehr

Logistische Regression: Reaktivierungsscore

Logistische Regression: Reaktivierungsscore Logistische Regression: Reaktivierungsscore Stand: April 2017 Prof. Dr. Oliver Schwarz Hochschule Heilbronn, diupp Philipp Gassen Hochschule Heilbronn, DYMATRIX 1 Agenda Methodik Problemstellung Anwenden

Mehr

Proxies, Endogenität, Instrumentvariablenschätzung

Proxies, Endogenität, Instrumentvariablenschätzung 1 4.2 Multivariate lineare Regression: Fehler in den Variablen, Proxies, Endogenität, Instrumentvariablenschätzung Literatur: Wooldridge, Kapitel 15, Appendix C.3 und Kapitel 9.4 Wahrscheinlichkeitslimes

Mehr

Least Absolute Shrinkage And Seletion Operator (LASSO)

Least Absolute Shrinkage And Seletion Operator (LASSO) Least Absolute Shrinkage And Seletion Operator (LASSO) Peter von Rohr 20 März 2017 Lineare Modell und Least Squares Als Ausgangspunkt haben wir das Lineare Modell und Least Squares y = Xβ + ɛ (1) ˆβ =

Mehr

Kapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen.

Kapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen. Kapitel 3 Schließende lineare Regression 3.1. Einführung induktiv Fragestellungen Modell Statistisch bewerten, der vorher beschriebenen Zusammenhänge auf der Basis vorliegender Daten, ob die ermittelte

Mehr

Forschungsstatistik I

Forschungsstatistik I Psychologie Prof. Dr. G. Meinhardt 6. Stock, TB II R. 06-206 (Persike) R. 06-321 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Modellierung mit künstlicher Intelligenz

Modellierung mit künstlicher Intelligenz Samuel Kost kosts@mailbox.tu-freiberg.de Institut für Numerische Mathematik und Optimierung Modellierung mit künstlicher Intelligenz Ein Überblick über existierende Methoden des maschinellen Lernens 13.

Mehr

Die Regressionsanalyse

Die Regressionsanalyse Die Regressionsanalyse Zielsetzung: Untersuchung und Quantifizierung funktionaler Abhängigkeiten zwischen metrisch skalierten Variablen eine unabhängige Variable Einfachregression mehr als eine unabhängige

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn

Mehr

Anwendung logistischer und linearer Regressionsmodelle zur Berechnung von adjustierten NNEs und Risikodifferenzen

Anwendung logistischer und linearer Regressionsmodelle zur Berechnung von adjustierten NNEs und Risikodifferenzen Workshop der AG Statistische Methoden in der Medizin Magdeburg, 22.11.2007 Anwendung logistischer und linearer Regressionsmodelle zur Berechnung von adjustierten NNEs und Risikodifferenzen Ulrich Gehrmann

Mehr

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta Multivariate Lineare Regression Christian Herta Oktober, 2013 1 von 34 Christian Herta Multivariate Lineare Regression Lernziele Multivariate Lineare Regression Konzepte des Maschinellen Lernens: Kostenfunktion

Mehr

Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller

Teil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit

Mehr

Poisson Regression. Verallgemeinerte Lineare Modelle (GLMs)

Poisson Regression. Verallgemeinerte Lineare Modelle (GLMs) Poisson Regression Verallgemeinerte Lineare Modelle (GLMs) 28.11.2011 Poisson Regression Aus der Einführungsvorlesung Poisson-Verteilung ist in der Regel gut geeignet, um Anzahlen zu modellieren. Frage

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

Lineare Regression 2: Gute Vorhersagen

Lineare Regression 2: Gute Vorhersagen Lineare Regression 2: Gute Vorhersagen Markus Kalisch 23.09.2014 1 Big Picture: Statistisches Lernen Supervised Learning (X,Y) Unsupervised Learning X VL 7, 11, 12 Regression Y kontinuierlich VL 1, 2,

Mehr

5.Tutorium Multivariate Verfahren

5.Tutorium Multivariate Verfahren 5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt Statistik & Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Dr. Malte Persike persike@uni-mainz.de

Mehr

Zusammenfassung 11. Sara dos Reis.

Zusammenfassung 11. Sara dos Reis. Zusammenfassung 11 Sara dos Reis sdosreis@student.ethz.ch Diese Zusammenfassungen wollen nicht ein Ersatz des Skriptes oder der Slides sein, sie sind nur eine Sammlung von Hinweise zur Theorie, die benötigt

Mehr

Supervised & Unsupervised Machine Learning

Supervised & Unsupervised Machine Learning Machine Learning-Algorithmen in Python mit scikit-learn Machine Learning-Algorithmen in Python mit scikit-learn Kurzbeschreibung Machine Learning-Algorithmen sind ein elementares Element von Künstlicher

Mehr

5 Allgemeine Verfahren zum Testen von Hypothesen

5 Allgemeine Verfahren zum Testen von Hypothesen 5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).

Mehr

Zusammenhänge zwischen metrischen Merkmalen

Zusammenhänge zwischen metrischen Merkmalen Zusammenhänge zwischen metrischen Merkmalen Darstellung des Zusammenhangs, Korrelation und Regression Daten liegen zu zwei metrischen Merkmalen vor: Datenpaare (x i, y i ), i = 1,..., n Beispiel: x: Anzahl

Mehr

Einfache lineare Regression. Statistik (Biol./Pharm./HST) FS 2015

Einfache lineare Regression. Statistik (Biol./Pharm./HST) FS 2015 Einfache lineare Regression Statistik (Biol./Pharm./HST) FS 2015 Wdh: Korrelation Big picture: Generalized Linear Models (GLMs) Bisher: Population wird mit einer Verteilung beschrieben Bsp: Medikament

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Modellklassen, Verlustfunktionen Nico Piatkowski und Uwe Ligges 02.05.2017 1 von 15 Literatur Trevor Hastie, Robert Tibshirani, Jerome Friedman. The Elements of Statistical

Mehr

Empirische Analysen mit dem SOEP

Empirische Analysen mit dem SOEP Empirische Analysen mit dem SOEP Methodisches Lineare Regressionsanalyse & Logit/Probit Modelle Kurs im Wintersemester 2007/08 Dipl.-Volksw. Paul Böhm Dipl.-Volksw. Dominik Hanglberger Dipl.-Volksw. Rafael

Mehr

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h 5. Die partielle Autokorrelationsfunktion 5.1 Definition, Berechnung, Schätzung Bisher: Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h ρ X (h) = Corr(X t, X

Mehr

Data Mining & Machine Learning Dipl.-Inf. Christoph Carl Kling

Data Mining & Machine Learning Dipl.-Inf. Christoph Carl Kling Web Science & Technologies University of Koblenz Landau, Germany Data Mining & Machine Learning Dipl.-Inf. Christoph Carl Kling Mündliche Prüfung Welche Methoden gibt es? Wie sind die Annahmen für die

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

Statistisches Lernen

Statistisches Lernen Statistisches Lernen Einheit 12: Modellwahl und Regularisierung Dr. rer. nat. Christine Pausch Institut für Medizinische Informatik, Statistik und Epidemiologie Universität Leipzig WS 2014/2015 1 / 28

Mehr

Werkzeuge der empirischen Forschung

Werkzeuge der empirischen Forschung Werkzeuge der empirischen Forschung I. Daten und Beschreibende Statistik 1. Einführung 2. Dateneingabe, Datentransformation, Datenbehandlung 3. Beschreibende Statistik II. Schließende Statistik 1 III.

Mehr

Poisson Regression & Verallgemeinerte lineare Modelle

Poisson Regression & Verallgemeinerte lineare Modelle Poisson Regression & Verallgemeinerte lineare Modelle 20.11.2017 Motivation Ausgangslage Wir haben Anzahldaten (count data) Y i, cf. Vorlesung zu kategoriellen Variablen. Zu jeder Beobachtung Y i haben

Mehr

Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten

Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten M. Siebers 1 U. Schmid 2 1 Otto-Friedrich-Universität Bamberg 2 Fakultät für Wirtschaftsinformatik und Angewandte Informatik

Mehr

9. Lineare Regression

9. Lineare Regression 9. Lineare Regression y 3.0 3.5 4.0 4.5 0.0 0.2 0.4 0.6 0.8 1.0 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 2016 1 / 40 x KQ-Schätzung Es ist eine Gerade y = β 1 + β 2 x gesucht, welche

Mehr

0 Einführung: Was ist Statistik

0 Einführung: Was ist Statistik 0 Einführung: Was ist Statistik 1 Datenerhebung und Messung 2 Univariate deskriptive Statistik 3 Multivariate Statistik 4 Regression 5 Ergänzungen Explorative Datenanalyse EDA Auffinden von Strukturen

Mehr

Logistische Regression

Logistische Regression Logistische Regression Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Logistische Regression Beispiel 1: Herzerkrankungsdaten aus Framingham Log Odds Modell Beispiel 1: Einfluss von Blutdruck Maximum

Mehr

4 Einführung in die Theorie linearer Modelle

4 Einführung in die Theorie linearer Modelle 4 Einführung in die Theorie linearer Modelle Häufig werden mehrere erklärende Variablen bzw. Regressoren X,..., X p gleichzeitig betrachtet. Dafür benötigen wir eine Modellerweiterung. 4. Vorbemerkungen

Mehr

Beispiel: Multiples Modell/Omitted Variable Bias I

Beispiel: Multiples Modell/Omitted Variable Bias I 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss

Mehr

6.4 Der Kruskal-Wallis Test

6.4 Der Kruskal-Wallis Test 6.4 Der Kruskal-Wallis Test Der Test von Kruskal und Wallis, auch H-Test genannt, ist ein Test, mit dem man die Verteilungen von Teilstichproben auf Unterschiede untersuchen kann. Bei diesem Test geht

Mehr

Inhaltsverzeichnis. I Einführung in STATISTICA 1. 1 Erste Schritte in STATISTICA 3

Inhaltsverzeichnis. I Einführung in STATISTICA 1. 1 Erste Schritte in STATISTICA 3 I Einführung in STATISTICA 1 1 Erste Schritte in STATISTICA 3 2 Datenhaltung in STATISTICA 11 2.1 Die unterschiedlichen Dateitypen in STATISTICA....... 11 2.2 Import von Daten......... 12 2.3 Export von

Mehr

Klassen diskreter Variablen

Klassen diskreter Variablen Modelle diskreter Variablen Klassen diskreter Variablen binär multinomial Weitere Klassifizierung multinomialer diskreter Variablen: kategorial y = 1, falls Einkommen < 3000 e. y = 2, falls Einkommen zw.

Mehr

Deskriptive Statistik

Deskriptive Statistik Helge Toutenburg Christian Heumann Deskriptive Statistik Eine Einführung in Methoden und Anwendungen mit R und SPSS Siebte, aktualisierte und erweiterte Auflage Mit Beiträgen von Michael Schomaker 4ü Springer

Mehr

Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren

Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren Lineare Regression Christian Herta Oktober, 2013 1 von 33 Christian Herta Lineare Regression Lernziele Lineare Regression Konzepte des Maschinellen Lernens: Lernen mittels Trainingsmenge Kostenfunktion

Mehr

Kap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur

Kap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur Kap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur 2.1 Lineare und generalisierte lineare Modelle Das klassische lineare Regressionsmodell

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Ausgangsdaten Bundesliga 2008/2009 Gegeben: Daten zu den 18 Vereinen der ersten Bundesliga

Mehr

Blockpraktikum zur Statistik mit R

Blockpraktikum zur Statistik mit R Blockpraktikum zur Statistik mit R 17. September 2014 Johannes Blank Institut für Mathematische Statistik Universität Münster WS 14/15 Beispiel: Ausgangsfrage Ziel: Wie wirkt sich die eingesetzte Menge

Mehr

Lineare Klassifikationsmethoden

Lineare Klassifikationsmethoden Universität Ulm Fakultät für Mathematik und Wirtschaftswissenschaften Lineare Klassifikationsmethoden Statistische Lerntheorie und ihre Anwendungen Seminararbeit in dem Institut für Stochastik Prüfer:

Mehr

Inhalt. Einleitung... XIII

Inhalt. Einleitung... XIII Inhalt Einleitung................................................. XIII 1 Vektoren, Matrizen und Arrays.................................. 1 1.0 Einführung.......................................... 1 1.1

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap

Mehr

X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?

X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode? Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2

Mehr

Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!!

Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!! Nachholklausur zur Vorlesung Schätzen und Testen I 04. April 2013 Volker Schmid, Ludwig Bothmann, Julia Sommer Aufgabe 1 2 3 4 5 6 Punkte Note Bitte ausfüllen und unterschreiben!!! Name, Vorname: Matrikelnummer:

Mehr