Anwendungen mit SAS: Direkt aus der Praxis! Block 3
|
|
- Hannelore Ackermann
- vor 5 Jahren
- Abrufe
Transkript
1 Anwendungen mit SAS: Direkt aus der Praxis! Block 3 Supervised Learning - Die Logistische Regression Fachhochschule Koblenz Fachbereich Mathematik und Technik Dr. Denise Rey 30. Januar
2 Inhalt 1. Was ist Data Mining? 2. Hauptkomponentenanalyse 3. Supervised Learning 4. Lineare Regression 5. Logistische Regression 6. Voraussetzungen Anwendungen mit SAS. Denise Rey. 2
3 Was ist Data Mining? Flache Datentabelle zur Analyse: Id Y 1 Y p X 1 X m 1 y1 1 y p 1 x1 1 xm n yn 1 yn p x 1 n x m n Anwendungen mit SAS. Denise Rey. 3
4 Was ist Data Mining? Anwendungen im Customer Relationship Management Verfahren zur Sicherung des aktuellen Kundenbestandes - Analyse des Kündigungsverhaltens - Verfahren zur Kundenbindung Verfahren zur Erweiterung des Kundenbestandes - Response Optimierung bei Werbekampagnen Verfahren zur Steigerung der Profitabilität - Cross- UpSelling - Kundenwertmodelle - Betrugserkennung Anwendungen mit SAS. Denise Rey. 4
5 Was ist Data Mining? Typische Herausforderungen bei dem Einsatz von Data Mining Methoden: - Anzahl der Beobachtungen n gross (n >> 10 6 möglich) - Anzahl der Attribute m gross (>> 10 4 möglich) - Fehlende Werte - Ausreisser und Extremwerte - Andere Datenqualitätsprobleme - Unterschiedliche Verteilungen (binär, diskret, stetig) Data Mining bezeichnet eine wissenschaftliche Disziplin die sich mit Entwicklung, Implementierung und Anwendung von Verfahren für die Analyse von grossen Datenmengen mit komplexer Struktur befasst. Anwendungen mit SAS. Denise Rey. 5
6 Was ist Data Mining? Unsupervised Learning - Es gibt keine Zielvariable - Dient zur deskriptiven Analyse eines Datenbestandes und zur Mustererkennung Id X 1 X m 1. x x m n x 1 n x m n Typische Verfahren: Clusteranalyse, Hauptkomponentenverfahren, Assoziationsanalyse usw. Anwendungen mit SAS. Denise Rey. 6
7 Anwendungen mit SAS. Denise Rey. 7
8 Hauptkomponentenanalyse Loading Plot - Darstellung der Originalvariablen - Korrelierte Variablen naheliegend - Invers korrelierte Variablen in entgegengesetzter Richtung - Länge der Pfleile zeigt die Stärke des Einflusses - Geometrisch, Kosinus der Winkel (Werte zwischen -1 und 1). Score Plot - Darstellung der Beobachtungen - Cluster der ähnlichen Beobachtungen - Zugehörigkeit zu den relevanten Einflussvariablen - Koordinaten in dem neuen Raum Anwendungen mit SAS. Denise Rey. 8
9 Hauptkomponentenanalyse - Verfahren zur Reduktion der Dimensionalität - Verfahren zur Erkennung von Strukturen in dem gegebenen Variablenraum bzw. Beobachtungsraum - Einsatz bei korrelierten quantitativen Inputvariablen - Reduktion von vielen korrelierten Einflussvariablen zu wenigen unkorrelierten Hauptkomponenten - Projezierung der Beobachtungen in einem 2-dimensionalem Raum - Grafische Darstellung aller Daten - Methode zur Entdeckung multivariater Ausreisser - Hauptkomponenten als Input in andere Data Mining Verfahren (Cluster usw.) - Mathematisch eine orthogonale lineare Transformation zu einem neuen Koordinatensystem - proc princomp in SAS Anwendungen mit SAS. Denise Rey. 9
10 Supervised Learning - Die Analyse hat (wenigstens) eine Zielvariable - Dient zur Findung der signifikanten Einflussfaktoren und zur Vorhersage Id Y X 1 X m 1. y 1. x x m n y n x 1 n x m n Anwendungen mit SAS. Denise Rey. 10
11 Anwendungen mit SAS. Denise Rey. 11
12 Supervised Learning...wende Supervised Verfahren an heisst: Suche ein mathematisches Modell f so dass der Fehler minimiert wird (bzw. Y durch X erklärt wird): Ŷ min f Y = f(x) Y Das Modell bestimmt welche Attribute (Spalten) einen signifikanten Einfluss auf Y haben und welche nicht, bzw. es findet die Variablenselektion statt. Benutze das Modell f zur Vorhersage. Anwendungen mit SAS. Denise Rey. 12
13 Supervised Learning Typische Verfahren für die Modellfindung: Regression, Entscheidungsbäume, Neuronale Netze, Support Vector Machines usw. Modellauswahl - Mathematische Voraussetzungen für das Anwenden eines Varfahrens müssen erfüllt sein - Falls mehrere Verfahren die Voraussetzungen erfüllen, ist das Verfahren bzw. das Modell welches den Fehler minimiert auszuwählen. Anwendungen mit SAS. Denise Rey. 13
14 Das theoretische Modell: Lineare Regression Y = Xβ + ɛ (1) heisst klassiches lineares Regressionsmodell, wenn folgende Annahmen gelten: 1. E(ɛ) = 0 2. Cov(ɛ) = E(ɛɛ ) = σ 2 I 3. Die Designmatrix X besitzt vollen Spaltenrang, d.h. rg(x) = k + 1 = p Wir sprechen von klassischer Normalregression, wenn zusätzlich die Annahme 4. ɛ N(0, σ 2 I) getroffen wird. Ziel ist das geschätzte Modell: Ŷ = Xˆβ (2) Anwendungen mit SAS. Denise Rey. 14
15 Anwendungen mit SAS. Denise Rey. 15
16 Anwendungen mit SAS. Denise Rey. 16
17 Anwendungen mit SAS. Denise Rey. 17
18 Variablenselektion Forward Wählt zuerst das beste Modell mit einer einzigen Variablen. Danach wählt die Methode unter allen Modellen mit jeweils zwei Variablen, bei denen die erste ausgewählte Variable enthalten ist, das beste Modell usw. Solange bis der Punkt erreicht ist, an dem keine weiteren Variablen einen Wert haben, der unter dem festgelegten p-wert für die Annahme in das Modell liegt. Backward Startet mit einem vollständigen Modell mit allen Variablen. Stepwise Spiel zwischen Forward und Backward. Anwendungen mit SAS. Denise Rey. 18
19 Lineare Regression demo1 proc reg Anwendungen mit SAS. Denise Rey. 19
20 Anwendungen mit SAS. Denise Rey. 20
21 Anwendungen mit SAS. Denise Rey. 21
22 proc reg - Voraussetzungen und Eigenschaften Y (Target) Variable: Quantitativ X Variablen (Prädiktoren): Quantitativ Automatische Modellauswahl: Neun Verfahren (F,B,S,Rsquare usw.) Regressionsdiagnostiken (Ausreisser): Ja Maße für Modellgüte (Fehler): Ja (MSE,RMSE,R 2,AIC,BIC usw.) Automatische Datenpartition (Train, Valid): Nein Score Datei: Nein Grafische Ausgabe: Ja, via ODS GRAPHICS Anwendungen mit SAS. Denise Rey. 22
23 Logistische Regression Das theoretische Modell: Y Be(π) E(Y ) = π(x) = h(β 0 + x 1 β x p β p ) = h(η) - h ist die Link Funktion - η ist der lineare Prädiktor Für die logistische Regression gilt π(x) = h(η) = Ziel ist das geschätzte Modell: exp(η) 1 + exp(η) log ( π 1 π ) = η. ˆπ(x) = h(ˆβ 0 + x 1 ˆβ x p ˆβ p ) ( ) π log = ˆβ 0 + x 1 ˆβ x p ˆβ p. 1 π Anwendungen mit SAS. Denise Rey. 23
24 Logistische Regression Interpretation der logistischen Regression Für die Chance (odds) gilt das multiplikative Modell π 1 π = P (Y = 1 x) P (Y = 0 x) = exp(β 0)exp(x 1 β 1 )... exp(x p β p ) (3) Wird z.b. x 1 auf x erhöht, so gilt für das Verhältnis der Chancen: P (Y = 1 x 1,...) P (Y = 0 x 1,...) /P (Y = 1 x 1 + 1,...) P (Y = 0 x 1 + 1,...) = exp(β 1) (4) β 1 > 0: Chance P(Y=1)/P(Y=0) wird größer (x 1 begünstigt Y ). β 1 < 0: Chance P(Y=1)/P(Y=0) wird kleiner. β 1 = 0: Chance P(Y=1)/P(Y=0) bleibt gleich. 24
25 Anwendungen mit SAS. Denise Rey. 25
26 Logistische Regression demo2 proc logistic simulated demo3 proc logistic kunden Anwendungen mit SAS. Denise Rey. 26
27 Anwendungen mit SAS. Denise Rey. 27
28 Anwendungen mit SAS. Denise Rey. 28
29 Anwendungen mit SAS. Denise Rey. 29
30 Anwendungen mit SAS. Denise Rey. 30
31 Anwendungen mit SAS. Denise Rey. 31
32 Anwendungen mit SAS. Denise Rey. 32
33 Anwendungen mit SAS. Denise Rey. 33
34 Anwendungen mit SAS. Denise Rey. 34
35 Logistische Regression proc logistic data=block3.train outmodel = model; class online multi abo flag praemie verschickt flag k schlechter zahler / descending PARAM=effect; model abo status(desc) = online multi abo flag praemie verschickt flag k alter k schlechter zahler /CLPARM=WALD RSQUARE expb lackfit CTABLE outroc=roc initial dataset; output out=pred p=phat lower=lcl upper=ucl predprobs=individual; score data = block3.validation out=validated outroc=roc validation fitstat; score data = block3.neue kunden out=scored; run; Anwendungen mit SAS. Denise Rey. 35
36 Logistische Regression /**********Alternativ für Scoring************* proc logistic inmodel=model; score data = block3.neue kunden out=scored; run; *********************************************/ Anwendungen mit SAS. Denise Rey. 36
37 proc logistic - Voraussetzungen und Eigenschaften Y (Target) Variable: Binär oder ordinal X Variablen (Prädiktoren): Quantitativ oder diskret Automatische Modellauswahl: Ja (F,B,S,Rsquare usw.) Regressionsdiagnostiken (Ausreisser): Ja Maße für Modellgüte (Fehler): Ja (MSE,RMSE,MISC,AIC, BIC usw.) Automatische Datenpartition (Train, Valid): Nein Score Datei: Ja Grafische Ausgabe: Ja, via ODS GRAPHICS Anwendungen mit SAS. Denise Rey. 37
38 Wiederholung Voraussetzungen -Fehlende Daten und hinreichende Besetzung der Klassen -Additivität des Modells -Multikollinearität (Analyse z.b. durch Korrelationsmatrix, Lösung durch Aggregation oder Hauptkomponentenanalyse) -Ausreisser (DIFCHISQ, DIFDEV, DIFBETA) -Heteroskedastizität und Normalverteilung der Residuen Anwendungen mit SAS. Denise Rey. 38
39 Anwendungen mit SAS. Denise Rey. 39
40 Anwendungen mit SAS. Denise Rey. 40
41 Anwendungen mit SAS. Denise Rey. 41
42 Literatur 1. Regression. Ludwig Fahrmeir et al. Springer The Elements of Statistical Learning. Hastie et al Anwendungen mit SAS. Denise Rey. 42
Anwendungen mit SAS: Direkt aus der Praxis! Block 2
Anwendungen mit SAS: Direkt aus der Praxis! Block 2 Wie können wir Mehrdimensionalität verstehen? - Clusterverfahren und Hauptkomponentenverfahren - Fachhochschule Koblenz Fachbereich Mathematik und Technik
MehrMultiple Lineare Regression (Forts.) Residualanalyse (1)
6. Multivariate Verfahren Lineare Regression Multiple Lineare Regression (Forts.) Residualanalyse (1) Studentisierte Residuen (Option R) r i = e i s 1 h ii e i = y i ŷ i (Residuen) sind korreliert, var
MehrMultivariate Statistik
Multivariate Statistik von Univ.-Prof. Dr. Rainer Schlittgen Oldenbourg Verlag München I Daten und ihre Beschreibung 1 1 Einführung 3 1.1 Fragestellungen 3 1.2 Datensituation 8 1.3 Literatur und Software
MehrEinführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
Mehr(G)LM. 24. November 2009
(G)LM 24 November 29 Dies ist eine kurze Zusammenfassung der Grundlagen von linearen Modellen, sowie aufbauend darauf von generalisierten linearen Modellen Sie dient lediglich zum Einstieg und zur knappen
MehrMultivariate Verfahren
Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe
MehrKann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders
Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders Gerhard Svolba SAS Austria Mariahilfer Straße 116 A-1070 Wien Sastools.by.gerhard@gmx.net Zusammenfassung
MehrVorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression
Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade
MehrLineare Klassifikationsmethoden
Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung
MehrTeil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.
Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, 10.07.017 Wahrscheinlichkeit und Statistik Patric Müller WBL
MehrGlossar Statistik 2. Bivariate Verfahren: zwei nummerische Merkmale
Glossar Statistik 2 Bivariate Verfahren: zwei nummerische Merkmale Streudiagramm - Datenpaare (X, Y) als Punkte auf einem zweidimensionale Diagramm (Ordinate: Y, Abszisse: X) Lineare Regression - Optimierungsproblem
MehrDeskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien
Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische
Mehr6.2 Lineare Regression
6.2 Lineare Regression Einfache lineare Regression (vgl. Kap. 4.7) Y i = θ 0 + θ 1 X i + ǫ i ǫ i (0, σ 2 ) ˆθ 1 ˆθ 0 = S XY S 2 X = 1 ( Yi n ˆθ ) 1 Xi als Lösung der Minimumaufgabe n (Y i θ 1 X 1 θ 0 )
MehrLogistische Regression
Logistische Regression 13.11.2017 Motivation Regressionsrechnung: Untersuchung des Zusammenhangs zwischen einer (oder mehreren) Zielvariablen und einer oder mehreren erklärenden Variablen. Bisher gesehen:
MehrInhaltsverzeichnis. Vorwort. 1 Einführung in die multivariate Datenanalyse 1
V Inhaltsverzeichnis Vorwort XI 1 Einführung in die multivariate Datenanalyse 1 1.1 Was ist multivariate Datenanalyse? 1 1.2 Datensätze in der multivariaten Datenanalyse 4 1.3 Ziele der multivariaten Datenanalyse
MehrInhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume
4. Klassifikation Inhalt 4.1 Motivation 4.2 Evaluation 4.3 Logistische Regression 4.4 k-nächste Nachbarn 4.5 Naïve Bayes 4.6 Entscheidungsbäume 4.7 Support Vector Machines 4.8 Neuronale Netze 4.9 Ensemble-Methoden
MehrVergleich von Partial Cox Regression und Lasso zur Analyse von U berlebenszeiten bei hochdimensionalen Daten
Vergleich von Partial Cox Regression und Lasso zur Analyse von U berlebenszeiten bei hochdimensionalen Daten Claudia-Martina Messow Robertson Centre for Biostatistics, University of Glasgow Situation Methoden
MehrLogistische Regression in SAS
Logistische Regression in SAS Oliver Kuß Medizinische Universitätsklinik, Abt. Klinische Sozialmedizin, Bergheimer Str. 58, 69115 Heidelberg, email: okuss@med.uni-heidelberg.de 3. Konferenz für SAS -Anwender
MehrLogistische Regression
Logistische Regression Markus Kalisch 30.09.2014 1 Big Picture: Statistisches Lernen Supervised Learning (X,Y) Unsupervised Learning X VL 7, 11, 12 Regression Y kontinuierlich VL 1, 2, 4, 5, 6 Klassifikation
Mehr9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T
9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon
MehrKategorielle Zielgrössen
Kategorielle Zielgrössen 27.11.2017 Motivation Bisher gesehen: Regressionsmodelle für diverse Arten von Zielgrössen Y. kontinuierliche Zielgrösse Lineare Regression Binäre/binomiale Zielgrösse Logistische
Mehr5.Tutorium Generalisierte Regression
5.Tutorium Generalisierte Regression - Multinomiales/Kummulatives Logit-Modell - Cynthia Huber: 09.12.2014 und 16.12.2014 Michael Hanselmann: 18.12.2014 Institut für Statistik, LMU München 1 / 16 Gliederung
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula
MehrMultivariate Lineare Modelle SS Einführung. 1. Organisation. 2. Übersicht. 3. Arbeiten mit SAS
Multivariate Lineare Modelle SS 2009 0 Einführung 1. Organisation 2. Übersicht 3. Arbeiten mit SAS 1 0.1 Organisation Lehrziele: Theorie von multivariaten linearen Modellen Praktische Anwendung mit SAS
Mehr1 Beispiele multivariater Datensätze... 3
Inhaltsverzeichnis Teil I Grundlagen 1 Beispiele multivariater Datensätze... 3 2 Elementare Behandlung der Daten... 15 2.1 Beschreibung und Darstellung univariater Datensätze... 15 2.1.1 Beschreibung und
Mehr1 Diskriminanzanalyse
Multivariate Lineare Modelle SS 2008 1 Diskriminanzanalyse 1. Entscheidungstheorie 2. DA für normalverteilte Merkmale 3. DA nach Fisher 1 Problemstellungen Jedes Subjekt kann einer von g Gruppen angehören
MehrGegenüberstellung alternativer Methoden zur Variablenselektion
Gegenüberstellung alternativer Methoden zur Variablenselektion Reinhard Strüby, Ulrich Reincke SAS Deutschland Business Competence Center Analytical Solutions Copyright 2004, SAS Institute Inc. All rights
MehrMultiple lineare Regression
Multiple lineare Regression Bisher eine Einflußgröße X 1 (und der Achsenabschnitt). Dagegen das Modell der multiplen Regression Y = β 0 X 0 + β 1 X 1 +... + β p X p + ε mit p Einflußgrößen und dem Achsenabschnitt.
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrRegressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/
Regressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/2018 06.12.2018 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN Nachname:...................................................................
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Inferenzstatistik in Regressionsmodellen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für
MehrSeminar zur Energiewirtschaft:
Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable
MehrPolynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen
Rückblick Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Ridge Regression vermeidet Überanpassung, indem einfachere Modelle mit
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 3: Lineares Modell, Klassifikation, PCA Randolf Altmeyer January 9, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrD-CHAB Frühlingssemester 2017 T =
D-CHAB Frühlingssemester 17 Grundlagen der Mathematik II Dr Marcel Dettling Lösung 13 1) Die relevanten Parameter sind n = 3, x = 1867, σ x = und µ = 18 (a) Die Teststatistik T = X µ Σ x / n ist nach Annahme
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrInhaltsverzeichnis. 1 Über dieses Buch Zum Inhalt dieses Buches Danksagung Zur Relevanz der Statistik...
Inhaltsverzeichnis 1 Über dieses Buch... 11 1.1 Zum Inhalt dieses Buches... 13 1.2 Danksagung... 15 2 Zur Relevanz der Statistik... 17 2.1 Beispiel 1: Die Wahrscheinlichkeit, krank zu sein, bei einer positiven
MehrDr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:
MehrMEHR ALS LINEAR ODER LOGISTISCH?
MEHR ALS LINEAR ODER LOGISTISCH? QUANTILS EN UND ADAPTIVE SPLINES IN SAS MIHAI PAUNESCU QUANTILE proc univariate data=dat; ods select moments quantiles; var sales; Basic Statistical Measures Location Variability
MehrKapitel 4: Binäre Regression
Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,
MehrVorlesung: Lineare Modelle. Verschiedene Typen von Residuen. Probleme bei der Regression und Diagnose. Prof. Dr. Helmut Küchenhoff.
Vorlesung: Lineare Modelle Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München SoSe 205 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen.
MehrMustererkennung und Klassifikation
Mustererkennung und Klassifikation WS 2007/2008 Fakultät Informatik Technische Informatik Prof. Dr. Matthias Franz mfranz@htwg-konstanz.de www-home.htwg-konstanz.de/~mfranz/heim.html Grundlagen Überblick
Mehr2.Tutorium Generalisierte Regression
2.Tutorium Generalisierte Regression - Binäre Regression - Moritz Berger: 04.11.2013 und 11.11.2013 Shuai Shao: 06.11.2013 und 13.11.2013 Institut für Statistik, LMU München 1 / 16 Gliederung 1 Erweiterte
MehrRegressionsmodelle für diskrete Zielgrößen und korrelierte Beobachtungen. Oliver Kuß*; Uwe Hasenbein**;
Regressionsmodelle für diskrete Zielgrößen und korrelierte Beobachtungen Oliver Kuß*; Uwe Hasenbein**; *Institut für Medizinsche Epidemiologie, Biometrie und Informatik, Martin-Luther-Universität Halle-Wittenberg,
Mehr1 Binäre Regression (I)
Übung zur Vorlesung Generalisierte Regressionsmodelle Blatt 2 Gerhard Tutz, Moritz Berger, Wolfgang Pößnecker WiSe 14/15 1 Binäre Regression (I) Aufgabe 1 Der Datensatz shuttle beschreibt für die 23 Space
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.
0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:
Mehry = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0
8 Lineare Modelle In diesem Abschnitt betrachten wir eine spezielle Klasse von statistischen Modellen, in denen die Parameter linear auftauchen Wir beginnen mit zwei Beispielen Beispiel 8 (lineare Regression)
MehrStatistikpraktikum. Carsten Rezny. Sommersemester Institut für angewandte Mathematik Universität Bonn
Statistikpraktikum Carsten Rezny Institut für angewandte Mathematik Universität Bonn Sommersemester 2014 Mehrdimensionale Datensätze: Multivariate Statistik Multivariate Statistik Mehrdimensionale Datensätze:
MehrFehler in der abhängigen Variablen
Fehler in der abhängigen Variablen Bachelor- Seminar im Wintersemester 2014/ 2015 Nina Markovic Institut für Statistik, LMU 19. Dezember 2014 Nina M. (Institut für Statistik, LMU) Fehler in der abhängigen
MehrLogistische Regression: Reaktivierungsscore
Logistische Regression: Reaktivierungsscore Stand: April 2017 Prof. Dr. Oliver Schwarz Hochschule Heilbronn, diupp Philipp Gassen Hochschule Heilbronn, DYMATRIX 1 Agenda Methodik Problemstellung Anwenden
MehrProxies, Endogenität, Instrumentvariablenschätzung
1 4.2 Multivariate lineare Regression: Fehler in den Variablen, Proxies, Endogenität, Instrumentvariablenschätzung Literatur: Wooldridge, Kapitel 15, Appendix C.3 und Kapitel 9.4 Wahrscheinlichkeitslimes
MehrLeast Absolute Shrinkage And Seletion Operator (LASSO)
Least Absolute Shrinkage And Seletion Operator (LASSO) Peter von Rohr 20 März 2017 Lineare Modell und Least Squares Als Ausgangspunkt haben wir das Lineare Modell und Least Squares y = Xβ + ɛ (1) ˆβ =
MehrKapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen.
Kapitel 3 Schließende lineare Regression 3.1. Einführung induktiv Fragestellungen Modell Statistisch bewerten, der vorher beschriebenen Zusammenhänge auf der Basis vorliegender Daten, ob die ermittelte
MehrForschungsstatistik I
Psychologie Prof. Dr. G. Meinhardt 6. Stock, TB II R. 06-206 (Persike) R. 06-321 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
MehrModellierung mit künstlicher Intelligenz
Samuel Kost kosts@mailbox.tu-freiberg.de Institut für Numerische Mathematik und Optimierung Modellierung mit künstlicher Intelligenz Ein Überblick über existierende Methoden des maschinellen Lernens 13.
MehrDie Regressionsanalyse
Die Regressionsanalyse Zielsetzung: Untersuchung und Quantifizierung funktionaler Abhängigkeiten zwischen metrisch skalierten Variablen eine unabhängige Variable Einfachregression mehr als eine unabhängige
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
MehrAnwendung logistischer und linearer Regressionsmodelle zur Berechnung von adjustierten NNEs und Risikodifferenzen
Workshop der AG Statistische Methoden in der Medizin Magdeburg, 22.11.2007 Anwendung logistischer und linearer Regressionsmodelle zur Berechnung von adjustierten NNEs und Risikodifferenzen Ulrich Gehrmann
MehrSo lösen Sie das multivariate lineare Regressionsproblem von Christian Herta
Multivariate Lineare Regression Christian Herta Oktober, 2013 1 von 34 Christian Herta Multivariate Lineare Regression Lernziele Multivariate Lineare Regression Konzepte des Maschinellen Lernens: Kostenfunktion
MehrTeil XII. Einfache Lineare Regression. Woche 10: Lineare Regression. Lernziele. Zusammenfassung. Patric Müller
Woche 10: Lineare Regression Patric Müller Teil XII Einfache Lineare Regression ETHZ WBL 17/19, 03.07.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Wahrscheinlichkeit
MehrPoisson Regression. Verallgemeinerte Lineare Modelle (GLMs)
Poisson Regression Verallgemeinerte Lineare Modelle (GLMs) 28.11.2011 Poisson Regression Aus der Einführungsvorlesung Poisson-Verteilung ist in der Regel gut geeignet, um Anzahlen zu modellieren. Frage
Mehr1 Gemischte Lineare Modelle
1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst
MehrLineare Regression 2: Gute Vorhersagen
Lineare Regression 2: Gute Vorhersagen Markus Kalisch 23.09.2014 1 Big Picture: Statistisches Lernen Supervised Learning (X,Y) Unsupervised Learning X VL 7, 11, 12 Regression Y kontinuierlich VL 1, 2,
Mehr5.Tutorium Multivariate Verfahren
5.Tutorium Multivariate Verfahren - Hauptkomponentenanalyse - Nicole Schüller: 27.06.2016 und 04.07.2016 Hannah Busen: 28.06.2016 und 05.07.2016 Institut für Statistik, LMU München 1 / 18 Gliederung 1
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt Statistik & Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Dr. Malte Persike persike@uni-mainz.de
MehrZusammenfassung 11. Sara dos Reis.
Zusammenfassung 11 Sara dos Reis sdosreis@student.ethz.ch Diese Zusammenfassungen wollen nicht ein Ersatz des Skriptes oder der Slides sein, sie sind nur eine Sammlung von Hinweise zur Theorie, die benötigt
MehrSupervised & Unsupervised Machine Learning
Machine Learning-Algorithmen in Python mit scikit-learn Machine Learning-Algorithmen in Python mit scikit-learn Kurzbeschreibung Machine Learning-Algorithmen sind ein elementares Element von Künstlicher
Mehr5 Allgemeine Verfahren zum Testen von Hypothesen
5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).
MehrZusammenhänge zwischen metrischen Merkmalen
Zusammenhänge zwischen metrischen Merkmalen Darstellung des Zusammenhangs, Korrelation und Regression Daten liegen zu zwei metrischen Merkmalen vor: Datenpaare (x i, y i ), i = 1,..., n Beispiel: x: Anzahl
MehrEinfache lineare Regression. Statistik (Biol./Pharm./HST) FS 2015
Einfache lineare Regression Statistik (Biol./Pharm./HST) FS 2015 Wdh: Korrelation Big picture: Generalized Linear Models (GLMs) Bisher: Population wird mit einer Verteilung beschrieben Bsp: Medikament
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Modellklassen, Verlustfunktionen Nico Piatkowski und Uwe Ligges 02.05.2017 1 von 15 Literatur Trevor Hastie, Robert Tibshirani, Jerome Friedman. The Elements of Statistical
MehrEmpirische Analysen mit dem SOEP
Empirische Analysen mit dem SOEP Methodisches Lineare Regressionsanalyse & Logit/Probit Modelle Kurs im Wintersemester 2007/08 Dipl.-Volksw. Paul Böhm Dipl.-Volksw. Dominik Hanglberger Dipl.-Volksw. Rafael
MehrGewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h
5. Die partielle Autokorrelationsfunktion 5.1 Definition, Berechnung, Schätzung Bisher: Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h ρ X (h) = Corr(X t, X
MehrData Mining & Machine Learning Dipl.-Inf. Christoph Carl Kling
Web Science & Technologies University of Koblenz Landau, Germany Data Mining & Machine Learning Dipl.-Inf. Christoph Carl Kling Mündliche Prüfung Welche Methoden gibt es? Wie sind die Annahmen für die
MehrÜbung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
MehrStatistisches Lernen
Statistisches Lernen Einheit 12: Modellwahl und Regularisierung Dr. rer. nat. Christine Pausch Institut für Medizinische Informatik, Statistik und Epidemiologie Universität Leipzig WS 2014/2015 1 / 28
MehrWerkzeuge der empirischen Forschung
Werkzeuge der empirischen Forschung I. Daten und Beschreibende Statistik 1. Einführung 2. Dateneingabe, Datentransformation, Datenbehandlung 3. Beschreibende Statistik II. Schließende Statistik 1 III.
MehrPoisson Regression & Verallgemeinerte lineare Modelle
Poisson Regression & Verallgemeinerte lineare Modelle 20.11.2017 Motivation Ausgangslage Wir haben Anzahldaten (count data) Y i, cf. Vorlesung zu kategoriellen Variablen. Zu jeder Beobachtung Y i haben
MehrGlobale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten
Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten M. Siebers 1 U. Schmid 2 1 Otto-Friedrich-Universität Bamberg 2 Fakultät für Wirtschaftsinformatik und Angewandte Informatik
Mehr9. Lineare Regression
9. Lineare Regression y 3.0 3.5 4.0 4.5 0.0 0.2 0.4 0.6 0.8 1.0 Fabian Scheipl, Bernd Bischl Stochastik und Statistik SoSe 2016 1 / 40 x KQ-Schätzung Es ist eine Gerade y = β 1 + β 2 x gesucht, welche
Mehr0 Einführung: Was ist Statistik
0 Einführung: Was ist Statistik 1 Datenerhebung und Messung 2 Univariate deskriptive Statistik 3 Multivariate Statistik 4 Regression 5 Ergänzungen Explorative Datenanalyse EDA Auffinden von Strukturen
MehrLogistische Regression
Logistische Regression Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Logistische Regression Beispiel 1: Herzerkrankungsdaten aus Framingham Log Odds Modell Beispiel 1: Einfluss von Blutdruck Maximum
Mehr4 Einführung in die Theorie linearer Modelle
4 Einführung in die Theorie linearer Modelle Häufig werden mehrere erklärende Variablen bzw. Regressoren X,..., X p gleichzeitig betrachtet. Dafür benötigen wir eine Modellerweiterung. 4. Vorbemerkungen
MehrBeispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
Mehr6.4 Der Kruskal-Wallis Test
6.4 Der Kruskal-Wallis Test Der Test von Kruskal und Wallis, auch H-Test genannt, ist ein Test, mit dem man die Verteilungen von Teilstichproben auf Unterschiede untersuchen kann. Bei diesem Test geht
MehrInhaltsverzeichnis. I Einführung in STATISTICA 1. 1 Erste Schritte in STATISTICA 3
I Einführung in STATISTICA 1 1 Erste Schritte in STATISTICA 3 2 Datenhaltung in STATISTICA 11 2.1 Die unterschiedlichen Dateitypen in STATISTICA....... 11 2.2 Import von Daten......... 12 2.3 Export von
MehrKlassen diskreter Variablen
Modelle diskreter Variablen Klassen diskreter Variablen binär multinomial Weitere Klassifizierung multinomialer diskreter Variablen: kategorial y = 1, falls Einkommen < 3000 e. y = 2, falls Einkommen zw.
MehrDeskriptive Statistik
Helge Toutenburg Christian Heumann Deskriptive Statistik Eine Einführung in Methoden und Anwendungen mit R und SPSS Siebte, aktualisierte und erweiterte Auflage Mit Beiträgen von Michael Schomaker 4ü Springer
MehrLineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren
Lineare Regression Christian Herta Oktober, 2013 1 von 33 Christian Herta Lineare Regression Lernziele Lineare Regression Konzepte des Maschinellen Lernens: Lernen mittels Trainingsmenge Kostenfunktion
MehrKap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur
Kap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur 2.1 Lineare und generalisierte lineare Modelle Das klassische lineare Regressionsmodell
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Ausgangsdaten Bundesliga 2008/2009 Gegeben: Daten zu den 18 Vereinen der ersten Bundesliga
MehrBlockpraktikum zur Statistik mit R
Blockpraktikum zur Statistik mit R 17. September 2014 Johannes Blank Institut für Mathematische Statistik Universität Münster WS 14/15 Beispiel: Ausgangsfrage Ziel: Wie wirkt sich die eingesetzte Menge
MehrLineare Klassifikationsmethoden
Universität Ulm Fakultät für Mathematik und Wirtschaftswissenschaften Lineare Klassifikationsmethoden Statistische Lerntheorie und ihre Anwendungen Seminararbeit in dem Institut für Stochastik Prüfer:
MehrInhalt. Einleitung... XIII
Inhalt Einleitung................................................. XIII 1 Vektoren, Matrizen und Arrays.................................. 1 1.0 Einführung.......................................... 1 1.1
MehrNeural Networks: Architectures and Applications for NLP
Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap
MehrX =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?
Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2
MehrNachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!!
Nachholklausur zur Vorlesung Schätzen und Testen I 04. April 2013 Volker Schmid, Ludwig Bothmann, Julia Sommer Aufgabe 1 2 3 4 5 6 Punkte Note Bitte ausfüllen und unterschreiben!!! Name, Vorname: Matrikelnummer:
Mehr