Lasso in LMs und GLMs

Größe: px
Ab Seite anzeigen:

Download "Lasso in LMs und GLMs"

Transkript

1 Lasso in LMs und GLMs Seminar Regularisierungstechniken und strukturierte Regression, Prof. Dr. Gerhard Tutz, Institut für Statistik, Ludwig-Maximilians-Universität München Referent: Patrick Schenk Betreuer: Wolfgang Pössnecker 18. Dezember / 33

2 1. Einführung Regression große Rolle in statistischer Ausbildung und Praxis Fokus auf erwartungstreue (zumindest konsistente) Schätzer Programm: Übersicht Kleinste-Quadrate (KQ) Schätzer im Linearen Modell (LM) Vorteile Schwachstellen/Wünsche? Shrinkage-Schätzer : Lasso- (und Ridge-)Regression Herkunft Eigenschaften Performance in realen und simulierten Daten Erweiterungen und Diskussion 2 / 33

3 Lineares Modell (LM) I: Setup LM postuliert Zusammenhang Response - Kovariablen p y i = β 0 + x ij β i + ɛ i j =1 für i = 1,..., n quadratischer Verlust: Residuenquadratsumme (RSS) RSS(β) = n (y i β 0 i=1 keine Verteilungsannahme nötig führt zum KQ-Schätzer p j =1 ˆβ (ls) = (X X) 1 X y x ij β j ) 2 min β 3 / 33

4 Lineares Modell II: Vorteile des KQ-Schätzers einige Vorteile (+) erwartungstreu und linear in y (+) optimal in Klasse erwartungstreuer linearer Schätzer: Mean Squared Error (MSE) und Varianz minimal (Gauß-Markov Theorem) (+) marginale Interpretation der Koeffizienten β j 4 / 33

5 Lineares Modell III: KQ-Schätzer Nachteile (-) keine automatische Variablenselektion falls p n: ˆβ (ls) nicht (eindeutig) definiert. falls p sehr groß: volles Modell schlechter interpretierbar Beibehalten von irrelevanten Kovariablen (β j = 0) erhöht Ungenauigkeit von Schätzung und Prognose (-) keine Aussage über relative Einflussstärke der Kovariablen (-) muss nicht optimal sein (Gauß-Markov gilt nur in Klasse) Suche nach Verfahren, das sparsamere Modelle schätzt Intuition: Bias-Varianz-Tradeoff 5 / 33

6 2.1 Lasso, Ridge und Best Subset: Motivation gesucht: Verfahren, das sparsameres Modell ergibt sparsameres Modell: manche Koeffizienten β j = 0 Ansatz: Größe des Koeffizientenvektors β beschränken Norm nach oben beschränken durch Wert t q-norm (für q 1) p β q := β j q j =1 1/q t β q t äquivalent zu β q q t q (Umparametrisierung) 6 / 33

7 Allgemeiner Ansatz Minimierung von RSS(β) unter Restriktion der Größe von β: min β RSS(β) = n (y i β 0 i=1 p x ij β j ) 2 j =1 bzw. in Lagrangeform u. d. NB. p β j q t j =1 min β RSS(β) + λ p β j q j =1 neues Kriterium : penalisierte RSS RSS(β) + λ L q -Penalty 7 / 33

8 Alternative Betrachtung: Optimum im zulässigen Bereich Nebenbedingung p β j q t j =1 impliziert zulässigen Bereich für β: {β : p β j q t} j =1 also: Minimierung des KQ-Kriteriums im zulässigen Bereich min β {β: RSS(β) p j =1 β j q t} und nicht mehr über alle möglichen β R p grafisch für Lasso bei 2 Kovariablen: nächste Folie 8 / 33

9 Zulässiger Bereich für Lasso-Regression bei 2 Kovariablen Fall 1: KQ Schätzer erfüllt Restriktion (Lasso) Fall 2: KQ Schätzer erfüllt Restriktion nicht (Lasso) β^(ls) β^(ls) Lasso Abb.1 Minimierung im zulässigen Bereich. Leicht abgewandelte Reproduktion von Tibshirani (1996, Fig. 2) 9 / 33

10 Bemerkungen min β n (y i β 0 i=1 p x ij β j ) 2 + λ j =1 p β j q j =1 Intercept β 0 nicht Teil der Penalty Schätzung nicht skaleninvariant gewählte Skala beeinflusst Erklärungsgüte (RSS) nicht, sehr wohl jedoch die Norm von β! Bsp. monetäre Kovariable Lösung: vorab Standardisierung jeder Kovariablen: Mittelwert: x j = 0 und empirische Varianz Var(x j ) = 1 nach Schätzung von β: Rücktransformation jedes Koeffizienten auf Originalskala oder: angepasste Interpretation beachten 10 / 33

11 Ridge Regression (Hoerl und Kennard, 1970): q = 2 min β RSS(β) + λ Restriktion an die euklidische Norm p j =1 explizite Lösung: ˆβ (ridge) = (X X + λi) 1 X y existiert auch bei Multikollinearität, also wenn (X X) 1 nicht/schwer zu berechnen war Motivation von Hoerl und Kennard (1970) schrumpft i.a. Koeffizienten (relativ zu KQ-Koeffizienten) i.a. keine Variablenselektion β 2 j 11 / 33

12 Best Subset Regression: q = 0 min β RSS(β) + λ p βj 0 = RSS(β) + λ j =1 p I(β j 0) j =1 Nebenbedingung zählt von 0 verschiedene Koeffizienten ergibt best-erklärendes Modell mit t Koeffizienten ( t p) keine Lösung in geschlossener Form bis t 40: alle möglichen Modelle betrachtbar Leaps and Bounds Algorithmus (Furnival und Wilson, 1994) für t > 40: Approx., z.b. Forward-/Backward-Stepwise (step) 12 / 33

13 Lasso Regression (Tibshirani, 1996): q = 1 min β beschränkt 1-Norm RSS(β) + λ p β j j =1 i.a. Selektion von Kovariablen und Schrumpfung von Koeffizienten nicht differenzierbar bei 0 ( ) keine explizite Lösung Algorithmen für Pfad ˆβ (lasso) (t) (+) ausschlaggebend dafür, dass Lasso Kovariablen selektiert 13 / 33

14 Lasso (links) und Ridge (rechts): Optimierung im zulässigen 2 BAYESIANISCHES Bereich LASSO IN LINEAREN MODELLEN ^ ^ Abbildung 2.7: Linkes Bild: Grafische Darstellung des Lasso-Schätzproblems. Rechtes Bild: Grafische Darstellung Quelle: Konrath (2007, Abb. 3.7) des Ridge-Schätzproblems. Die blauen Bereiche stellen die Nebenbedingung zu verschiedenen Werten von t dar und die pinkfarbenen Ellipsen sind die Konturlinien der Residuenquadratsumme bei beliebiger Produktsummenmatrix X X I. 14 / 33

15 Datensatz: Prostatakrebs (Stamey et al., 1989) 97 Männer vor Prostataentfernung Response: log Prostataspezifsches Antigen (lpsa) 8 Kovariablen Alter, log Krebsvolumen, log Prostatagewicht,... Korrelationen positiv bis auf 2 minimale Ausnahmen 10 der 28 p.w. Korrelationen mittelstark ( ) 15 / 33

16 KQ-, Lasso-, Ridge- und Best Subset Regression (Prostatakrebs) Tab Regressionskoeffizienten (Prostatakrebs) Koeffizient KQ Lasso Ridge Best Subset (Intercept) lcavol lweight age lbph svi lcp gleason pgg Response ist lpsa, der logarithmierte Level des Prostataspezifischen Antigens. 16 / 33

17 Lasso und Ridge: Koeffizientenpfade (Prostatakrebs) Coefficients Lasso min CV MSE Coefficients Ridge min CV MSE L1 Norm L1 Norm Abb.2 Lasso- und Ridge-Koeffizientenpfade in den Prostakrebs Daten. Leicht abgewandelte Reproduktion von Hastie et al. (2009, Fig. 3.11) 17 / 33

18 Wahl des Tuningparameters: Kreuzvalidierung Grid von Werten für t: für jeden Wert Koeffizienten berechnen MSE per Kreuzvalidierung (CV) schätzen Entscheidung für optimales t min-regel: t mit kleinstem CV-MSE 1-SE-Regel: kleinstes Modell, dessen CV-MSE von obigem Minimum um höchstens 1-SE abweicht grafisch im Prostatakrebs Datensatz: nächste Folie Tuning über λ äquivalent (bijektive Beziehung von λ und t) in Implementationen meistens der Fall (z.b. glmnet) potentielle Probleme MSE(t) flach (links) Vorgehen anfällig min- und 1-SE-Regeln können deutlich differieren (links) MSE(t) hat Randoptimum (rechts) 18 / 33

19 Lasso und Ridge: Kreuzvalidierungs-MSE (Prostatakrebs) Mean Squared Error Lasso min Regel 1 SE Regel Mean Squared Error Ridge min Regel 1 SE Regel log(lambda) log(lambda) Abb.3 MSE in Abhängigkeit vom Tuningparameter log(λ) in den Prostakrebs Daten. Leicht angepasste Kombination von Hastie et al. (2009, Fig. 3.8 und 3.10) 19 / 33

20 3.1 Spezialfall orthonormale Kovariablen: Eigenschaften I Lasso (lasso) β^j Ridge (ridge) β^j Best Subset (subset) β^j λ λ λ λ (ls) β^j 1 (1 + λ) 1 (ls) β^j (ls) β^(m) (ls) β^j Abb.4 Lasso-, Ridge- und Best-Subset-Koeffizienten bei unterschiedlichen KQ-Koeffzienten unter Orthonormalität. Leicht abgewandelte Reproduktion von Hastie et. al (2009, Fig. 3.11) 20 / 33

21 Spezialfall orthonormale Kovariablen: Eigenschaften II ˆβ(lasso) j = { ˆβ (ls) j ˆβ (ls) ( λ) sign( j ) falls 0 sonst (ls) ˆβ j > λ stetige Selektion (soft-thresholding): schrumpft umso stärker, je kleiner KQ-Koeffizient nur kleine Koeffizienten ganz aus Modell heraus große Effekte deutlicher herausgehoben (ls) ˆβ(ridge) ˆβ j j = 1+λ schrumpft jeden KQ-Koeffizienten um gleichen Faktor (λ > 0) keine Selektion { ˆβ(ls) ˆβ(subset) j = j wobei (ls) (ls) falls ˆβ j ˆβ (M ) 0 sonst (ls) ˆβ (M ) betragsmäßig der t -größte KQ-Koeffizient ist selektiert diskret (hard-thresholding): voll im Modell oder gar nicht 21 / 33

22 3.2 Nichtorthonormale Kovariablen: Eigenschaften Korrelationen zwischen Kovariablen Lasso: p = 2: kein Einfluss p > 2: greift eine (wenige) Kovariable(n) aus stark-korr. Gruppe heraus, entfernt andere (Intuition: wenig zusätzliche Erklärung, aber volle Erhöhung der Penalty) Ridge: positiv korr. Koeffizienten ähnlicher (Grund: L 2 -Penalty) Best Subset: ähnlich zu Lasso (Fall p > 2) relativ zum KQ-Schätzer und zum wahren Koeffizienten anderes Vorzeichen möglich Overshooting (betragsmäßiges Überschätzen) möglich 22 / 33

23 Vorzeichen und Overshooting (Prostatakrebs) Tab Regressionskoeffizienten (Prostatakrebs) Koeffizient KQ Lasso Ridge Best Subset (Intercept) lcavol lweight age lbph svi lcp gleason pgg Response ist lpsa, der logarithmierte Level des Prostataspezifischen Antigens. 23 / 33

24 Simulation I: Vorzeichen, Selektion, Modellgrößen wahre Koeffizenten β fest 10 kleine: βj = mittlere: βj = große: β j = 5 je 5 mit positivem und 5 mit negativem Vorzeichen 30 irrelevante Variablen : βj = 0 n = 80 n p = Designmatrix X fest (iid N(0,1)-verteilt) R = 2000 Replikationen in Replikation r: Addiere Fehler ɛ i i.i.d. N (0, 1) simulierter Response y i = x i β + ɛ i (i = 1,..., n) wie häufig: Vorzeichen korrekt, Variable im Modell? Modellgrößen 24 / 33

25 Tab Häufigkeiten: Selektion und Vorzeichen (Simulation I) Effektgröße MSE* klein mittel groß kein (SE MSE ) KQ Vz korrekt Vz falsch (0.0748) nicht in Modell.... Ridge Vz korrekt Vz falsch (0.0939) nicht in Modell.... Lasso Vz korrekt Vz falsch (0.1709) nicht in Modell Stepwise 1 Vz korrekt Vz falsch (0.1140) nicht in Modell Response ist lpsa, der logarithmierte Level des Prostataspezifischen Antigens. MSE* ist Durchschnitt der mittleren quadratischen Abweichungen über R = 2000 Replikationen. 1 Approximation für Best Subset, da mehr als 40 Kovariablen: Backward- und Forward-Stepwise via step. 25 / 33

26 Modellgrößen (Simulation I) Effektgröße klein mittel groß kein gesamt KQ Ridge Lasso Stepwise Response ist lpsa, der logarithmierte Level des Prostataspezifischen Antigens. 1 Approximation für Best Subset, da mehr als 40 Kovariablen: Backward- und Forward-Stepwise via step. 26 / 33

27 Entdecken eines sparsamen Modells bei p > n Simulation II exakt wie zuvor: R = 2000 Replikationen p = 60 Variablen in Designmatrix nur 30 Kovariaten mit Einfluss aber: nur die ersten n = 40 Beobachtungen p > n kein KQ-Schätzer wahres Modell ist sparsam: weniger Kovariablen als Beobachtungen Performance von Lasso: Einfluss der Effektstärken? Modellgröße? 27 / 33

28 Tab Häufigkeiten von Effekt-Selektion und falschen Vorzeichen klein mittel groß kein Effekt Lasso Vorzeichen korrekt Vorzeichen falsch nicht im Modell # im Modell Mittlere Gesamtmodellgröße: Kovariablen. Response ist lpsa, der logarithmierte Level des Prostataspezifischen Antigens. 28 / 33

29 Vorteile, Nachteile und Anwendbarkeit I KQ-Schätzer muss nicht überall beste Wahl darstellen: Situation p > n : Selektion zwingend erforderlich Situation Prognose ist Hauptziel : Schätzung kleiner Effekte sehr fehleranfällig und variabel Lasso verzichtet teils darauf (kann Prognosegüte erhöhen) KQ vs Lasso: Versuch, Prognosefehler abzuschätzen Situation perfekt unabhängige Kovariablen selten in Praxis- Ausnahme: kontrollierte Experimente Lasso sehr intuitiv, gut verständlich Computationale Betrachtungen: Lasso (im LM): Größenordnung wie für Berechnung von k-fache Kreuzvalidierung erhöht nur um Faktor k gilt für LARS-Alg.; noch schneller: Friedman et al. (2010) Lasso im GLM: deutlich mehr Aufwand ˆβ (ls) 29 / 33

30 Vorteile, Nachteile und Anwendbarkeit II Lasso (und Ridge): weniger automatisierbar was ist Ziel der Analyse? welche Situation liegt vor und wie verhält sich Lasso dort i.a.? gewähltes R-Paket: Standardisierung von xj automatisch oder manuell? werden bereits rücktransformierte Koeffizienten ausgegeben? Ausreisser, einflussreiche Datenpunkte, fehlerhafte Daten KQ-Schätzer: es existieren Kennzahlen Lasso, Ridge: Auswirkungen unklar; Abschätzversuch z.b. über Bootstrap Fazit: Lasso/Ridge benötigen relativ zum KQ-Schätzer mehr Arbeitsaufwand Wissen und Erfahrungen mit ihrem Umgang 30 / 33

31 Erweiterungen I: Generalisierte Lineare Modelle GLMs Strukturannahme: E(y i x i ) = h(x i β) (h Responsefunktion) Verteilungsann.: y i x i F (F aus einfacher Expo.familie) Schätzung von β über ML: l(β) min β i.a. keine explizite Lösung (Fisher-Scoring, Newton-Raphson) Lasso in GLMs wieder: Minimierung der Summe von Zielfunktion und Penalty min l(β) + λ p j =1 β j β Schätzung über zyklischen Koordinatenabstieg (Friedman et al., 2010) enthält LM als Spezialfall (Normalverteilung) R: glmnet 31 / 33

32 Erweiterungen II in jeder Kovariable unterschiedliche Strafen p j =1 λ j β j manche Kovariablen nicht bestrafen (im Modell halten): λj = 0 Adapative Lasso: Strafe relativ zu KQ-Koeffizient SCAD: größere Koeffizienten weniger stark bestrafen ˆβ (ls) j Grouped Lasso: Gruppe von Variablen gemeinsam in/aus dem Modell (Bsp: k-kategoriale Variable in Form von k 1 Dummies) Elastic Net: gewichtetes Mittel von Lasso- und Ridge-Penalty erbt Eigenschaften von Lasso (z.b. Selektion) und Ridge zweistufige Verfahren: Lasso in 1. Stufe (zur Variablenselektion) 32 / 33

33 Vielen Dank für Ihre Aufmerksamkeit. Literatur (Vortrag) J. Friedman, T. Hastie und R. Tibshirani (2010). Regularization paths for generalized linear models via coordinate descent. Journal of Statistical Software, 33(1): A. E. Hoerl und R. Kennard (1970). Ridge regression: biased estimation for nonorthogonal problems. Technometrics, 12: T. Hastie, R. Tibshirani und J. Friedman (2009). The Elements of Statistical Learning. Zweite Auflage. Springer: New York. R. Tibshirani (1996). Regression shrinkage and selection via the lasso. Journal of the Royal Statistical Society, Series B, 58: S. Konrath (2007). Bayesianische Regularisierung mit Anwendungen. Master Thesis. LMU, München. S. 39, Abb / 33

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

2.Tutorium Generalisierte Regression

2.Tutorium Generalisierte Regression 2.Tutorium Generalisierte Regression - Binäre Regression - Moritz Berger: 04.11.2013 und 11.11.2013 Shuai Shao: 06.11.2013 und 13.11.2013 Institut für Statistik, LMU München 1 / 16 Gliederung 1 Erweiterte

Mehr

Elastic Net und Lasso: Lassen Sie in unübersichtlichen Situationen Software statistische Modelle finden.

Elastic Net und Lasso: Lassen Sie in unübersichtlichen Situationen Software statistische Modelle finden. Elastic Net und Lasso: Lassen Sie in unübersichtlichen Situationen Software statistische Modelle finden. Bernd Heinen SAS Institute GmbH In der Neckarhelle 168 Heidelberg Bernd.heinen@jmp.com oder Zusammenfassung

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Seminar im Sommersemester 2012 Modellierung kategorialer Daten

Seminar im Sommersemester 2012 Modellierung kategorialer Daten LMU München, Institut für Statistik, Seminar für angewandte Stochastik Seminar im Sommersemester 2012 Modellierung kategorialer Daten Prof. Dr. G. Tutz; Dipl.-Stat. M. Oelker; Dipl.-Stat. F. Heinzl; Dipl.-Stat.

Mehr

Interne und externe Modellvalidität

Interne und externe Modellvalidität Interne und externe Modellvalidität Interne Modellvalidität ist gegeben, o wenn statistische Inferenz bzgl. der untersuchten Grundgesamtheit zulässig ist o KQ-Schätzer der Modellparameter u. Varianzschätzer

Mehr

Einführung in die Geostatistik (7) Fred Hattermann (Vorlesung), hattermann@pik-potsdam.de Michael Roers (Übung), roers@pik-potsdam.

Einführung in die Geostatistik (7) Fred Hattermann (Vorlesung), hattermann@pik-potsdam.de Michael Roers (Übung), roers@pik-potsdam. Einführung in die Geostatistik (7) Fred Hattermann (Vorlesung), hattermann@pik-potsdam.de Michael Roers (Übung), roers@pik-potsdam.de 1 Gliederung 7 Weitere Krigingverfahren 7.1 Simple-Kriging 7.2 Indikator-Kriging

Mehr

1 Statistische Grundlagen

1 Statistische Grundlagen Konzepte in Empirische Ökonomie 1 (Winter) Hier findest Du ein paar Tipps zu den Konzepten in Empirische 1. Wenn Du aber noch etwas Unterstützung kurz vor der Klausur brauchst, schreib uns eine kurze Email.

Mehr

Kernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung

Kernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung Kernel, Perceptron, Regression Erich Schubert, Arthur Zimek Ludwig-Maximilians-Universität München 2014-07-20 KDD Übung Kernel-Fukctionen Kernel kann mehrdeutig sein! Unterscheidet zwischen: Kernel function

Mehr

Statistik Einführung // Lineare Regression 9 p.2/72

Statistik Einführung // Lineare Regression 9 p.2/72 Statistik Einführung Lineare Regression Kapitel 9 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Ledold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // Lineare Regression

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Algorithmische Modelle als neues Paradigma

Algorithmische Modelle als neues Paradigma Algorithmische Modelle als neues Paradigma Axel Schwer Seminar über Philosophische Grundlagen der Statistik, WS 2010/11 Betreuer: Prof. Dr. Thomas Augustin München, den 28. Januar 2011 1 / 29 LEO BREIMAN

Mehr

Lineare Modelle in R: Einweg-Varianzanalyse

Lineare Modelle in R: Einweg-Varianzanalyse Lineare Modelle in R: Einweg-Varianzanalyse Achim Zeileis 2009-02-20 1 Datenaufbereitung Wie schon in der Vorlesung wollen wir hier zur Illustration der Einweg-Analyse die logarithmierten Ausgaben der

Mehr

Versuchsplanung. Inhalt. Grundlagen. Faktor-Effekt. Allgemeine faktorielle Versuchspläne. Zweiwertige faktorielle Versuchspläne

Versuchsplanung. Inhalt. Grundlagen. Faktor-Effekt. Allgemeine faktorielle Versuchspläne. Zweiwertige faktorielle Versuchspläne Inhalt Versuchsplanung Faktorielle Versuchspläne Dr. Tobias Kiesling Allgemeine faktorielle Versuchspläne Faktorielle Versuchspläne mit zwei Faktoren Erweiterungen Zweiwertige

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear":

Das Dialogfeld für die Regressionsanalyse (Lineare Regression) findet sich im Statistik- Menu unter Regression-Linear: Lineare Regression Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear": Im einfachsten Fall werden mehrere Prädiktoren (oder nur

Mehr

Korrelation - Regression. Berghold, IMI

Korrelation - Regression. Berghold, IMI Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

In konstanten Modellen wird davon ausgegangen, dass die zu prognostizierende Größe sich über die Zeit hinweg nicht verändert.

In konstanten Modellen wird davon ausgegangen, dass die zu prognostizierende Größe sich über die Zeit hinweg nicht verändert. Konstante Modelle: In konstanten Modellen wird davon ausgegangen, dass die zu prognostizierende Größe sich über die Zeit hinweg nicht verändert. Der prognostizierte Wert für die Periode T+i entspricht

Mehr

Robustheitsuntersuchung am Beispiel der rechnerischen Simulation der ECE-R14

Robustheitsuntersuchung am Beispiel der rechnerischen Simulation der ECE-R14 alt 1. Vergleich der Methoden Reine Monte-Carlo-Analyse Ersatzflächenbasierte Monte-Carlo-Analyse 2. Restriktionen nach ECE-R14 3. FEM-Modell 4. Bauteile/ Parameter 5. Anwendung beider Methoden auf ECE-R14

Mehr

Nichtparametrische Analyse longitudinaler Daten in faktoriellen Experimenten. Frank Konietschke

Nichtparametrische Analyse longitudinaler Daten in faktoriellen Experimenten. Frank Konietschke Nichtparametrische Analyse longitudinaler Daten in faktoriellen Experimenten Frank Konietschke Abteilung für Medizinische Statistik Universität Göttingen 1 Übersicht Beispiele CGI (repeated measures) γ-gt

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

Engineering Design via Surrogate Modelling Sampling Plans

Engineering Design via Surrogate Modelling Sampling Plans Engineering Design via Surrogate Modelling Sampling Plans Lisa Weber Universität Trier 01.06.2011 L. Weber (Universität Trier) Surrogate Models - Seminar Numerik 11 01.06.2011 1 / 34 Inhaltsverzeichnis

Mehr

Deduktive und induktive Aspekte statistischer Methoden

Deduktive und induktive Aspekte statistischer Methoden Deduktive und induktive Aspekte statistischer Methoden Wissenschaftshistorische und -philosophische Grundlagen Felix Günther Institut für Statistik Ludwig-Maximilians-Universität München Prof. Seising

Mehr

MATHEMATISCHE ANALYSE VON ALGORITHMEN

MATHEMATISCHE ANALYSE VON ALGORITHMEN MATHEMATISCHE ANALYSE VON ALGORITHMEN Michael Drmota Institut für Diskrete Mathematik und Geometrie, TU Wien michael.drmota@tuwien.ac.at www.dmg.tuwien.ac.at/drmota/ Ringvorlesung SS 2008, TU Wien Algorithmus

Mehr

Kontingenzkoeffizient (nach Pearson)

Kontingenzkoeffizient (nach Pearson) Assoziationsmaß für zwei nominale Merkmale misst die Unabhängigkeit zweier Merkmale gibt keine Richtung eines Zusammenhanges an 46 o jl beobachtete Häufigkeiten der Kombination von Merkmalsausprägungen

Mehr

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall )

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall ) Zusammenhänge von Variablen Regressionsanalysen linearer Zusammenhang ( Idealfall ) kein Zusammenhang nichtlinearer monotoner Zusammenhang (i.d.regel berechenbar über Variablentransformationen mittels

Mehr

Musterlösung zu Serie 14

Musterlösung zu Serie 14 Dr. Lukas Meier Statistik und Wahrscheinlichkeitsrechnung FS 21 Musterlösung zu Serie 14 1. Der Datensatz von Forbes zeigt Messungen von Siedepunkt (in F) und Luftdruck (in inches of mercury) an verschiedenen

Mehr

Moderne Monte Carlo Methoden für Anwendungen in Finanz- und Versicherungsmathematik

Moderne Monte Carlo Methoden für Anwendungen in Finanz- und Versicherungsmathematik Fraunhofer ITWM Kaiserslautern, 4..009 Moderne Monte Carlo Methoden für Anwendungen in Finanz- und Versicherungsmathematik Ralf Korn (TU Kaiserslautern & Fraunhofer ITWM) 0. Einige praktische Probleme

Mehr

Modellierung von Korrelationen zwischen Kreditausfallraten für Kreditportfolios. Bernd Rosenow, 3. Kölner Workshop Quantitative Finanzmarktforschung

Modellierung von Korrelationen zwischen Kreditausfallraten für Kreditportfolios. Bernd Rosenow, 3. Kölner Workshop Quantitative Finanzmarktforschung Modellierung von Korrelationen zwischen Kreditausfallraten für Kreditportfolios Bernd Rosenow Rafael Weißhaupt Frank Altrock Universität zu Köln West LB AG, Düsseldorf Gliederung Beschreibung des Datensatzes

Mehr

Multinomiale logistische Regression

Multinomiale logistische Regression Multinomiale logistische Regression Die multinomiale logistische Regression dient zur Schätzung von Gruppenzugehörigkeiten bzw. einer entsprechenden Wahrscheinlichkeit hierfür, wobei als abhänginge Variable

Mehr

Quantitative Methoden der Bildungsforschung

Quantitative Methoden der Bildungsforschung Glieung Wieholung Korrelationen Grundlagen lineare Regression Lineare Regression in SPSS Übung Wieholung Korrelationen Standardisiertes Zusammenhangsmaß (unstandardisiert: Kovarianz) linearer Zusammenhang

Mehr

Statistische Versuchsplanung - zuverlässiger und schneller zu Ergebnissen" Dr. Uwe Waschatz

Statistische Versuchsplanung - zuverlässiger und schneller zu Ergebnissen Dr. Uwe Waschatz Statistische Versuchsplanung - zuverlässiger und schneller zu Ergebnissen" Dr. Uwe Waschatz Inhalt Problembeschreibung Multiple lineare Regressionsanalyse Statistische Versuchsplanung / Design of Experiments

Mehr

Lernen von Entscheidungsbäumen. Volker Tresp Summer 2014

Lernen von Entscheidungsbäumen. Volker Tresp Summer 2014 Lernen von Entscheidungsbäumen Volker Tresp Summer 2014 1 Anforderungen an Methoden zum Datamining Schnelle Verarbeitung großer Datenmengen Leichter Umgang mit hochdimensionalen Daten Das Lernergebnis

Mehr

Algorithms for Regression and Classification

Algorithms for Regression and Classification Fakultät für Informatik Effiziente Algorithmen und Komplexitätstheorie Algorithms for Regression and Classification Robust Regression and Genetic Association Studies Robin Nunkesser Fakultät für Informatik

Mehr

Wichtiges zu Seminarvortrag und Hausarbeit

Wichtiges zu Seminarvortrag und Hausarbeit Wichtiges zu Seminarvortrag und Hausarbeit Seminar "Regularisierung und psychometrische Latent Trait Ansätze" Institut für Statistik LMU München Sommersemester 2013 Überblick Der Vortrag Ziel, Inhalt und

Mehr

Kap. 9: Regression mit einer binären abhängigen Variablen

Kap. 9: Regression mit einer binären abhängigen Variablen Kap. 9: Regression mit einer binären abhängigen Variablen Motivation Lineares Wahrscheinlichkeitsmodell Probit- und Logit-Regression Maximum Likelihood Empirisches Beispiel: Analyse der HMDA-Daten Ausblick:

Mehr

Statistische Verfahren für das Data Mining in einem Industrieprojekt

Statistische Verfahren für das Data Mining in einem Industrieprojekt Statistische Verfahren für das Data Mining in einem Industrieprojekt Thorsten Dickhaus Forschungszentrum Jülich GmbH Zentralinstitut für Angewandte Mathematik Telefon: 02461/61-4193 E-Mail: th.dickhaus@fz-juelich.de

Mehr

Teil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung

Teil II Optimierung. Peter Buchholz 2016. Modellgestützte Analyse und Optimierung Kap. 9 Einführung Optimierung Teil II Optimierung Gliederung 9 Einführung, Klassifizierung und Grundlagen 10 Lineare Optimierung 11 Ganzzahlige und kombinatorische Optimierung 12 Dynamische Optimierung Literatur: zu 10-12: Neumann,

Mehr

Gliederung. Bachelorseminar: Graphiken in R Visualisierung Kategorialer Daten. Einführung. Visualisierung von zweidimensionalen Kontingenztafeln

Gliederung. Bachelorseminar: Graphiken in R Visualisierung Kategorialer Daten. Einführung. Visualisierung von zweidimensionalen Kontingenztafeln Gliederung Bachelorseinar: Graphiken in R Visualisierung Kategorialer Daten Matthias Mitterayer betreut durch Sebastian Kaiser Einführung Institut für Statistik, LMU München 13. Januar 2011 Fazit Visualisierung

Mehr

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel Ausarbeitung zum Proseminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn zum Thema Simulation des Anlagenpreismodels von Simon Uphus im WS 09/10 Zusammenfassung

Mehr

Thema: Bootstrap-Methoden für die Regressionsanalyse. Bachelorarbeit. im Fachgebiet Wirtschaftsinformatik am Lehrstuhl für Quantitative Methoden

Thema: Bootstrap-Methoden für die Regressionsanalyse. Bachelorarbeit. im Fachgebiet Wirtschaftsinformatik am Lehrstuhl für Quantitative Methoden Westfälische Wilhelms-Universität Münster Thema: Bootstrap-Methoden für die Regressionsanalyse Bachelorarbeit im Fachgebiet Wirtschaftsinformatik am Lehrstuhl für Quantitative Methoden Themensteller: Prof.

Mehr

Nichtparametrische statistische Verfahren

Nichtparametrische statistische Verfahren Nichtparametrische statistische Verfahren (im Wesentlichen Analyse von Abhängigkeiten) Kategorien von nichtparametrischen Methoden Beispiel für Rangsummentests: Wilcoxon-Test / U-Test Varianzanalysen 1-faktorielle

Mehr

Multiplizitätskorrektur bei Variablenselektion

Multiplizitätskorrektur bei Variablenselektion Multiplizitätskorrektur bei Variablenselektion Seminar: Multiples Testen Dozent: Prof. Dr. T. Dickhaus Referent: Maximilian Mönch - 22.11.2010 - Überblick 1) Einleitung 2) Multiplizitätskorrektur 3) Median

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Prof. Dr. Jörg Rahnenführer Raum 720 Email: rahnenfuehrer@statistik. tu-.de Voraussetzungen: Vordiplom in Statistik, Mathematik, Datenanalyse, Informatik Zeiten und Räume Vorlesung

Mehr

Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression

Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression Speziell im Zusammenhang mit der Ablehnung der Globalhypothese werden bei einer linearen Einfachregression weitere Fragestellungen

Mehr

Eine computergestützte Einführung mit

Eine computergestützte Einführung mit Thomas Cleff Deskriptive Statistik und Explorative Datenanalyse Eine computergestützte Einführung mit Excel, SPSS und STATA 3., überarbeitete und erweiterte Auflage ^ Springer Inhaltsverzeichnis 1 Statistik

Mehr

ε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS?

ε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS? BINARY CHOICE MODELS 1 mit Pr( Y = 1) = P Y = 0 mit Pr( Y = 0) = 1 P Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS? Y i = X i β + ε i Probleme: Nonsense Predictions

Mehr

ChangePoint-Analysen - ein Überblick

ChangePoint-Analysen - ein Überblick ChangePoint-Analysen - ein Überblick Gliederung Motivation Anwendungsgebiete Chow Test Quandt-Andrews Test Fluktuations-Tests Binary Segmentation Recursive circular and binary segmentation algorithm Bayesscher

Mehr

Abschlussklausur (60 Minuten), 15. Juli 2014

Abschlussklausur (60 Minuten), 15. Juli 2014 Prof. Dr. Amelie Wuppermann Volkswirtschaftliche Fakultät Universität München Sommersemester 2014 Empirische Ökonomie 1 Abschlussklausur (60 Minuten), 15. Juli 2014 Bearbeitungshinweise Die Bearbeitungszeit

Mehr

Semiparametrisches Kredit Scoring

Semiparametrisches Kredit Scoring Semiparametrisches Kredit Scoring Marlene Müller Fraunhofer Institut für Techno- und Wirtschaftsmathematik (ITWM) Kaiserslautern Bernd Rönz, Wolfgang Härdle Center for Applied Statistics and Economics

Mehr

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen 5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x

Mehr

Auswirkungen verschiedener Anonymisierungsverfahren und Erarbeitung von Korrekturverfahren in ausgewählten GLMs

Auswirkungen verschiedener Anonymisierungsverfahren und Erarbeitung von Korrekturverfahren in ausgewählten GLMs Abschlusskolloquium Auswirkungen verschiedener Anonymisierungsverfahren und Erarbeitung von Korrekturverfahren in ausgewählten GLMs Anja Kipke 28. März 2011 Betreuung: Prof. Dr. Thomas Augustin Gliederung

Mehr

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang

Mehr

Kommentierter SPSS-Ausdruck zur logistischen Regression

Kommentierter SPSS-Ausdruck zur logistischen Regression Daten: POK V AG 3 (POKV_AG3_V07.SAV) Kommentierter SPSS-Ausdruck zur logistischen Regression Fragestellung: Welchen Einfluss hat die Fachnähe und das Geschlecht auf die interpersonale Attraktion einer

Mehr

Parametrische Statistik

Parametrische Statistik Statistik und ihre Anwendungen Parametrische Statistik Verteilungen, maximum likelihood und GLM in R Bearbeitet von Carsten F. Dormann 1. Auflage 2013. Taschenbuch. xxii, 350 S. Paperback ISBN 978 3 642

Mehr

3. Grundlagen der Linearen Programmierung

3. Grundlagen der Linearen Programmierung 3. Grundlagen der linearen Programmierung Inhalt 3. Grundlagen der Linearen Programmierung Lineares Programm Grafische Lösung linearer Programme Normalform Geometrie linearer Programme Basislösungen Operations

Mehr

0 Einführung: Was ist Statistik

0 Einführung: Was ist Statistik 0 Einführung: Was ist Statistik 1 Datenerhebung und Messung 2 Univariate deskriptive Statistik 3 Multivariate Statistik 4 Regression 5 Ergänzungen Explorative Datenanalyse EDA Auffinden von Strukturen

Mehr

Regression. Multiple Regression und Generalisierte Lineare Modelle. U. Mortensen

Regression. Multiple Regression und Generalisierte Lineare Modelle. U. Mortensen Regression Multiple Regression und Generalisierte Lineare Modelle U. Mortensen Multivariate Methoden Psychologisches Institut der Universität Mainz WS 2011/12 11. 11. 2011 korrigiert: 08. 05. 2015 1 Inhaltsverzeichnis

Mehr

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten.

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten. Statistik für Kommunikationswissenschaftler Wintersemester 2009/200 Vorlesung Prof. Dr. Helmut Küchenhoff Übung Cornelia Oberhauser, Monia Mahling, Juliane Manitz Thema 4 Homepage zur Veranstaltung: http://www.statistik.lmu.de/~helmut/kw09.html

Mehr

ANalysis Of VAriance (ANOVA) 1/2

ANalysis Of VAriance (ANOVA) 1/2 ANalysis Of VAriance (ANOVA) 1/2 Markus Kalisch 16.10.2014 1 ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich)?

Mehr

Prüfung im Fach Ökonometrie im WS 2011/12 Aufgabenteil. Name, Vorname. Matrikelnr. Studiengang. E-Mail-Adresse. Unterschrift

Prüfung im Fach Ökonometrie im WS 2011/12 Aufgabenteil. Name, Vorname. Matrikelnr. Studiengang. E-Mail-Adresse. Unterschrift Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Prüfung im Fach Ökonometrie im WS 2011/12 Aufgabenteil Name, Vorname Matrikelnr. Studiengang E-Mail-Adresse Unterschrift

Mehr

Name (in Druckbuchstaben): Matrikelnummer: Unterschrift:

Name (in Druckbuchstaben): Matrikelnummer: Unterschrift: 20-minütige Klausur zur Vorlesung Lineare Modelle im Sommersemester 20 PD Dr. Christian Heumann Ludwig-Maximilians-Universität München, Institut für Statistik 2. Oktober 20, 4:5 6:5 Uhr Überprüfen Sie

Mehr

Big Data als neuer Partner von Six Sigma Optimierung der diskreten Produktion

Big Data als neuer Partner von Six Sigma Optimierung der diskreten Produktion Big Data als neuer Partner von Six Sigma Optimierung der diskreten Produktion Frank Effenberger, Marco Fischer, 22.06.2015, München Agenda Firmenpräsentation Einführung Anwendungsfall Fazit Zahlen und

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Vergleich von KreditRisk+ und KreditMetrics II Seminar Portfoliokreditrisiko

Vergleich von KreditRisk+ und KreditMetrics II Seminar Portfoliokreditrisiko Vergleich von KreditRisk+ und KreditMetrics II Seminar Portfoliokreditrisiko Jan Jescow Stoehr Gliederung 1. Einführung / Grundlagen 1.1 Ziel 1.2 CreditRisk+ und CreditMetrics 2. Kreditportfolio 2.1 Konstruktion

Mehr

Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk

Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC Referenten: Linda Gräfe & Konstantin Falk 1 Agenda Schätzverfahren ML REML Beispiel in SPSS Modellbeurteilung Devianz AIC BIC

Mehr

Planen mit mathematischen Modellen 00844: Computergestützte Optimierung. Autor: Dr. Heinz Peter Reidmacher

Planen mit mathematischen Modellen 00844: Computergestützte Optimierung. Autor: Dr. Heinz Peter Reidmacher Planen mit mathematischen Modellen 00844: Computergestützte Optimierung Leseprobe Autor: Dr. Heinz Peter Reidmacher 11 - Portefeuilleanalyse 61 11 Portefeuilleanalyse 11.1 Das Markowitz Modell Die Portefeuilleanalyse

Mehr

Messung und Aufwandsschätzung bei der Entwicklung von Web Applikationen. Frederik Kramer // Folie 1 von 14

Messung und Aufwandsschätzung bei der Entwicklung von Web Applikationen. Frederik Kramer // Folie 1 von 14 Messung und Aufwandsschätzung bei der Entwicklung von Web Applikationen Frederik Kramer // Folie 1 von 14 Warum das ganze? Entwicklungskosten spielen eine immer wichtigere Rolle Messmethoden erlauben diese

Mehr

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS) Dominating Set 59 Literatur Dominating Set Grundlagen 60 Dominating Set (DS) M. V. Marathe, H. Breu, H.B. Hunt III, S. S. Ravi, and D. J. Rosenkrantz: Simple Heuristics for Unit Disk Graphs. Networks 25,

Mehr

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression Institut für Soziologie Methoden 2 Regressionsanalyse I: Einfache lineare Regression Programm Anwendungsbereich Vorgehensweise Interpretation Annahmen Zusammenfassung Übungsaufgabe Literatur # 2 Anwendungsbereich

Mehr

Informatik-Sommercamp 2012. Mastermind mit dem Android SDK

Informatik-Sommercamp 2012. Mastermind mit dem Android SDK Mastermind mit dem Android SDK Übersicht Einführungen Mastermind und Strategien (Stefan) Eclipse und das ADT Plugin (Jan) GUI-Programmierung (Dominik) Mastermind und Strategien - Übersicht Mastermind Spielregeln

Mehr

Schätzen der Fehlerzahl. in Software-Dokumenten. Dr. Frank Padberg Universität Karlsruhe Mai 2003

Schätzen der Fehlerzahl. in Software-Dokumenten. Dr. Frank Padberg Universität Karlsruhe Mai 2003 Schätzen der Fehlerzahl in Software-Dokumenten Dr. Frank Padberg Universität Karlsruhe Mai 2003 Motivation beim Testen oder bei Inspektionen werden nicht alle Fehler gefunden Anzahl der unentdeckten Fehler

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Christian FG Schendera. Regressionsanalyse. mit SPSS. 2. korrigierte und aktualisierte Auflage DE GRUYTER OLDENBOURG

Christian FG Schendera. Regressionsanalyse. mit SPSS. 2. korrigierte und aktualisierte Auflage DE GRUYTER OLDENBOURG Christian FG Schendera Regressionsanalyse mit SPSS 2. korrigierte und aktualisierte Auflage DE GRUYTER OLDENBOURG Inhalt Vorworte V 1 Korrelation 1 1.1 Einführung 1 1.2 Erste Voraussetzung: Das Skalenniveau

Mehr

Über statistische Probleme bei der Analyse von Daten aus dem Bereich der Kraftfahrzeugversicherung

Über statistische Probleme bei der Analyse von Daten aus dem Bereich der Kraftfahrzeugversicherung Statistik Über statistische Probleme bei der Analyse von Daten aus dem Bereich der Kraftfahrzeugversicherung Andreas Christmann Universität Dortmund Fachbereich Statistik 44221 Dortmund christmann@statistik.uni-dortmund.de

Mehr

Seminarvortag zum Thema Virtual Private Network Design im Rahmen des Seminars Network Design an der Universität Paderborn

Seminarvortag zum Thema Virtual Private Network Design im Rahmen des Seminars Network Design an der Universität Paderborn Seminarvortag zum Thema Virtual Private Network Design im Rahmen des Seminars Network Design an der Universität Paderborn Ein 5.55-Approximationsalgorithmus für das VPND-Problem Lars Schäfers Inhalt Einführung:

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Überblick über die Verfahren für Ordinaldaten

Überblick über die Verfahren für Ordinaldaten Verfahren zur Analyse ordinalskalierten Daten 1 Überblick über die Verfahren für Ordinaldaten Unterschiede bei unabhängigen Stichproben Test U Test nach Mann & Whitney H Test nach Kruskal & Wallis parametrische

Mehr

E ektgrößen Metaanalysen. Zusammenhänge und Unterschiede quantifizieren E ektgrößen

E ektgrößen Metaanalysen. Zusammenhänge und Unterschiede quantifizieren E ektgrößen DAS THEMA: EFFEKTGRÖßEN UND METAANALYSE E ektgrößen Metaanalysen Zusammenhänge und Unterschiede quantifizieren E ektgrößen Was ist ein E ekt? Was sind E ektgrößen? Berechnung von E ektgrößen Interpretation

Mehr

Probeklausur Zeitreihenökonometrie (Sommersemester 2014) 1

Probeklausur Zeitreihenökonometrie (Sommersemester 2014) 1 Probeklausur Zeitreihenökonometrie (Sommersemester 2014) 1 Aufgabe 1: Betrachtet wird folgendes Modell zur Erklärung des Managergehalts salary durch den Umsatz sales, die Eigenkapitalrendite roe und die

Mehr

Clustering Seminar für Statistik

Clustering Seminar für Statistik Clustering Markus Kalisch 03.12.2014 1 Ziel von Clustering Finde Gruppen, sodas Elemente innerhalb der gleichen Gruppe möglichst ähnlich sind und Elemente von verschiedenen Gruppen möglichst verschieden

Mehr

Inhalt Software-Metriken Software-Metriken mit Together FindBugs. Software-Metriken. Raimar Lill Matthias Meitner David Föhrweiser Marc Spisländer

Inhalt Software-Metriken Software-Metriken mit Together FindBugs. Software-Metriken. Raimar Lill Matthias Meitner David Föhrweiser Marc Spisländer Lill, Meitner, Föhrweiser, Spisländer FAU Erlangen-Nürnberg Software-Metriken 1 / 24 Software-Metriken Raimar Lill Matthias Meitner David Föhrweiser Marc Spisländer Lehrstuhl für Software Engineering Friedrich-Alexander-Universität

Mehr

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1 Inhaltsverzeichnis Regressionsanalyse... 2 Lernhinweise... 2 Einführung... 2 Theorie (1-8)... 2 1. Allgemeine Beziehungen... 3 2. 'Best Fit'... 3 3. 'Ordinary Least Squares'... 4 4. Formel der Regressionskoeffizienten...

Mehr

Teil I Beschreibende Statistik 29

Teil I Beschreibende Statistik 29 Vorwort zur 2. Auflage 15 Vorwort 15 Kapitel 0 Einführung 19 0.1 Methoden und Aufgaben der Statistik............................. 20 0.2 Ablauf statistischer Untersuchungen..............................

Mehr

Aufabe 7: Baum-Welch Algorithmus

Aufabe 7: Baum-Welch Algorithmus Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,

Mehr

Felix-Nicolai Müller. Seminar Fragebogenmethodik - WS2009/2010 - Universität Trier Dr. Dirk Kranz 24.11.2009

Felix-Nicolai Müller. Seminar Fragebogenmethodik - WS2009/2010 - Universität Trier Dr. Dirk Kranz 24.11.2009 Cohen s Kappa Felix-Nicolai Müller Seminar Fragebogenmethodik - WS2009/2010 - Universität Trier Dr. Dirk Kranz 24.11.2009 Felix-Nicolai Müller Cohen s Kappa 24.11.2009 1 / 21 Inhaltsverzeichnis 1 2 3 4

Mehr

Studiendesign/ Evaluierungsdesign

Studiendesign/ Evaluierungsdesign Jennifer Ziegert Studiendesign/ Evaluierungsdesign Praxisprojekt: Nutzerorientierte Evaluierung von Visualisierungen in Daffodil mittels Eyetracker Warum Studien /Evaluierungsdesign Das Design einer Untersuchung

Mehr

Optimierung. Florian Jarre Josef Stoer. Springer

Optimierung. Florian Jarre Josef Stoer. Springer 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Florian Jarre Josef Stoer Optimierung Springer Inhaltsverzeichnis

Mehr

2.4 Adaptive Verfahren mit Schrittweitensteuerung

2.4 Adaptive Verfahren mit Schrittweitensteuerung 0 0 0 Euler und RK4 fuer f(t,y) = t 0. Euler RK4 /N 0 0 f(t,y) =. t 0., graduiertes Gitter RK4 /N 4 Fehler bei T = 0 3 0 4 0 5 Fehler bei T = 0 5 0 0 0 6 0 7 0 0 0 0 2 0 3 0 4 0 5 Anzahl Schritte N 0 5

Mehr

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)

Mehr

Das statistische Beratungslabor und das Zentrum für empirische Studien an der LMU in München: Konzepte und Beispiele

Das statistische Beratungslabor und das Zentrum für empirische Studien an der LMU in München: Konzepte und Beispiele und das an der LMU in München: Konzepte und Helmut Küchenhoff Statistisches Institut für Statistik Ludwig Maximilians Universität München Überblick 1 2 3 4 2 Ziele Zusammenführung der Kompetenz an der

Mehr

Lineare Programmierung. Beispiel: Wahlkampf. Beispiel: Wahlkampf. Mathematische Schreibweise. Lineares Programm. Datenstrukturen & Algorithmen

Lineare Programmierung. Beispiel: Wahlkampf. Beispiel: Wahlkampf. Mathematische Schreibweise. Lineares Programm. Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Einführung Standard- und Schlupfformen Simplex Algorithmus Matthias Zwicker Universität Bern Frühling 2009 2 Beispiel: Wahlkampf Ziel: mit möglichst wenig Werbung eine gewisse

Mehr

Häufigkeitstabellen. Balken- oder Kreisdiagramme. kritischer Wert für χ2-test. Kontingenztafeln

Häufigkeitstabellen. Balken- oder Kreisdiagramme. kritischer Wert für χ2-test. Kontingenztafeln Häufigkeitstabellen Menüpunkt Data PivotTable Report (bzw. entsprechendes Icon): wähle Data Range (Zellen, die die Daten enthalten + Zelle mit Variablenname) wähle kategoriale Variable für Spalten- oder

Mehr

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:

Mehr

Franz Kronthaler. Statistik angewandt. Datenanalyse ist (k)eine Kunst. Excel Edition. ^ Springer Spektrum

Franz Kronthaler. Statistik angewandt. Datenanalyse ist (k)eine Kunst. Excel Edition. ^ Springer Spektrum Franz Kronthaler Statistik angewandt Datenanalyse ist (k)eine Kunst Excel Edition ^ Springer Spektrum Inhaltsverzeichnis Teil I Basiswissen und Werkzeuge, um Statistik anzuwenden 1 Statistik ist Spaß 3

Mehr

Lineare Programmierung

Lineare Programmierung Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in

Mehr