Wissensentdeckung in Datenbanken
|
|
- Maya Schneider
- vor 5 Jahren
- Abrufe
Transkript
1 Wissensentdeckung in Datenbanken Modellklassen, Verlustfunktionen Nico Piatkowski und Uwe Ligges von 15
2 Literatur Trevor Hastie, Robert Tibshirani, Jerome Friedman. The Elements of Statistical Learning: Data Mining, Inference, and Prediction. 2nd edition. Springer Series in Statistics. Springer Im Moodle zum Download verfügbar. Jorge Nocedal. Stephen Wright. Numerical Optimization. 2nd edition. Springer Series in Operations Research and Financial Engineering. Springer-Verlag New York In der Zentralbibliothek verfügbar. 2 von 15
3 Daten und dann? Personendaten Medizinische Daten Konto- und Zahlungsdaten Verbindungsdaten Soziale Netzwerke 3 von 15
4 Realisierung von Zufallsvektoren X Alter Geschlecht Krankheitstage Medikation X = Kontostand Kredite Webseiten... 3 von 15
5 Begriffe Daten D = {(x 1, y 1 ), (x 2, y 2 ),..., (x N, y N )} Realisierungen von Zufallsvariable X mit n-dimensionaler Domäne X Multimenge; # D (x, y) X Y N Messfehler, Rauschen ɛ P Fehlende Werte; x i X i {?}, 1 i n Modell f aus Modellklasse M Funktionen M F Koeffizienten / Parameter M R d Datenpunkte M D, M X Y Verlustfunktion (Güte) l (f; D) R 4 von 15
6 Begriffe Daten D = {(x 1, y 1 ), (x 2, y 2 ),..., (x N, y N )} Realisierungen von Zufallsvariable X mit n-dimensionaler Domäne X Multimenge; # D (x, y) X Y N Messfehler, Rauschen ɛ P Fehlende Werte; x i X i {?}, 1 i n Modell f aus Modellklasse M Funktionen M F Koeffizienten / Parameter M R d Datenpunkte M D, M X Y Verlustfunktion (Güte) l (f; D) R 4 von 15
7 Begriffe Daten D = {(x 1, y 1 ), (x 2, y 2 ),..., (x N, y N )} Realisierungen von Zufallsvariable X mit n-dimensionaler Domäne X Multimenge; # D (x, y) X Y N Messfehler, Rauschen ɛ P Fehlende Werte; x i X i {?}, 1 i n Modell f aus Modellklasse M Funktionen M F Koeffizienten / Parameter M R d Datenpunkte M D, M X Y Verlustfunktion (Güte) l (f; D) R 4 von 15
8 Allgemeines Vorgehen Daten D = {(x 1, y 1 ), (x 2, y 2 ),..., (x N, y N )} Datenpunkt x X, Label (Klasse) y Y M Modell lernen, Datenanalyse,.. f = arg min l(f; D) f M Modellanwendung, Vorhersage,.. ŷ = f (x) 5 von 15
9 Allgemeines Vorgehen Daten D = {(x 1, y 1 ), (x 2, y 2 ),..., (x N, y N )} Datenpunkt x X, Label (Klasse) y Y M Modell lernen, Datenanalyse,.. f = arg min l(f; D) f M Modellanwendung, Vorhersage,.. ŷ = f (x) 5 von 15
10 Allgemeines Vorgehen Daten D = {(x 1, y 1 ), (x 2, y 2 ),..., (x N, y N )} Datenpunkt x X, Label (Klasse) y Y M Modell lernen, Datenanalyse,.. f = arg min l(f; D) f M Modellanwendung, Vorhersage,.. ŷ = f (x) 5 von 15
11 Modellklassen M f X Y T 0 T 1 T 2 T 3 T 4 1 Linear f(x) = β 0 + β, x Function value Polynom z n f(x) = β 0 + β i x i + β i,j x i x j + i=1 n n i=1 j=1 Trigonometrisch/Periodisch f(x) = k i=0 n n n i=1 j=1 k=1 θ i cos(i arccos( β i, x )) β i,j,k x i x j x k von 15
12 Modellklassen M f X Y T 0 T 1 T 2 T 3 T 4 1 Linear f(x) = β 0 + β, x Function value Polynom z n f(x) = β 0 + β i x i + β i,j x i x j + i=1 n n i=1 j=1 Trigonometrisch/Periodisch f(x) = k i=0 n n n i=1 j=1 k=1 θ i cos(i arccos( β i, x )) β i,j,k x i x j x k von 15
13 Modellklassen M f X Y T 0 T 1 T 2 T 3 T 4 1 Linear f(x) = β 0 + β, x Function value Polynom z n f(x) = β 0 + β i x i + β i,j x i x j + i=1 n n i=1 j=1 Trigonometrisch/Periodisch f(x) = k i=0 n n n i=1 j=1 k=1 θ i cos(i arccos( β i, x )) β i,j,k x i x j x k von 15
14 Modellklassen M (II) Probabilistisch/Exponentialfamilie/Bayesianisch p Gauss (x) = 1 (2π) n det Σ exp ( 1 2 (x µ) Σ 1 (x µ)) p Posterior (x) = p Likelihood (x)p Prior1 (α)p Prior2 (γ)... Unstetig/Piecewise/Thresholding f f v (x) = Left(v) (x) f Right(v) (x) g(x) ρ v g(x) < ρ v 7 von 15
15 Modellklassen M (II) Probabilistisch/Exponentialfamilie/Bayesianisch p Gauss (x) = 1 (2π) n det Σ exp ( 1 2 (x µ) Σ 1 (x µ)) p Posterior (x) = p Likelihood (x)p Prior1 (α)p Prior2 (γ)... Unstetig/Piecewise/Thresholding f f v (x) = Left(v) (x) f Right(v) (x) g(x) ρ v g(x) < ρ v 7 von 15
16 Beispiel: Fehlerwahrscheinlichkeit Y = {c 1, c 2,..., c k }, Modell f Wahrscheinlichkeitsdichte falscher Vorhersagen: p(f(x) /= Y ) = E X,Y [1 {f(x)/=y } ] = E X E Y X [1 {f(x)/=y } ] k = E X [ 1 {f(x)/=ci }P(Y = c i X)] i=1 Wahl von f, so dass innere Summe minimiert wird.. f(x) = = = k arg min j=1 k k 1 {cj /=c i }P(Y = c i X = x) i=1 arg min(1 P(Y = c j X = x)) j=1 k arg max j=1 P(Y = c j X = x) 8 von 15
17 Beispiel: Fehlerwahrscheinlichkeit Y = {c 1, c 2,..., c k }, Modell f Wahrscheinlichkeitsdichte falscher Vorhersagen: p(f(x) /= Y ) = E X,Y [1 {f(x)/=y } ] = E X E Y X [1 {f(x)/=y } ] k = E X [ 1 {f(x)/=ci }P(Y = c i X)] i=1 Wahl von f, so dass innere Summe minimiert wird.. f(x) = = = k arg min j=1 k k 1 {cj /=c i }P(Y = c i X = x) i=1 arg min(1 P(Y = c j X = x)) j=1 k arg max j=1 P(Y = c j X = x) 8 von 15
18 Verlustfunktionen l Absoluter Fehler/SSE/MSE/RMSE Hinge Loss Err(f; D) = RMSE(f; D) = Hinge(f; D) = y f(x) (x,y) D 1 (y f(x)) 2 D (x,y) D max{0, 1 yf(x)} (x,y) D 9 von 15
19 Verlustfunktionen l Absoluter Fehler/SSE/MSE/RMSE Hinge Loss Err(f; D) = RMSE(f; D) = Hinge(f; D) = y f(x) (x,y) D 1 (y f(x)) 2 D (x,y) D max{0, 1 yf(x)} (x,y) D 9 von 15
20 Absoluter Fehler, y f(x) y = +1 y = -1 Err(f;x,y) f(x) 10 von 15
21 Quadratischer Fehler, (y f(x)) y = +1 y = -1 MSE(f;x,y) f(x) 11 von 15
22 Hinge Fehler, max{0, 1 y f(x)} 3 y = +1 y = Hinge(f;x,y) f(x) 12 von 15
23 Verlustfunktionen l (II) - Likelihood Varianten Likelihood L(p; D) = p(x, y) (x,y) D Log-Likelihood log L(p; D) = log p(x, y) (x,y) D Neg. Avg. Log-Likelihood l(p; D) = 1 log p(x, y) D (x,y) D 13 von 15
24 Verlustfunktionen l (II) - Likelihood Varianten Likelihood L(p; D) = p(x, y) (x,y) D Log-Likelihood log L(p; D) = log p(x, y) (x,y) D Neg. Avg. Log-Likelihood l(p; D) = 1 log p(x, y) D (x,y) D 13 von 15
25 Verlustfunktionen l (II) - Likelihood Varianten Likelihood L(p; D) = p(x, y) (x,y) D Log-Likelihood log L(p; D) = log p(x, y) (x,y) D Neg. Avg. Log-Likelihood l(p; D) = 1 log p(x, y) D (x,y) D 13 von 15
26 Verlustfunktionen l (III) - MDL Minimum Description Length (MDL) Formalisierung von Ockhams Rasiermesser min L(C) + L(D C) C M Intuition: Nur wenige Objekte können kurze Codes haben Nur wenige Objekte können hohe Wahrscheinlichkeit haben Formal: Alphabet A = {1, 2,..., m}, Codierung C, Codelängen L C (1), L C (2),..., L C (m) 2 LC(a) 1 a A Kraft, von 15
27 Verlustfunktionen l (III) - MDL Minimum Description Length (MDL) Formalisierung von Ockhams Rasiermesser min L(C) + L(D C) C M Intuition: Nur wenige Objekte können kurze Codes haben Nur wenige Objekte können hohe Wahrscheinlichkeit haben Formal: Alphabet A = {1, 2,..., m}, Codierung C, Codelängen L C (1), L C (2),..., L C (m) 2 LC(a) 1 a A Kraft, von 15
28 Verlustfunktionen l (III) - MDL Minimum Description Length (MDL) Formalisierung von Ockhams Rasiermesser min L(C) + L(D C) C M Intuition: Nur wenige Objekte können kurze Codes haben Nur wenige Objekte können hohe Wahrscheinlichkeit haben Formal: Alphabet A = {1, 2,..., m}, Codierung C, Codelängen L C (1), L C (2),..., L C (m) 2 LC(a) 1 a A Kraft, von 15
29 Verlustfunktionen l (IV) - Clustering Datensatz D = {x 1, x 2,..., x N } ohne Label Modell R n k-means (Intra-Cluster Varianz) ICV(k; D) = min min x C R n, C =k x D c C c 2 2 Mixture (Expectation Maximization) Example: Gaussian min log p Gauss (x i)p(i) {(µ i,σ i )} 1 i k R n S++ n x D i=1 k 15 von 15
30 Verlustfunktionen l (IV) - Clustering Datensatz D = {x 1, x 2,..., x N } ohne Label Modell R n k-means (Intra-Cluster Varianz) ICV(k; D) = min min x C R n, C =k x D c C c 2 2 Mixture (Expectation Maximization) Example: Gaussian min log p Gauss (x i)p(i) {(µ i,σ i )} 1 i k R n S++ n x D i=1 k 15 von 15
Wissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Organisation und Überblick Nico Piatkowski und Uwe Ligges 8.0.07 von Fakten Team Vorlesung: Uwe Ligges, Nico Piatkowski Übung: Sarah Schnackenberg, Sebastian Buschjäger
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken, Häufige Mengen Nico Piatkowski und Uwe Ligges 09.05.2017 1 von 15 Überblick Was bisher geschah... Heute Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Support Vector Machine Nico Piatkowski und Uwe Ligges 30.05.2017 1 von 14 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
MehrGauß-Prozess-Regression
Bayessche Regression und Gaußprozesse Dr. rer. nat. Johannes Riesterer Motivation Kriging Der südafrikanische Bergbauingenieur Danie Krige versuchte 1951, eine optimale Interpolationsmethode für den Bergbau
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen
MehrStatistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Dominik Lahmann Tobias Scheffer Überblick Hypothesenbewertung, Risikoschätzung
MehrModell Komplexität und Generalisierung
Modell Komplexität und Generalisierung Christian Herta November, 2013 1 von 41 Christian Herta Bias-Variance Lernziele Konzepte des maschinellen Lernens Targetfunktion Overtting, Undertting Generalisierung
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken SQL, Häufige Mengen Nico Piatkowski und Uwe Ligges 11.05.2017 1 von 16 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrMultivariate Verteilungen und Copulas
Multivariate Verteilungen und Copulas Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j
MehrFrequentisten und Bayesianer. Volker Tresp
Frequentisten und Bayesianer Volker Tresp 1 Frequentisten 2 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 24. Mai 2011 3. Schätzung von Parametern Problemstellung: Aus fehlerbehafteten Messungen möglichst genaue Ergebnisse erarbeiten zusammen mit Aussagen
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
MehrSo lösen Sie das multivariate lineare Regressionsproblem von Christian Herta
Multivariate Lineare Regression Christian Herta Oktober, 2013 1 von 34 Christian Herta Multivariate Lineare Regression Lernziele Multivariate Lineare Regression Konzepte des Maschinellen Lernens: Kostenfunktion
MehrStatistische Methoden
Modeling of Data / Maximum Likelyhood methods Institut für Experimentelle und Angewandte Physik Christian-Albrechts-Universität zu Kiel 22.05.2006 Datenmodellierung Messung vs Modell Optimierungsproblem:
MehrStatistik - Fehlerrechnung - Auswertung von Messungen
Statistik - Fehlerrechnung - Auswertung von Messungen TEIL II Vorbereitungskurs F-Praktikum B (Physik), RWTH Aachen Thomas Hebbeker Eindimensionaler Fall: Parameterbestimmung - Beispiele [Übung] Mehrdimensionaler
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen
Universität Potsdam Institut für Informatik Lehrstuhl Niels Landwehr, Silvia Makowski, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Di 10:00-11:30
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 3 Maschinelles Lernen und Klassifikation
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Lösungsblatt 3 Maschinelles Lernen und Klassifikation Aufgabe : Zufallsexperiment
MehrComputer in der Wissenschaft
Dr. Michael O. Distler distler@uni-mainz.de Mainz, 8. Januar 2014 Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der kleinsten
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Belief Propagation, Strukturlernen Nico Piatkowski und Uwe Ligges 29.06.2017 1 von 13 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung
MehrStatistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler
MehrVorlesung 9b. Kovarianz und Korrelation
Vorlesung 9b Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X,Y]:= E [ (X EX)(Y EY) ] Insbesondere ist
MehrWahrscheinlichkeitsrechnung und Statistik
5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften
MehrÜberblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator
Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
Mehr2 Alle Standardabweichungen σ i sind bekannt, bzw. die Kovarianzmatrix der Daten ist bekannt: Minimieren der χ 2 - Funktion.
2 Alle Standardabweichungen σ i sind bekannt, bzw. die Kovarianzmatrix der Daten ist bekannt: Minimieren der χ 2 - Funktion. 2.1 Allgemeine Behandlung Definition der χ 2 -Funktion. Hier definieren wir
MehrÜberblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression
Überblick Grundkonzepte des Baes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression Baes sche Vorhersage Münzwürfe Lineare Regression 57 Erinnerung:
MehrAnpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood KARLSRUHER INSTITUT FÜR TECHNOLOGIE (KIT) 0 KIT 06.01.2012 Universität des Fabian Landes Hoffmann Baden-Württemberg und nationales Forschungszentrum
MehrRidge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel
Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel Dr. Dominik Grimm Probelehrveranstaltung Fakultät für Informatik und Mathematik Hochschule
MehrVorlesung 8b. Kovarianz, Korrelation und Regressionsgerade
Vorlesung 8b Kovarianz, Korrelation und Regressionsgerade 1 1. Die Kovarianz und ihre Eigenschaften 2 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und
MehrStatistics, Data Analysis, and Simulation SS 2017
Mainz, 26. Juni 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler
MehrFrequentistische Statistik und Bayessche Statistik. Volker Tresp
Frequentistische Statistik und Bayessche Statistik Volker Tresp 1 Frequentistische Statistik 2 Herangehensweise Die Naturwissenschaft versucht es, der Natur Gesetzmäßigkeiten zu entringen: F = ma Gesetze
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrStatistics, Data Analysis, and Simulation SS 2015
Mainz, 2. Juli 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Konjugierte Prior Konjugierte Prior
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 1: Monte-Carlo-Methoden, Zufallszahlen, Statistische Tests Randolf Altmeyer November 22, 2016 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Lineares
MehrVorlesung 7b. Kovarianz und Korrelation
Vorlesung 7b Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X,Y]:= E [ (X EX)(Y EY) ] Insbesondere ist
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)
MehrVorlesung 13a. Schätzen von Parametern. Teil 2
Vorlesung 13a Schätzen von Parametern Teil 2 Unser Logo der ersten Stunde: X P ϑ (X da) = ρ ϑ (da), ϑ Θ S Ein Logo der Statistik: X Θ S P ϑ (X da) = ρ ϑ (da), ϑ Θ Ein Logo der Statistik: X Θ t S P ϑ (X
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrLineare Klassifikationsmethoden
Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung
MehrMultivariate Verfahren
Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 13. Juli 2011 Ziel der Vorlesung Vermittlung von Grundkenntnissen der Statistik, Simulationstechnik und numerischen Methoden (Algorithmen) Aufgabe:
MehrBayessche Lineare Regression
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 08.01.2009 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 32 Einführung Wahrscheinlichkeit Verteilungen
MehrSchätzung von Parametern
Schätzung von Parametern Schätzung von Parametern Quantitative Wissenschaft: Messung von Parametern Gemessene Werte weichen durch (statistische und systematische) Messfehler vom wahren Wert des Parameters
MehrMultivariate Verteilungen
Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig
MehrMusterlösung der Klausur vom 29. Juli 2003
Statistik für Bioinformatiker SoSe 2003 Rainer Spang Musterlösung der Klausur vom 29. Juli 2003 Aufgabe 1. 10 Definieren Sie die folgenden statistischen Begriffe in einem Satz oder in einer Formel: 1.
MehrMustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle
Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators
MehrGenerative Modelle. Generative Modelle 1 / 49
Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die
MehrEGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN
1 EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN UFBAU 1 Historie 2 Anwendungen / Ziele 3 Lineare Regression/ Beispiel KQ 4 Nichtlineare Regression 5 Eigenschaften der Schätzer istorie früheste Form
MehrZulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik, 5.5. Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß auf
MehrSpezielle Verteilungen
Spezielle Verteilungen Prof. Sabine Attinger Jun. Prof. Anke Hildebrandt Beschreibende Statistik Lagemaße: 1. Mittelwert: µ = x = 1 n n i= 1 x i 3. Median=0.5 Perzentil Beschreibende Statistik Streumaße:
MehrDie Datenmatrix für Überwachtes Lernen
Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x
MehrGenerative Modelle. Generative Modelle 1 / 49
Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrProbabilistische Graphische Modelle
Probabilistische Graphische Modelle 1 Probabilistische Graphische Modelle Sven Wachsmuth Universität Bielefeld, Technische Fakultät, AG Angewandte Informatik WS 2006/2007 Probabilistische Graphische Modelle
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrVarianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
MehrGrundlagen zu neuronalen Netzen. Kristina Tesch
Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrStatistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg
Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Dr. Stan Lai und Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer
MehrSeminar in Statistik - FS Nonparametric Bayes. Handout verfasst von. Ivo Francioni und Philippe Muller
Seminar in Statistik - FS 2008 Nonparametric Bayes Handout verfasst von Ivo Francioni und Philippe Muller Zürich, 17. März 2008 1 EINLEITUNG 1 1 Einleitung Bis jetzt haben wir in der Bayes schen Statistik
MehrVorlesung Wissensentdeckung
LS 8 Infrmatik Cmputergestützte Statistik Technische Universität Drtmund Lineare Mdelle zur Klassifikatin und Regressin Bias-Varianz Vrlesung Wissensentdeckung Klassifikatin und Regressin: Lineare Mdelle
MehrAlgebraische Statistik ein junges Forschungsgebiet. Dipl.-Math. Marcus Weber
Algebraische Statistik ein junges Forschungsgebiet Dipl.-Math. Marcus Weber Disputationsvortrag 15. Februar 2006 Gliederung 1. Statistische Modelle 2. Algebraische Interpretation statistischer Probleme
MehrBayessche Tomographie
Seminar: Bayessche Ansätze in der Bildanalyse Fakultät für Mathematik und Wirtschaftswissenschaften Universität Ulm 19.Juni 2006 Inhaltsverzeichnis 1 2 3 4 5 Literaturangaben Definition Tomographie Unter
MehrAufgabe Punkte
Institut für Mathematik Freie Universität Berlin Carsten Hartmann, Stefanie Winkelmann Musterlösung für die Nachklausur zur Vorlesung Stochastik I im WiSe 20/202 Name: Matr.-Nr.: Studiengang: Mathematik
MehrStatistisches Lernen
Statistisches Lernen Einheit 12: Modellwahl und Regularisierung Dr. rer. nat. Christine Pausch Institut für Medizinische Informatik, Statistik und Epidemiologie Universität Leipzig WS 2014/2015 1 / 28
MehrFINANZMATHEMATISCHE MODELLIERUNG AM SEKUNDÄRREGELLEISTUNGSMARKT
1 FINANZMATHEMATISCHE MODELLIERUNG AM SEKUNDÄRREGELLEISTUNGSMARKT Strommarkttreffen, 30. Juni 2017 Prilly Oktoviany prilly.oktoviany@itwm.fraunhofer.de in Zusammenarbeit mit Dr. Andreas Wagner Lukas Müller
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
Mehr2 Lineare Regression am Beispiel des Hall-Effekts
Lernziele Lektion 2 Sie kennen die Normalverteilung, die Studentsche t-verteilung, sowie die inverse Gammaverteilung und können mit deren Maximalwerten, Mittelwerten und Varianzen umgehen. Sie kennen und
MehrKlausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016
Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.
MehrStochastik Praktikum Lineare Modelle
Stochastik Praktikum Lineare Modelle Thorsten Dickhaus Humboldt-Universität zu Berlin 06.10.2010 Übersicht 1 Einfache lineare Regression 2 Multiple lineare Regression 3 Varianzanalyse 4 Verallgemeinerte
MehrEinführung in das statistische Lernen
Universität Ulm 24. April 2007 Inhalt Motivation Grundbegriffe Kleinste Quadrate und k-nächste-nachbar-methode Statistische Entscheidungstheorie Regressionsmodelle und Kernmethoden Zusammenfassung Modellwahl
MehrData Mining & Machine Learning Dipl.-Inf. Christoph Carl Kling
Web Science & Technologies University of Koblenz Landau, Germany Data Mining & Machine Learning Dipl.-Inf. Christoph Carl Kling Mündliche Prüfung Welche Methoden gibt es? Wie sind die Annahmen für die
MehrNumerische Methoden der Bayes-Inferenz. Helga Wagner Bayes Statistik WS 2010/11 338
Numerische Methoden der Bayes-Inferenz Helga Wagner Bayes Statistik WS 2010/11 338 Nichtkonjugierte Analyse Bei bekannter Likelihood und Priori-Verteilung kann die nichtnormierte Dichte der Posteriori-Verteilung
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrAnpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Hauptseminar - Methoden der experimentellen Teilchenphysik WS 2011/2012 Fabian Hoffmann 2. Dezember 2011 Inhaltsverzeichnis 1 Einleitung
MehrNeural Networks: Architectures and Applications for NLP
Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Katharina Morik und Claus Weihs Fakultäten Informatik und Statistik Technische Universität Dortmund Einl. Anwendungen Modellbildung Aufgaben Zusammenfassung Vorlesungsablauf
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Christoph Sawade/Niels Landwehr/Tobias Scheffer Überblick Problemstellung/Motivation Deterministischer i ti Ansatz:
MehrSignifikanztests Optimalitätstheorie
Kapitel Signifikanztests Optimalitätstheorie Randomisierte Tests In einem statistischen Modell M, A, P ϑ sei ein Testproblem gegeben: H : ϑ Θ gegen H : ϑ Θ ; wobei also durch Θ Θ Θ eine Zerlegung des Parameterbereichs
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informati Lehrstuhl Maschinelles Lernen Clusteranalyse Christoph Sawade/iels Landwehr/Tobias Scheffer Überblic Problemstellung/Motivation Deterministischer Ansatz: K-Means
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
MehrExponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models
Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models Korbinian Schwinger 3. November 003 Inhaltsverzeichnis Inhaltsverzeichnis Exponential Family 3. Definition...............................
Mehr2 Klassische statistische Verfahren unter Normalverteilungs-Annahme
7 Klassische statistische Verfahren unter Normalverteilungs-Annahme. χ s, t s, F r,s -Verteilung a) N,..., N s uiv N (0, ) Verteilung von Y := N +... + N s heißt Chi-Quadrat-Verteilung mit s Freiheitsgraden
MehrStochastik Praktikum Parametrische Schätztheorie
Stochastik Praktikum Parametrische Schätztheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 05.10.2010 Prolog Momentenmethode X : Ω 1 Ω Zufallsgröße, die Experiment beschreibt. Ein statistisches
MehrKlassifikationsverfahren haben viele Anwendungen. Binäres Klassifikationsverfahren auch zur Klassifikation in mehr als zwei Klassen verwendbar
Rückblick Klassifikationsverfahren haben viele Anwendungen Binäres Klassifikationsverfahren auch zur Klassifikation in mehr als zwei Klassen verwendbar Konfusionsmatrix stellt Vorhersagen und Daten gegenüber
Mehr