Mathematische Grundlagen
|
|
|
- Theodor Adenauer
- vor 9 Jahren
- Abrufe
Transkript
1 Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Mathematische Grundlagen Tobias Scheffer Peter Haider Paul Prasse
2 Bayes sches Lernen: Anwendungsbeispiel Neuer Impfstoff wurde entwickelt Frage: Wie wirksam ist er? In wie viel % der Fälle verhindert er eine Infektion? Studie: Testpersonen werden geimpft; nach 1 Jahr wird untersucht, ob sie sich angesteckt haben Scheffer/Vanck: Sprachtechnologie 2
3 Was untersucht man? Deskriptive Statistik: Beschreibung, Untersuchung von Eigenschaften von Daten (langweilig). Welcher Anteil der Testpersonen ist gesund geblieben? (= abzählen) Induktive Statistik: Welche Schlussfolgerungen über die Realität lassen sich aus Daten ziehen? (spannend, maschinelles Lernen.) Wie viele Personen werden in Zukunft gesund bleiben? Wie sicher sind wir uns dessen? 3
4 Wahrscheinlichkeiten Thomas Bayes Frequentistische Wahrscheinlichkeiten Beschreiben die Möglichkeit des Eintretens intrinsisch stochastischer Ereignisse (z.b. Teilchenzerfall). Bayes sche, subjektive Wahrscheinlichkeiten Beschreiben die Möglichkeit des Eintretens von Ereignissen bezogen auf einen Grad von Informiertheit. Unsicherheit bedeutet hier Mangel an Information. Wie wahrscheinlich ist es, dass der Impfstoff wirkt? Neue Informationen (z.b. Studienergebnisse) können diese subjektive Wahrscheinlichkeiten verändern. 4
5 Begriffe Entität Wirksamkeit: Rate der Nicht-Infektionen Untersuchungen der n Patienten mögliche Untersuchungsergebnisse pro Patient Wahrscheinlichkeit, dass ein Patient gesund bleibt Bezeichung Modellparameter Zufallsvariablen Wertebereich der Zufallsv. Likelihood Scheffer/Vanck: Sprachtechnologie 5
6 Zufallsvariablen Ein Zufallsexperiment ist ein definierter Prozess, in dem eine Beobachtung erzeugt wird Zufallsvariablen (mit Großbuchstaben bezeichnet) sind Variablen, deren Wert vom Ausgang eines Zufallsexperiments abhängt Formell: Zufallsvariablen bilden Elemente eines Ereignisraums auf numerische Werte ab Maschinelles Lernen: Wertebereich einer Zufallsvariable gleichgesetzt mit Ereignisraum; nichtnumerische Werte erlaubt (Vektoren, Bäume, Wörter, ) 6
7 Wahrscheinlichkeitsfunktion Wahrscheinlichkeitsfunktion P weist jedem jedem möglichen Wert (mit Kleinbuchstaben bezeichnet) einer Zufallsvariable eine Wahrscheinlichkeit zu = Wahrscheinlichkeit, dass die Zufallsvariable X den Wert x annimmt Bedingte Wahrscheinlichkeit: Wahrscheinlichkeit eines der möglichen Werte von X mit Zusatzinformation 7
8 Likelihood Ereignis Wahrscheinlichkeit, dass der i-te Patient gesund bleibt, gegeben, dass die Wirksamkeitsrate gleich θ ist Modellparameter 8
9 Feinheiten der Notation P(X) Wahrscheinlichkeitsverteilung über alle möglichen Werte von X P(X = x) konkreter Wahrscheinlichkeitswert P(x) verkürzte Schreibweise von P(X = x), wenn eindeutig ist, welche Zufallsvariable gemeint ist 9
10 Diskrete Wahrscheinlichkeitsverteilung nennt man eine diskrete Wahrscheinlichkeitsverteilung, wenn X nur diskrete (im Gegensatz zu kontinuierlichen) Werte annehmen kann Wahrscheinlichkeiten liegen immer im Intervall Summe der Verteilungsfunktion über alle Werte = 1 10
11 Bernoulli-Verteilung Eine diskrete Verteilung mit den 2 möglichen Ereignissen 0 und 1 ist eine Bernoulli-Verteilung bestimmt durch genau einen Parameter: Verteilungsfunktion: 11
12 Binomialverteilung Zusammenfassung mehrerer Bernoulli-verteilter Zufallsvariablen X 1,,X n mit gleichem Parameter θ neue Zufallsvariable Z, die angibt, wie viele der X i positiv sind: Z ist Binomial-verteilt mit Parametern θ und n Verteilungsfunktion: Binomialkoeffizient: Anzahl der Möglichkeiten, daus n Elementen z auszuwählen Wahrscheinlichkeit, dass n-z der X i negativ sind Wahrscheinlichkeit, dass z der X i positiv sind 12
13 Gemeinsame Wahrscheinlichkeit ist die gemeinsame Wahrscheinlichkeitsverteilung der Zufallsvariablen X 1 und X 2 gemeinsamer Wertebereich: kartesisches Produkt z.b.: {beidepatienteninfiziert, Patient1infiziert&Patient2gesund, Patient1gesund&Patient2infiziert, beidepatientengesund} 13
14 Abhängige Zufallsvariablen Zufallsvariablen X 1 und X 2 können abhängig oder unabhängig sein Unabhängig: P(X 1, X 2 ) = P(X 1 ) P(X 2 ) Beispiel: 2 aufeinanderfolgende Münzwürfe Ergebnis des zweiten hängt nicht vom ersten ab Impliziert: P(X 2 X 1 ) = P(X 2 ) Abhängig: P(X 1, X 2 ) P(X 1 ) P(X 2 ) Beispiel: Grippeinfektionen von 2 Sitznachbarn 14
15 Bedingte Unabhängigkeit Zwei oder mehrere Zufallsvariablen können für sich genommen abhängig sein, aber unabhängig gegeben eine weitere Zufallsvariable wenn gilt: P(X 1,X 2 Y) = P(X 1 Y) P(X 2 Y) dann heißen X 1 und X 2 bedingt unabhängig gegeben Y Beispiel: Wirkrate des Impfstoffs bekannt Infektionswahrscheinlichkeiten der Testpersonen unabhängig Wirkrate des Impfstoffs unbekannt Beobachtung eines Teils der Testpersonen gibt Information über restliche Testpersonen 15
16 Rechenregeln Summenregel: Sind a und b disjunkte Ereignisse, dann gilt Beispiel: Sei X eine Zufallsvariable, die das Ergebnis eines Würfelwurfes beschreibt ungleich, da man P(X=2) doppelt zählen würde 16
17 Rechenregeln Randverteilung: Produktregel: egal, ob abhängig oder unabhängig verallgemeinert: 17
18 Satz von Bayes Umformungen der Produktregel ergibt zusammen: Satz von Bayes 18
19 Satz von Bayes Erklärung, Ursache für eine Beobachtung: P ( Ursache Beobachtung) = P( Beobachtung) P( Beobachtung P(Ursache): A-Priori-Wahrscheinlichkeit, Prior. P(Beobachtung Ursache): Likelihood. P(Ursache Beobachtung): A-Posteriori- Wahrscheinlichkeit, Posterior. P( Ursache) Ursache) P( Beobachtung) = P( Beobachtung Ursache = u) P( Ursache = u) u 19
20 Satz von Bayes: Beispiel Diagnostik: P(Test positiv Patient hat Krankheit) = 0,98 P(Test positiv Patient hat die Krankheit nicht) = 0,05 P(Patient hat Krankheit) = 0,02 Gesamtrate des Vorkommens dieser Krankheit Gesucht: Wahrscheinlichkeit, dass der Patient krank ist: P(krank=1 Test=1) Plausibelste (Maximum-Likelihood-) Ursache argmax k P(Test=1 krank=k) Wahrscheinlichste (Maximum-A-Posteriori-) Ursache argmax k P(krank=k Test=1) 20
21 Prior und Posterior Subjektive Einschätzung, bevor man die Daten gesehen hat (a priori): Prior-Verteilung über die Modelle P(Patient ist krank) P(Wirksamkeit des Impfstoffs) Wie gut passen die Daten zum Modell: Likelihood P(Test Krankheit) P(Testperson gesund Wirksamkeit), P(X θ) Subjektive Einschätzung, nachdem man die Daten gesehen hat (a posteriori): Posterior-Verteilung P(Krankheit Test) P(Wirksamkeit Studie), P(θ X 1,,X n ) 21
22 Prior Woher bekommt man die Prior-Verteilung? Im Diagnostik-Beispiel relativ naheliegend Impfstudie: schwieriger; z.b. aus allen bisherigen Studien anderer Impfstoffe schätzen Es gibt keine richtige Prior-Verteilung! aber: unterschiedliche Prior-Verteilungen ermöglichen unterschiedlich gute Vorhersagen für die Zukunft Posterior-Verteilung ergibt sich deterministisch aus Prior und Likelihood der Beobachtungen durch Satz von Bayes 22
23 Prior der Impfstudie Verteilung über alle Wirkraten keine diskrete, sondern kontinuierliche Verteilung P(θ) beschreibt eine Dichtefunktion Häufige Wahl (bei Parameterraum ): Beta-Verteilung definiert durch 2 Parameter α und β Beta-Funktion; dient der Normalisierung 23
24 Beta-Verteilung Spezialfall: α = β = 1 Gleichverteilung 24
25 Schema für Ermittlung der Posterior- Verteilung Gegeben: Prior-Verteilung P(θ) Beobachtungen x 1,,x n, Likelihood P(x 1,,x n θ) Gesucht: Posterior-Verteilung P(θ x 1,,x n ) 1. Satz von Bayes anwenden 2. Randverteilung für kontinuierliche Parameter einsetzen 25
26 Ermittlung der Posterior-Verteilung: Beispiel Gegeben: Modellparameterraum Beta-Prior mit Parametern α und β : P(θ)=Beta(θ α,β) Bernoulli-Likelihood binäre Beobachtungen x 1,,x n, bedingt unabhängig gegeben Modellparameter θ Gesucht: a positive Beobachtungen, b negative Posterior P(θ x 1,,x n ) 26
27 1. Satz von Bayes 2. bedingte Unabhängigkeit 3. a positive, b negative Beob. 4. Bernoulli- und Beta-Verteilung einsetzen 5. Terme zus.-fassen, Randverteilungsformel 6. Definition der Beta-Funktion 7. Kürzen, Definition der Beta-Verteilung 27
28 Konjugierter Prior Im vorherigen Beispiel: Übergang vom Prior Beta(θ α,β) durch a positive und b negative Beobachtungen zum Posterior Beta(θ α+a,β+b) algebraische Form von Posterior und Prior identisch Die Beta-Verteilung ist der konjugierte Prior zur Bernoulli-Likelihood Immer vorteilhaft, den konjugierten Prior zu verwenden, um zu garantieren, dass der Posterior effizient berechenbar ist 28
29 Rechenbeispiel: Impfstudie Prior: Beta mit α=1, β=5 8 gesunde Testpersonen, 2 infizierte ergibt Posterior: Beta mit α=9, β=7 29
30 Ermittlung des Posteriors: mechanisch Füllhöhe zu Beginn: Prior Likelihood-Funktion (nach hinten gewölbt) als Filter ergibt Posterior als resultierende Sandmenge Scheffer/Vanck: Sprachtechnologie Scheffer/Haider/Prasse: Sprachtechnologie Francis Galton,
31 Parameterschätzung Bayes sche Inferenz liefert keinen Modellparameter, sondern Verteilung über Modellparameter Ermittlung des Modells mit der höchsten Wahrscheinlichkeit: MAP-Schätzung maximum-a-posteriori = maximiert den Posterior θ MAP = argmax θ P(θ Beobachtungen) Im Gegensatz dazu: plausibelstes Modell = ML- Schätzung maximum-likelihood = maximiert die Likelihood ohne Berücksichtigung des Priors θ ML = argmax θ P(Beobachtungen θ) 31
32 Parameterschätzung: Beispiel Impfstudie: Prior: Beta mit α=1, β=5 8 gesunde Testpersonen, 2 infizierte ergibt Posterior: Beta mit α=9, β=7 ML-Schätzung: θ ML = argmax θ P(Beobachtungen θ) Lösungstipp: max(theta^8*(1-theta)^2) MAP-Schätzung: θ MAP = argmax θ P(θ Beobachtungen) Likelihood-Funktion (keine Wahrscheinlichkeitsverteilung) 32
33 Vorhersage Fragestellung: Welche Beobachtungen kann man in Zukunft erwarten, gegeben die Beobachtungen der Vergangenheit? = Vorhersage für Testdaten, gegeben eine Menge von Trainingsdaten P(X neu x 1,,x n ) Vorhersage mit MAP-Schätzung: erst θ MAP bestimmen durch θ MAP = argmax θ P(θ x 1,,x n ) dann P(X neu θ MAP ) bestimmen (Likelihood-Verteilung) ist manchmal einfach zu berechnen, ist aber mit Informationsverlust verbunden θ MAP nicht der wahre Modellparameter, sondern nur der wahrscheinlichste es wird ignoriert, dass auch andere Modelle in Frage kommen 33
34 Bayes-optimale Vorhersage Kein Zwischenschritt über das MAP-Modell, sondern direkte Herleitung der Vorhersage: 2. bedingte Unabhängigkeit mitteln über alle Modelle (Bayesian Model-Averaging) 1. Randverteilung gewichtet durch: wie gut passt das Modell zu den früheren Beobachtungen? (Posterior) Vorhersage gegeben Modell 34
35 Vorhersage: Beispiel Impfstudie: Mit welcher Wahrscheinlichkeit bleibt eine neue Person gesund, gegeben die Beobachtungen aus der Studie? Vorhersage mit MAP-Modell: θ MAP = argmax θ P(θ Beobachtungen) = 4/7 P(X neu = gesund θ MAP ) = θ MAP = 4/7 Bayes-optimale Vorhersage: Erwartungswert einer Beta-Verteilung mit Parametern α und β: 35
36 Erwartungswert Zufallsvariable X mit Verteilung P(X): Der Erwartungswert E(X) ist der gewichtete Mittelwert der möglichen Werte von X Werte werden mit ihrer Wahrscheinlichkeit gewichet diskrete Zufallsvariable: kontinuierliche Zufallsvariable: 36
37 Erwartungswert: Beispiel St. Petersburger Spiel: Man wirft eine Münze so lange, bis sie zum ersten Mal Kopf zeigt passiert dies gleich beim ersten Wurf, gewinnt man 1 Euro falls nicht, verdoppelt sich der Gewinn so oft man Zahl geworfen hat der Gewinn den man am Ende erhält ist eine Zufallsvariable X Erwarteter (durchschnittlicher) Gewinn: 37
38 Rekapitulation Bayes sches Lernen: einfacher besser subjektiver Prior: Ausgangsverteilung über die Modelle Beobachtungen aus der Vergangenheit: Likelihood gegeben Modellparameter ergibt durch Satz von Bayes Posterior: Verteilung über Modelle gegeben die Beobachtungen Vorhersagen für die Zukunft: entweder MAP-Modell berechnen (Maximierung des Posteriors), dann Vorhersage damit oder Bayes-optimale Vorhersage: über alle Modelle mitteln, gewichtet mit ihrer Posterior- Wahrscheinlichkeit 38
39 Fragen? 39
Mathematische Grundlagen (Bayes sches Lernen)
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Mathematische Grundlagen (Bayes sches Lernen) Tobias Scheffer Michael Großhans Paul Prasse Uwe Dick Anwendungsbeispiel 1: Diagnostik
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe
Statistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung
Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus
Bayessche Lineare Regression
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c
1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...
Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,
Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression
Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen
Wichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Modelle diskreter Zufallsvariablen
Statistik 2 für SoziologInnen Modelle diskreter Zufallsvariablen Univ.Prof. Dr. Marcus Hudec Zufallsvariable Eine Variable (Merkmal) X, deren numerische Werte als Ergebnisse eines Zufallsvorgangs aufgefasst
4 Diskrete Wahrscheinlichkeitsverteilungen
4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Unabhängigkeit von Ereignissen A, B unabhängig:
Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:
STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
Vorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
Heute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung
Heute Die Binomialverteilung Poissonverteilung Approximation der Binomialverteilung durch die Normalverteilung Arbeiten mit Wahrscheinlichkeitsverteilungen Die Binomialverteilung Man werfe eine Münze n
Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression
Überblick Grundkonzepte des Baes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression Baes sche Vorhersage Münzwürfe Lineare Regression 57 Erinnerung:
Statistische Sprachmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch
Clusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
Wahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.
Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.
Fit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler
Philipp Sibbertsen Hartmut Lehne Statistik Einführung für Wirtschafts- und Sozialwissenschaftler 2., überarbeitete Auflage 4^ Springer Gabler Inhaltsverzeichnis Teil I Deskriptive Statistik 1 Einführung
3 Wahrscheinlichkeitstheorie
Einige mathematische Konzepte 3 Wahrscheinlichkeitstheorie 3.1 Wahrscheinlichkeit Die Wahrscheinlichkeitstheorie modelliert Situationen, in denen Unsicherheit über bestimmte Aspekte der Umwelt vorherrscht.
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:
Latente Dirichlet-Allokation
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert
Bayes-Statistik F F F
Bayes-Statistik In einem Gerichtsprozess mutmaßt ein Geschworener, dass der Angeklagte zu 40% schuldig ist. Nun werden jedoch Fingerabdrücke des Angeklagten am Tatort gefunden. Der Chefermittler behauptet,
Wahrscheinlichkeitstheorie 2
Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):
TU DORTMUND Sommersemester 2018
Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade
Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen
Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
P (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression
Überblic Grundonepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münwürfe Lineare Regression Logistische Regression Bayes sche Vorhersage Münwürfe Lineare Regression 14 Modell für Münwürfe
Binomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec
Binomialverteilung Jakob Bernoulli (1654-1705) Ars Conjectandi Klassisches Verteilungsmodell für die Berechnung der Wahrscheinlichkeit für die Häufigkeit des Eintretens von Ereignissen in bestimmten noch
Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
Satz von der totalen Wahrscheinlichkeit
htw saar 1 Satz von der totalen Wahrscheinlichkeit Sei (Ω, P) ein Wahrscheinlichkeitsraum, und B 1,, B n seien paarweise disjunkte Ereignisse mit B i = Ω. Für jedes Ereignis A gilt dann: P(A) = P(A B 1
Stochastik für Ingenieure
Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:
Einführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran [email protected] Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Wahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
Einführung in die Wahrscheinlichkeitsrechnung
Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg [email protected] Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung
Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit
Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung
SozialwissenschaftlerInnen II
Statistik für SozialwissenschaftlerInnen II Henning Best [email protected] Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Wahrscheinlichkeitsfunktionen
STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet
Kapitel 10 Zufall und Wahrscheinlichkeit 10.1. Grundbegriffe Wahrscheinlichkeitsrechnung Zufallsvorgang Klein-Omega ω Groß-Omega Ω Stellt Modelle bereit, die es erlauben zufallsabhängige Prozesse abzuschätzen
Finanzmathematische Modelle und Simulation
Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf
Mathematische und statistische Methoden II
Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike [email protected] lordsofthebortz.de lordsofthebortz.de/g+
I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
1.5.4 Quantile und Modi. Bem [Quantil, Modus]
1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.73. [Quantil, Modus] und Vertei- Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung
Sprechstunde zur Klausurvorbereitung
htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)
Abitur 2016 Mathematik Stochastik IV
Seite 1 http://www.abiturloesung.de/ Seite Abitur 016 Mathematik Stochastik IV Bei einem Zufallsexperiment wird eine ideale Münze so lange geworfen, bis zum zweiten Mal Zahl (Z) oder zum zweiten Mal Wappen
7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
Modellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg
. Vorlesung Grundlagen in Statistik Seite 29 Beispiel Gegeben: Termhäufigkeiten von Dokumenten Problemstellung der Sprachmodellierung Was sagen die Termhäufigkeiten über die Wahrscheinlichkeit eines Dokuments
Biostatistik, Sommer 2017
1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes
Diskrete Verteilungen
Diskrete Verteilungen Bernoulli-Verteilung: X Bernoulli( ) Symbol für «verteilt wie» «Eperiment» mit zwei Ausgängen: «Erfolg» (X 1) oder «Misserfolg» (X ). Die Erfolgswahrscheinlichkeit sei. Wertebereich:
Konzepte der Statistik für die Messdatenanalyse
Konzepte der Statistik für die Messdatenanalyse Modelle Beispiel: optische Abbildung im Fernfeld (Fraunhoferbeugung) indirekte Messgröße: Abstand der beiden Spalte D Modell inverses Problem direkte Messgrößen:
Klausur: Diskrete Strukturen I
Universität Kassel Fachbereich 0/ 5.03.0 Dr. Sebastian Petersen Klausur: Diskrete Strukturen I Aufgabe. (8 Punkte) a) Sei X = {0, }. Geben Sie die Potenzmenge P (X) (durch Auflisten ihrer Elemente) an.
Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany [email protected] Definition: Unter einem Zufallsexperiment versteht man einen,
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel
Mathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
Stochastik und Statistik für Ingenieure Vorlesung 4
Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl
Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
Wahrscheinlichkeitsrechnung und Statistik
10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten
Mathematische und statistische Methoden II
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike [email protected]
Diskrete Verteilungen
Diskrete Verteilungen Bernoulli-Verteilung: X Bernoulli(p) Symbol für «verteilt wie» «Eperiment» mit zwei Ausgängen: «Erfolg» ( 1) oder «Misserfolg» ( ). Die Erfolgswahrscheinlichkeit sei p. Wertebereich
Multivariate Zufallsvariablen
Kapitel 7 Multivariate Zufallsvariablen 7.1 Diskrete Zufallsvariablen Bisher haben wir immer nur eine Zufallsvariable betrachtet. Bei vielen Anwendungen sind aber mehrere Zufallsvariablen von Interesse.
Konzept diskreter Zufallsvariablen
Statistik 1 für SoziologInnen Konzept diskreter Zufallsvariablen Univ.Prof. Dr. Marcus Hudec Beispiel: Zufallsvariable 3 Münzen werden unabhängig voneinander geworfen. Jede Münze kann entweder Kopf oder
Woche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit
Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany [email protected] Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,
I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Das Bayes'sche Prinzip
Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem
Institut für Statistik der LMU. FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER
Institut für Statistik der LMU FORMELSAMMLUNG 2003 zur STOCHASTIK FÜR BIOINFORMATIKER 2003 2003 Inhaltsverzeichnis 1 Elementare Wahrscheinlichkeitsrechnung 1 1.1 Die Axiome von Kolmogorov...........................
Vorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
Übungsblatt 7 zur Vorlesung Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker
Aufgabe Aufgabe 2 Übungsblatt 7 zur Vorlesung Wahrscheinlichkeitsrechnung und mathematische Statistik für Informatiker.2.202 Aufgabe Aufgabe 2 Bei einem Zufallsexperiment werden zwei Würfel geworfen und
5 Binomial- und Poissonverteilung
45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1
Institut für Biometrie und klinische Forschung. WiSe 2012/2013
Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive
Schriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
Wirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
Mehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
Zufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
Statistik für Ingenieure Vorlesung 4
Statistik für Ingenieure Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 21. November 2017 3.3 Wichtige diskrete Wahrscheinlichkeitsverteilungen 3.3.1 Diskrete
