Mathematische Grundlagen (Bayes sches Lernen)

Ähnliche Dokumente
Mathematische Grundlagen

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Wahrscheinlichkeitstheorie 2

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...

Bayessche Lineare Regression

Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression

Elementare Wahrscheinlichkeitslehre

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Modelle diskreter Zufallsvariablen

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler

P (X = 2) = 1/36, P (X = 3) = 2/36,...

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Grundgesamtheit, Merkmale, Stichprobe. Eigenschaften der Stichprobe. Klasseneinteilung, Histogramm. Arithmetisches Mittel, empirische Varianz

Wichtige Definitionen und Aussagen

Einführung in die Wahrscheinlichkeitsrechnung

5 Binomial- und Poissonverteilung

Wirtschaftsmathematik

Stochastik für Ingenieure

Wahrscheinlichkeitstheorie und Statistik

Fit for Abi & Study Stochastik

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Multivariate Zufallsvariablen

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

1. Grundbegri e der Stochastik

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg

Biostatistik, Winter 2011/12

Clusteranalyse: Gauß sche Mischmodelle

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr

Wahrscheinlichkeitstheorie. Alea iacta est!

Konversatorium -Vorbereitung für die erste Diplomprüfung - Stochas0k. -Wahrscheinlichkeitstheorie-

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Willkommen zur Vorlesung Statistik (Master)

Statistik für Bachelorund Masterstudenten

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Biostatistik, Winter 2011/12

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Stochastik Wiederholung von Teil 1

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Willkommen zur Vorlesung Statistik (Master)

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Kapitel XI - Die n-fache unabhängige Wiederholung eines Experiments

Kapitel IV - Spezielle Verteilungen: Diskrete Verteilungen

Binomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec

Vorlesung: Statistik II für Wirtschaftswissenschaft

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Statistik I für Betriebswirte Vorlesung 3

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Satz von der totalen Wahrscheinlichkeit

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik. Mögliche Ergebnisse, auch Elementarereignisse bezeichnet

Wahrscheinlichkeit und Statistik: Zusammenfassung

Mathematische und statistische Methoden II

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

SozialwissenschaftlerInnen II

Grundbegriffe der Wahrscheinlichkeitsrechnung

4 Diskrete Wahrscheinlichkeitsverteilungen

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

Mehrdimensionale Zufallsvariablen

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Heute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung

STATISTISCHE METHODEN UND IHRE ANWENDUNGEN

Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression


Zufallsvariablen [random variable]

Sprechstunde zur Klausurvorbereitung

WAHRSCHEINLICHKEITSRECHNUNG

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Beispiel: Zufallsvariable

Klausur: Diskrete Strukturen I

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Mathematische und statistische Methoden II

Statistik für Ingenieure und Naturwissenschaftler

Formelsammlung: Statistik und Wahrscheinlichkeitstheorie

Statistik I für Betriebswirte Vorlesung 2

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Diskrete Verteilungen

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Numerische Methoden und Algorithmen in der Physik

Konzept diskreter Zufallsvariablen

3. Kombinatorik und Wahrscheinlichkeit

Diskrete Verteilungen

Transkript:

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Mathematische Grundlagen (Bayes sches Lernen) Tobias Scheffer Michael Großhans Paul Prasse Uwe Dick

Anwendungsbeispiel 1: Diagnostik Neuer Test wurde entwickelt Frage: Wie sicher ist die Person krank, wenn positives Testergebnis vorliegt? Studie: Auf kranken und gesunden Testpersonen (Zustand ist bekannt) wird Test angewandt Scheffer/Großhans/Prasse: Sprachtechnologie 2

Anwendungsbeispiel 2: Impfstoff Neuer Impfstoff wurde entwickelt Frage: Wie wirksam ist er? Wie oft verhindert er eine Infektion? Studie: Testpersonen werden geimpft; später wird untersucht, ob sie sich angesteckt haben Scheffer/Großhans/Prasse: Sprachtechnologie 3

Was untersucht man? Deskriptive Statistik: Beschreibung, Untersuchung von Eigenschaften von Stichproben (langweilig). Welcher Anteil der Testpersonen ist gesund geblieben? (= abzählen) Induktive Statistik: Welche Schlussfolgerungen über die Grundgesamtheit lassen sich aus Stichproben ziehen? (spannend, maschinelles Lernen). Wie viele Personen werden in Zukunft gesund bleiben? Wie sicher sind wir uns dessen? 4

Wahrscheinlichkeiten Frequentistische objektive Wahrscheinlichkeiten Wahrscheinlichkeit als relative Häufigkeit mit der ein Ereignis bei einer großen Zahl unabhängiger und wiederholter Experimente eintritt. Bayes sche, subjektive Wahrscheinlichkeiten Wahrscheinlichkeit als persönliche Überzeugung, dass ein Ereignis eintritt. Unsicherheit bedeutet hier Mangel an Information. Wie wahrscheinlich ist es, dass der Impfstoff wirkt? Neue Informationen (z.b. Studienergebnisse) können diese subjektive Wahrscheinlichkeiten verändern. 5

Wahrscheinlichkeitstheorie Zufallsexperiment: Definierter Prozess in dem eine Beobachtung ω erzeugt wird (Elementarereignis). Ereignisraum Ω: Menge aller möglichen Elementarereignisse; Anzahl aller Elementarereignisse ist Ω. Ereignis A: Teilmenge des Ereignisraums. Wahrscheinlichkeit P: Funktion welche Wahrscheinlichkeitsmasse auf Ereignisse A aus Ω verteilt. P( A) : P A 6

Wahrscheinlichkeitstheorie Wahrscheinlichkeit = normiertes Maß definiert durch Kolmogorow-Axiome: Wahrscheinlichkeit von Ereignis : Sicheres Ereignis: Wahrscheinlichkeit dass Ereignis oder Ereignis B eintritt mit A B (beide Ereignisse sind inkompatibel): Allgemein gilt: P( ) 1 A 0 PA ( ) 1 A P( A B) P( A) P( B) P( A B) P( A) P( B) P( A B) 7

Zufallsvariablen Zufallsvariable X ist Abbildung eines elementaren Ereignisses auf numerischen Wert X : x bzw. auf m-dimensionalen Vektor X :. x Maschinelles Lernen: auch Abbildungen auf Bäume und andere Strukturen möglich. Maschinelles Lernen: gleichgesetzt mit Ereignisraum. Bild der Zufallsvariable: X : X ( ) m 8

Diskrete Zufallsvariablen X nennt man eine diskrete Zufallsvariable, wenn sie nur diskrete Werte annehmen kann. Wahrscheinlichkeitsfunktion P weist jedem möglichen Wert einer Zufallsvariable eine Wahrscheinlichkeit zu. Summe der Verteilungsfunktion über alle Werte xx P X x 1 P X x 0;1 9

Stetige Zufallsvariablen X nennt man eine stetige Zufallsvariable, wenn sie sie kontinuierliche Werte annehmen kann. Die Werte der Verteilungsfunktion P entsprechen an jeder Stelle den kumulierten Wahrscheinlichkeiten P x P X x 0;1 Die Werte der Dichtefunktion p entsprechen an jeder Stelle den Änderungen der Verteilungsfunktion P X x px a mit px x dx x xa X 1 10

Zufallsvariablen Diskret: Z.B. Münzwurf Stegig: Z.B. Gaußsche Normalverteilung 11

Feinheiten der Notation P X Wahrscheinlichkeitsfunktion bzw. p X Dichtefunktion über alle möglichen Werte von X P X x konkreter Wahrscheinlichkeitswert bzw. p x konkreter Wert der Dichtefunktion X P x verkürzte Schreibweise von P X x p bzw. von px x wenn eindeutig ist, x welche Zufallsvariable gemeint ist. Meist werden Wahrscheinlichkeitsfunktion und Dichtefunktion nicht getrennt. 12

Erwartungswert Der Erwartungswert E(X) ist der gewichtete Mittelwert der möglichen Werte von X diskrete Zufallsvariable: E X xp X x xx kontinuierliche Zufallsvariable: E X xpx x dx X Die Varianz Var(X) ist der erwarte quadratische Abstand zum Erwartungswert von X 2 Var X E X E X 13

Erwartungswert: Beispiel St. Petersburger Spiel: Werfen einer Münze, bis sie zum ersten Mal Kopf zeigt passiert dies gleich beim ersten Wurf, gewinnt man 1 Euro falls nicht, verdoppelt sich der Gewinn so oft man Zahl geworfen hat der Gewinn den man am Ende erhält ist Zufallsvariable X Erwarteter (durchschnittlicher) Gewinn: E X xp X x xx 1 1 1 1 2 4 2 4 8 14

Gemeinsame Wahrscheinlichkeit ist die gemeinsame Wahrscheinlichkeitsverteilung der Zufallsvariablen X 1 und X 2 gemeinsamer Wertebereich: z.b.: X X 1 2 X kartesisches Produkt X 1 2 { (infiziert,infiziert), (infiziert, gesund), (gesund, infiziert), (gesund, gesund) } 15

Bedingte Wahrscheinlichkeiten Bedingte Wahrscheinlichkeit: Wahrscheinlichkeit eines der möglichen Werte von X mit Zusatzinformation: Diskrete Zufallsvariable: Stetige Zufallsvariable: P X x zusätzliche Information p X x zusätzliche Information 16

Abhängige Zufallsvariablen Zufallsvariablen X 1 und X 2 können abhängig oder unabhängig sein Unabhängig: P(X 1, X 2 ) = P(X 1 ) P(X 2 ) Beispiel: 2 aufeinanderfolgende Münzwürfe Ergebnis des zweiten hängt nicht vom ersten ab Impliziert: P(X 2 X 1 ) = P(X 2 ) Abhängig: P(X 1, X 2 )= P(X 1 ) P(X 2 X 1 ) P(X 1 ) P(X 2 ) Beispiel: Grippeinfektionen von 2 Sitznachbarn 17

Bedingte Unabhängigkeit Zufallsvariablen können abhängig sein, jedoch unabhängig gegeben eine weitere Zufallsvariable Die Zufallsvariablenvariablen X 1 und X 2 heißen bedingt unabhängig gegeben Y wenn gilt: P(X 1,X 2 Y) = P(X 1 Y) P(X 2 Y) Beispiel: Wirkrate des Impfstoffs bekannt Infektionswahrscheinlichkeiten der Personen unabhängig Wirkrate des Impfstoffs unbekannt Beobachtung eines Teils der Testpersonen gibt Information über restliche Testpersonen 18

Rechenregeln Produktregel: verallgemeinert: Summenregel: Sind Ereignisse A, B inkombatibel: P( A B) P( A) P( B) Randverteilung: 19

Rechenregeln Satz von Bayes: Inferiere P X Y aus P Y X, P X und P Y, P Y, X P X Y P Y P Y X P X PY X P X P X Y PY P X Y 20

Anwendungsbeispiel 1: Diagnostik Neuer Test wurde entwickelt Frage: Wie sicher ist die Person krank, wenn positives Testergebnis vorliegt? Studie: Auf kranken und gesunden Testpersonen (Zustand ist bekannt) wird Test angewandt Scheffer/Großhans/Prasse: Sprachtechnologie 21

Anwendungsbeispiel 2: Impfstoff Neuer Impfstoff wurde entwickelt Frage: Wie wirksam ist er? Wie oft verhindert er eine Infektion? Studie: Testpersonen werden geimpft; später wird untersucht, ob sie sich angesteckt haben Scheffer/Großhans/Prasse: Sprachtechnologie 22

Satz von Bayes: Beispiel Diagnostik-Beispiel: P(positiv krank) = 0,98 P(positiv gesund) = 0,05 P(krank) = 0,02 Gesucht für Testergebnis Test: Wahrscheinlichkeit, dass der Patient krank ist: Plausibelste Ursache arg max P Test P P krank, gesund Wahrscheinlichste Ursache P P krank Test arg max P P Test krank, gesund 23

Satz von Bayes Wahrscheinlichkeit der Ursache Urs. für eine Beobachtung Beob.: PUrs. PUrs. Beob. PBeob. Urs. P Beob. Beob. Beob. P P u P u uursachen P(Urs.): A-Priori-Wahrscheinlichkeit, Prior. P(Beob. Urs.): Likelihood. P(Urs. Beob.): A-Posteriori-Wahrscheinlichkeit, Posterior. 24

Prior, Likelihood und Posterior Subjektive Einschätzung, bevor man die Daten gesehen hat (a priori): Prior-Verteilung über die Modelle P(Krankheit) P(q), q Wirksamkeit des Impfstoffes Wie gut passen die Daten zum Modell: Likelihood P(Test Krankheit) P(Studie q), Subjektive Einschätzung, nachdem man die Daten gesehen hat (a posteriori): Posterior-Verteilung P(Krankheit Test) P(q Studie) 25

Prior Woher bekommt man die Prior-Verteilung? P(Krankheit) relativ naheliegend; diskret P(q): schwieriger; stetig; z.b. aus allen bisherigen Studien anderer Impfstoffe schätzen Es gibt keine richtige Prior-Verteilung! aber: unterschiedliche Prior-Verteilungen ermöglichen unterschiedlich gute Vorhersagen für die Zukunft Posterior-Verteilung ergibt sich deterministisch aus Prior und Likelihood der Beobachtungen durch Satz von Bayes 26

Beispiel Likelihood: Bernoulli-Verteilung Eine diskrete Verteilung mit den 2 möglichen Ereignissen 0 und 1 ist eine Bernoulli-Verteilung bestimmt durch genau einen Parameter: Verteilungsfunktion: 27

Beispiel Likelihood: Binomialverteilung Zusammenfassung mehrerer Bernoulli-verteilter Zufallsvariablen X 1,,X n mit gleichem Parameter q neue Zufallsvariable Y, die angibt, wie viele der X i positiv n sind: Y i1 Y ist Binomial-verteilt mit Parametern q und n Verteilungsfunktion: Binomialkoeffizient: Anzahl der Möglichkeiten, aus n Elementen y auszuwählen X Wahrscheinlichkeit, dass y der X i positiv sind i n y y, 1 P Y y n n y q q q Wahrscheinlichkeit, dass n-y der X i negativ sind 28

Beispiel Prior: Beta-Verteilung Verteilung über alle Wirkraten keine diskrete, sondern kontinuierliche Verteilung P(q) beschreibt eine Dichtefunktion Häufige Wahl (bei Parameterraum ): Beta-Verteilung definiert durch 2 Parameter a und b Beta-Funktion; dient der Normalisierung 29

Beispiel Prior: Beta-Verteilung Spezialfall: a = b = 1 ist Gleichverteilung 30

Schema für Ermittlung der Posterior- Verteilung Gegeben: Prior-Verteilung P(q) Beobachtungen x 1,,x n Likelihood P(x 1,,x n q) Gesucht: Posterior-Verteilung P(q x 1,,x n ) 1. Satz von Bayes anwenden 2. Randverteilung für kontinuierliche Parameter einsetzen 31

Ermittlung der Posterior-Verteilung: Beispiel Gegeben: Modellparameterraum Beta-Prior mit Parametern a und b : P(q)=Beta(q a,b) Bernoulli-Likelihood binäre Beobachtungen x 1,,x n, bedingt unabhängig gegeben Modellparameter q Gesucht: a positive Beobachtungen, b negative Posterior P(q x 1,,x n ) 32

Ermittlung der Posterior-Verteilung P q x x 1,, n,, q q /,, P x x P P x x 1 n 1 n P xi q P q / P x1,, xn i1 1 a b P X q P X 0 q P q / P x1,, x n a q a 1 b 1 b q 1 q 1 q / P x1,, x, n B ab a1 bb1 aa1 bb1 1 1 / dq Ba, b Ba, b a q q q q bb 1 aa q 1 1 q B a a, b b / B a, b Ba, b Beta q a a, b b n Satz von Bayes Bedingte Unabhängigkeit a positive, b negative Bernoulli- und Beta-Verteilung einsetzen Terme zusammenfassen, Randverteilungsformel Definition der Beta-Funktion Kürzen, Definition der Beta-Verteilung 33

Konjugierter Prior Im vorherigen Beispiel: Übergang vom Prior Beta(q a,b) durch a positive und b negative Beobachtungen zum Posterior Beta(q a+a,b+b) algebraische Form von Posterior und Prior identisch Die Beta-Verteilung ist der konjugierte Prior zur Bernoulli-Likelihood Immer vorteilhaft, den konjugierten Prior zu verwenden, um zu garantieren, dass der Posterior effizient berechenbar ist 34

Rechenbeispiel: Impfstudie Prior: Beta mit a=1, b=5 8 gesunde Testpersonen, 2 infizierte ergibt Posterior: Beta mit a=9, b=7 35

Parameterschätzung Bayes sche Inferenz liefert keinen Modellparameter, sondern Verteilung über Modellparameter Ermittlung des Modells mit der höchsten Wahrscheinlichkeit: MAP-Schätzung maximum-a-posteriori = maximiert den Posterior q MAP = argmax q P(q Beobachtungen) Im Gegensatz dazu: plausibelstes Modell = ML- Schätzung maximum-likelihood = maximiert die Likelihood ohne Berücksichtigung des Priors q ML = argmax q P(Beobachtungen q) 36

Parameterschätzung: Beispiel Impfstudie: Prior: Beta mit a=1, b=5 8 gesunde Testpersonen, 2 infizierte ergibt Posterior: Beta mit a=9, b=7 ML-Schätzung: q ML = argmax q P(Beob. q) MAP-Schätzung: q MAP = argmax q P(q Beob.) Likelihood-Funktion (keine Wahrscheinlichkeitsverteilung) 37

Vorhersage Welche Beobachtungen kann man in Zukunft erwarten, gegeben die Beobachtungen der Vergangenheit? Vorhersage für Testdaten, gegeben eine Menge von Trainingsdaten P(X neu X alt ) Vorhersage mit MAP-Schätzung: erst q MAP bestimmen durch q MAP = argmax q P(q X alt ) dann P(X neu q MAP ) bestimmen (Likelihood-Verteilung) Mit Informationsverlust verbunden: q MAP nicht echter Parameter, sondern wahrscheinlichster ignoriert, dass auch andere Modelle in Frage kommen 38

Bayes-optimale Vorhersage Kein Zwischenschritt über das MAP-Modell, sondern direkte Herleitung der Vorhersage: P X neu X alt 1. Randverteilung 2. bedingte Unabhängigkeit mitteln über alle Modelle (Bayesian Model-Averaging) q q, P X q X P q X dq neu alt alt P X q P q X dq neu Vorhersage gegeben Modell alt gewichtet durch: wie gut passt das Modell zu den früheren Beobachtungen? (Posterior) 39

Vorhersage: Beispiel Impfstudie: Mit welcher Wahrscheinlichkeit bleibt neue Person gesund, gegeben die Studie? Vorhersage mit MAP-Modell: q MAP = argmax q P(q Beob.) = 4/7 P(gesund q MAP ) = q MAP = 4/7 Bayes-optimale Vorhersage: P gesund X P gesund q P q X dq alt q q Beta q 9,7 dq Erwartungswert einer Beta-Verteilung q alt 9 16 40

Rekapitulation Bayes sches Lernen: einfacher besser subjektiver Prior: Ausgangsverteilung über die Modelle Beobachtungen aus der Vergangenheit: Likelihood gegeben Modellparameter ergibt durch Satz von Bayes Posterior: Verteilung über Modelle gegeben die Beobachtungen Mögliche Wege für Vorhersagen in der Zukunft: MAP-Modell berechnen (Maximierung des Posteriors), dann Vorhersage mit MAP-Modell Bayes-optimale Vorhersage: über alle Modelle mitteln, gewichtet mit ihrer Posterior-Wahrscheinlichkeit 41

Fragen? 42