Bayessche Netzwerke und ihre Anwendungen
|
|
- Hella Acker
- vor 8 Jahren
- Abrufe
Transkript
1 Bayessche Netzwerke und ihre Anwendungen 1. Kapitel: Grundlagen Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863) Fakultät für Informatik Universität der Bundeswehr München FT 2010 Dozent: Dr. Max Krüger
2 Inhalt 0 Literatur 1.1 Diskrete endliche Zufallsvariablen und Zufallsvektoren 1.2 Bedingte Wahrscheinlichkeiten FT 2010 Bayessche Netzwerke und ihre Anwendungen 2
3 Literatur (Auswahl) Finn v. Jensen & Thomas D. Nielsen: Bayesian Networks and Decision Graphs (2. ed.). Springer Science + Business Media, Adnan Darwiche: Modeling and Reasoning with Bayesian Networks. Cambridge University Press, Stuart Russel & Peter Norvig: Künstliche Intelligenz Ein moderner Ansatz (2. Aufl.). Pearson Education, Judea Pearl: Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference (revised second printing). Morgan Kaufmann Publishers Inc., FT 2010 Bayessche Netzwerke und ihre Anwendungen 3
4 Abschnitt 1.1: Diskrete endliche Zufallsvariablen und Zufallsvektoren FT 2010 Bayessche Netzwerke und ihre Anwendungen 4
5 Diskrete endliche Zufallsvariablen Definition: (informell; für Details vgl. Vorlesung W-Theorie) Eine diskrete endliche Zufallsvariable (auch: Variable, Zufallsgröße, Zustandsvariable) ist eine Funktion, die jedem Ausgang eines zugrunde liegenden Zufallsexperiments genau einen Zustand (Ergebnis) (Schreibeweise: ) aus einer endlichen Zustandsmenge (Ergebnismenge) zuordnet. Die endlich vielen verschiedenen Zustände schließen sich gegenseitig aus und sind erschöpfend. Wir bezeichnen Zufallsvariablen mit Großbuchstaben (insb. ) und Zustände mit Kleinbuchstaben (z. B. ). FT 2010 Bayessche Netzwerke und ihre Anwendungen 5
6 Wahrscheinlichkeitsfunktion einer endlichen Zufallsvariablen Definition: Für eine diskrete endliche Zufallsvariable mit ordnet die Wahrscheinlichkeitsfunktion für mit und jedem Zustand eine durch eine Wahrscheinlichkeit ausgedrückte Unsicherheit zu. Wir schreiben für die Wahrscheinlichkeitsfunktion auch bzw. kurz. Abkürzend wird für zudem notiert, sofern aus dem Kontext klar ist, zu welcher Variable der Zustand gehört. FT 2010 Bayessche Netzwerke und ihre Anwendungen 6
7 Wahrscheinlichkeitsmaß einer endlichen Zufallsvariablen Definition: Eine Wahrscheinlichkeitsfunktion diskrete endliche Zufallsvariable Wahrscheinlichkeitsmaß auf wird zu einem diskreten erweitert: für eine für alle. FT 2010 Bayessche Netzwerke und ihre Anwendungen 7
8 Diskrete endliche Zufallsvektoren Definition: (informell; für Details vgl. Vorlesung W-Theorie) Die diskreten endlichen Zufallsvariablen werden zu einem -dimensionalen Zufallsvektor mit der Zustandsmenge zusammengesetzt. Bemerkung: Sofern im Kontext nicht extra als vektorwertig herausgestellt werden muss, werden wir ebenfalls einfach als Zufallsvariable bezeichnen. FT 2010 Bayessche Netzwerke und ihre Anwendungen 8
9 Gemeinsame Wahrscheinlichkeitsfunktion Definition: Für mit hat die gemeinsame Wahrscheinlichkeitsfunktion die Form mit und. Bemerkung: Wie bei Zufallsfallsvariablen kann auch für Zufallsvektoren das zur gemeinsamen Wahrscheinlichkeitsfunktion gehörende gemeinsame Wahrscheinlichkeitsmaß auf definiert werden. FT 2010 Bayessche Netzwerke und ihre Anwendungen 9
10 Schreibweisen für die gemeinsame Wahrscheinlichkeitsfunktion Schreibweisen: (1) Wir vereinbaren als Bezeichner für die gemeinsame Wahrscheinlichkeitsfunktion des Zufallsvektors. (2) Die Reihenfolge der Zufallsvariablen sei irrelevant, d.h. wir setzen für jede Permutation. (3) Es sei. (4) Die Schreibweisen (1), (2) und (3) sind kombinierbar, wobei dann in der gemeinsamen Wahrscheinlichkeitsfunktion die aus (3) übernommenen Zufallsvariablen mit gegebenem Zustand als Argument in festgehalten werden. Z.B. ist der Ausdruck zulässig. FT 2010 Bayessche Netzwerke und ihre Anwendungen 10
11 Marginalisierung Satz: Sei mit Zufallsvektor mit Verteilungsfunkton. Für eine fest gewählte Zufallsvariable ist die Funktion eine gemeinsame Wahrscheinlichkeitsfunktion des (reduzierten) Zufallsvektors. Dieser Vorgang zur Reduktion des Zufallsvektors heißt Marginalisierung bezüglich der Variable (auch: Aussummierung). FT 2010 Bayessche Netzwerke und ihre Anwendungen 11
12 Rekursive und simultane Marginalisierung Eigenschaften der Marginalisierung: Marginalisierung kann rekursiv durchgeführt werden, d.h. hintereinander für mehrere Variablen. Marginalisierung kann simultan durchgeführt werden, d.h. für mehrere Variablen gleichzeitig. Dabei wird dann während der Marginalisierung über alle möglichen Zustandskombination der auszusummierenden Variablen summiert. Rekursive Marginalisierung bezüglich mehrerer Variablen mit beliebiger Marginalisierungsreihenfolge und simultane Marginalisierung bezüglich der gleichen Zufallsvariablen ergeben immer die gleiche (reduzierte) gemeinsame Wahrscheinlichkeitsfunktion. FT 2010 Bayessche Netzwerke und ihre Anwendungen 12
13 Übungsaufgabe 1.1: Sei ein Zufallsvektor gegeben mit den Zustandsmengen, und. Die gemeinsame Wahrscheinlichkeitsfunktion des Zufallsvektors ist durch die folgende gemeinsame Wahrscheinlichkeitstabelle festgelegt: Berechnen bzw. bestimmen Sie bitte: (1.) (2.) (3.) (4.) FT 2010 Bayessche Netzwerke und ihre Anwendungen 13
14 Abschnitt 1.2: Bedingte Wahrscheinlichkeiten FT 2010 Bayessche Netzwerke und ihre Anwendungen 14
15 Bedingte Wahrscheinlichkeit und Wahrscheinlichkeitsfunktion Definition: Sei ein -dim. Zufallsvektor. (1) Für die Elementarergebnisse und mit heißt der Ausdruck für für die bedingte Wahrscheinlichkeit von unter der Bedingung. (2) Durch Teil (1) wird die bedingte Wahrscheinlichkeitsfunktion elementweise definiert. Vorsicht: Nur ist Wahrscheinlichkeitsfunktion! FT 2010 Bayessche Netzwerke und ihre Anwendungen 15
16 Satz von Bayes (in bekannter Formulierung) Satz: (Satz, Regel bzw. Theorem von Bayes) Sei ein diskreter Wahrscheinlichkeitsraum, eine Partition von mit für alle und sei ein Ereignis mit, dann gilt:. FT 2010 Bayessche Netzwerke und ihre Anwendungen 16
17 Satz von Bayes für Zufallsvariablen (1.Formulierung) Satz: (Satz von Bayes für Zustände von Zufallsvariablen) Sei ein -dim. Zufallsvektor. Für die Elementarergebnisse und ( ) mit gilt:. FT 2010 Bayessche Netzwerke und ihre Anwendungen 17
18 Satz von Bayes für Zufallsvariablen (2.Formulierung) Satz: (Satz von Bayes für Wahrscheinlichkeitsfunktionen) Sei ein -dim. Zufallsvektor, dann gilt:. Diese Formulierung mittels (bedingter ) Wahrscheinlichkeitsfunktionen ist ungenau, da der Fall für einen Zustand nicht abgefangen wird. Trotzdem ist sie im Kontext Bayesscher Netzwerke üblich. FT 2010 Bayessche Netzwerke und ihre Anwendungen 18
19 Übungsaufgabe Bestimmen Sie bitte ausgehend vom Zufallsvektor aus Übungsaufgabe 1.1: a) b) und c) und zur Erinnerung: 2. Beweisen Sie bitte den Satz von Bayes! FT 2010 Bayessche Netzwerke und ihre Anwendungen 19
20 Bedingte Wahrscheinlichkeitstabellen Bemerkung: Sei ein -dim. Zufallsvektor. Eine bedingte Wahrscheinlichkeitsfunktion kann in einer bedingten Wahrscheinlichkeitstabelle (Conditional Probability Table CPT) dargestellt werden: FT 2010 Bayessche Netzwerke und ihre Anwendungen 20
21 A-priori und A-posteriori Wahrscheinlichkeiten Bezeichnungen: Sei ein -dim. Zufallsvektor und ein zugehöriges gemeinsames Ereignis. heißt die A-priori Wahrscheinlichkeit (oder auch unbedingte Wahrscheinlichkeit) des Ereignisses. heißt die A-posteriori Wahrscheinlichkeit (oder auch bedingte Wahrscheinlichkeit) des Ereignisses gegeben das Ereignis. FT 2010 Bayessche Netzwerke und ihre Anwendungen 21
22 Multiplikationsregel Satz: (Multiplikationsregel, Kettenregel) Sei ein -dimensionaler Zufallsvektor, dann lässt sich die gemeinsame Wahrscheinlichkeitsfunktion wie folgt darstellen: Beweisidee: Anwendung der Definition für die bedingten Wahrscheinlichkeiten und anschließendes Kürzen. FT 2010 Bayessche Netzwerke und ihre Anwendungen 22
23 Unabhängigkeit und bedingte Unabhängigkeit Definition: Zwei Zufallsvariablen (Zufallsvektoren) und heißen (1) (paarweise) unabhängig, falls... bzw. (2)... bedingt unabhängig gegeben die Zufallsvariable (Zufallsvektor), falls... jeweils für, und ggf. gilt. Als Kurzschreibweise wird auch bzw. verwendet. Diese Definitionen werden kanonisch auf voneinander total unabhängige Zufallsvariablen erweitert: bzw.. FT 2010 Bayessche Netzwerke und ihre Anwendungen 23
24 Übungsaufgabe 1.3: 1. Alternative Darstellung (bedingter) Unabhängigkeit: Zeigen Sie bitte, dass für (bzw. ) die Zufallsvariablen und genau dann (bedingt) unabhängig sind, wenn (bzw. ) gilt. Hinweis: Die Schreibweise bzw. bedeutet, dass die Funktionen jeweils für alle Argumente größer als Null sind. 2. Sind die Zufallsvariablen total unabhängig? FT 2010 Bayessche Netzwerke und ihre Anwendungen 24
25 Spam-Filterung mittels Naive-Bayes-Filter (1): Voraussetzungen Die Zugehörigkeit einer E zu Klasse Ham oder Spam wird als Zufallsvariable modelliert: mit. Für jedes in der E enthaltene Wort gibt es eine Zufallsvariable mit die angibt, ob dass Wort in der enthalten ist. Wir setzen die Kurznotation. Aus der Auswertung früherer, bereits klassifizierter s sind folgende Wahrscheinlichkeiten bekannt:, sowie und. Das Auftreten der Wörter in der wird als bedingt unabhängig modelliert:. FT 2010 Bayessche Netzwerke und ihre Anwendungen 25
26 Spam-Filterung mittels Naive-Bayes-Filter (2): Berechnung Die E soll als Spam klassifiziert werden, falls gilt: Mittels des Satzes von Bayes berechnet man:. und analog. Somit wird die E als Spam klassifiziert, falls gilt:. FT 2010 Bayessche Netzwerke und ihre Anwendungen 26
27 Ende Vielen Dank für Ihre Mitarbeit! FT 2010 Bayessche Netzwerke und ihre Anwendungen 27
3. Kapitel: Arbeiten mit Bayesschen Netzwerken. Fakultät für Informatik Universität der Bundeswehr München FT Dozent: Dr.
Bayessche Netzwerke und ihre Anwendungen 3. Kapitel: Arbeiten mit Bayesschen Netzwerken Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863)
Mehr4. Kapitel: Klassifizierung mit Bayesschen Netzwerken. Fakultät für Informatik Universität der Bundeswehr München FT Dozent: Dr.
Bayessche Netzwerke und ihre Anwendungen 4. Kapitel: Klassifizierung mit Bayesschen Netzwerken Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.:
MehrDefinition der Entropie unter Verwendung von supp(p XY )
Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion
MehrGrundbegriffe der Wahrscheinlichkeitstheorie
KAPITEL 1 Grundbegriffe der Wahrscheinlichkeitstheorie 1. Zufallsexperimente, Ausgänge, Grundmenge In der Stochastik betrachten wir Zufallsexperimente. Die Ausgänge eines Zufallsexperiments fassen wir
MehrLösungen Wahrscheinlichkeitstheorie
Lösungen Wahrscheinlichkeitstheorie Serie 6 Aufgabe 1 (stochastische Unabhängigkeit). Für die Ereignisse A, B und C sind folgende Wahrscheinlichkeiten bekannt: P (A) = 0, 2; P (B) = 0, 6; P (A \ B) = 0,
MehrLemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,
Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig, wenn für alle (s 1,..., s n ) {0, 1} n gilt, dass wobei A 0 i = Āi und A 1 i = A i. Pr[A s 1 1... Asn n ] = Pr[A
MehrSatz 18 (Satz von der totalen Wahrscheinlichkeit)
Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrSatz 16 (Multiplikationssatz)
Haug verwendet man die Denition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A \ B] = Pr[BjA] Pr[A] = Pr[AjB] Pr[B] : (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1 ; : : : ; A n
MehrQuantitative Methoden Wissensbasierter Systeme
Quantitative Methoden Wissensbasierter Systeme Probabilistische Netze und ihre Anwendungen Robert Remus Universität Leipzig Fakultät für Mathematik und Informatik Abteilung für Intelligente Systeme 23.
MehrBayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)
Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief
MehrSachrechnen/Größen WS 14/15-
Kapitel Daten & Wahrscheinlichkeit 3.1 Kombinatorische Grundlagen 3.2 Kombinatorik & Wahrscheinlichkeit in der Grundschule 3.3 Daten Darstellen 3.1 Kombinatorische Grundlagen Verschiedene Bereiche der
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,
MehrDie Probabilistische Methode
Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrSatz 16 (Multiplikationssatz)
Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.
MehrVenndiagramm, Grundmenge und leere Menge
Venndiagramm, Grundmenge und leere Menge In späteren Kapitel wird manchmal auf die Mengenlehre Bezug genommen. Deshalb sollen hier die wichtigsten Grundlagen und Definitionen dieser Disziplin kurz zusammengefasst
MehrAllgemeine Definition von statistischer Abhängigkeit (1)
Allgemeine Definition von statistischer Abhängigkeit (1) Bisher haben wir die statistische Abhängigkeit zwischen Ereignissen nicht besonders beachtet, auch wenn wir sie wie im Fall zweier disjunkter Mengen
MehrKapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen
Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrInhaltsverzeichnis (Ausschnitt)
6 Diskrete Wahrscheinlichkeitsräume Inhaltsverzeichnis (Ausschnitt) 6 Diskrete Wahrscheinlichkeitsräume Laplacesche Wahrscheinlichkeitsräume Kombinatorik Allgemeine diskrete Wahrscheinlichkeitsräume Deskriptive
MehrGrundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt
Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum
Mehr2. Rechnen mit Wahrscheinlichkeiten
2. Rechnen mit Wahrscheinlichkeiten 2.1 Axiome der Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeitsrechnung ist ein Teilgebiet der Mathematik. Es ist üblich, an den Anfang einer mathematischen Theorie
Mehr10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg
. Vorlesung Grundlagen in Statistik Seite 29 Beispiel Gegeben: Termhäufigkeiten von Dokumenten Problemstellung der Sprachmodellierung Was sagen die Termhäufigkeiten über die Wahrscheinlichkeit eines Dokuments
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 0.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
Mehr3. Grundbegriffe der Wahrscheinlichkeitstheorie
03. JULI 2006: BLATT 17 3. Grundbegriffe der Wahrscheinlichkeitstheorie (v.a. nach Manning/Schütze: 40ff und Fahrmeir /Künstler/Pigeot/Tutz: 171ff) Übersicht Um entscheiden zu können, ob eine statistische
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrUnterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Binomialverteilung und Bernoulli- Experiment
Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Binomialverteilung und Bernoulli- Experiment Das komplette Material finden Sie hier: Download bei School-Scout.de TOSSNET Der persönliche
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrBegriffe Wahrscheinlichkeitstheorie I
Begriffe Wahrscheinlichkeitstheorie I Träger / Alphabet einer diskreten Zufallsgröße nach ( 0.0) Der Träger S X R der diskreten Zufallsgröße X ist die Menge aller Werte x, die die Zufallsgröße (mit einer
MehrZufallsvariablen: Die allgemeine Definition
KAPITEL 8 Zufallsvariablen: Die allgemeine Definition 8.1. Zufallsvariablen Bis zu diesem Zeitpunkt haben wir ausschließlich Zufallsvariablen mit endlich oder abzählbar vielen Werten (also diskrete Zufallsvariablen)
Mehr1 Inhaltsverzeichnis. 1 Einführung...1
1 Inhaltsverzeichnis 1 Einführung...1 1.1 Arten der stochastischen Abhängigkeit...2 1.2 Wo kommen regressive Abhängigkeiten vor?...3 1.3 Hauptaufgaben von Regressionsmodellen...3 1.4 Wissenschaftstheoretische
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
MehrUniversität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt
Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert
MehrWahrscheinlichkeitsverteilungen
Wahrscheinlichkeitsverteilungen 1. Binomialverteilung 1.1 Abzählverfahren 1.2 Urnenmodell Ziehen mit Zurücklegen, Formel von Bernoulli 1.3 Berechnung von Werten 1.4 Erwartungswert und Standardabweichung
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrWahrscheinlichkeitsrechnung und Statistik
3. Vorlesung - 21.10.2016 Bedingte Wahrscheinlichkeit In einer Urne sind 2 grüne und 3 blaue Kugeln. 2 Kugeln werden ohne Zürücklegen gezogen. Welches ist die Wahrscheinlichkeit, dass : a) man eine grüne
MehrStatistik I für Betriebswirte Vorlesung 2
Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April
MehrWahrscheinlichkeitstheorie
Kapitel 2 Wahrscheinlichkeitstheorie Wir betrachten Ereignisse, die in fast gleicher Form öfter auftreten oder zumindest öfter auftreten können. Beispiele: Werfen eines Würfels, Sterben an Herzversagen
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
MehrAbschnitt 3.2: Der Satz von Ehrenfeucht
Abschnitt 3.2: Der Satz von Ehrenfeucht In diesem Abschnitt wird gezeigt, dass ein enger Zusammenhang zwischen EF-Spielen und der Ausdrucksstärke der Logik erster Stufe besteht. Zur Formulierung dieses
MehrBeispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal
Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.
MehrRumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen
Rumpfskript Elementare Wahrscheinlichkeitsrechnung Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Vorbemerkung Vorbemerkung Das vorliegende Skript heißt nicht nur Rumpf skript, sondern
MehrRückblick. Erweiterte b-adische Darstellung von Kommazahlen. 7,1875 dargestellt mit l = 4 und m = 4 Bits. Informatik 1 / Kapitel 2: Grundlagen
Rückblick Erweiterte b-adische Darstellung von Kommazahlen 7,1875 dargestellt mit l = 4 und m = 4 Bits 66 Rückblick Gleitkommazahlen (IEEE Floating Point Standard 754) lassen das Komma bei der Darstellung
MehrDefinition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis
Stochastische Prozesse: Grundlegende Begriffe bei zufälligen Prozessen In diesem Abschnitt beschäftigen wir uns mit den grundlegenden Begriffen und Definitionen von Zufallsexperimenten, also Prozessen,
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 10.01.2012 INSTITUT FÜR THEORETISCHE 0 KIT 12.01.2012 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik
MehrRückblick. Erweiterte b-adische Darstellung von Kommazahlen. 7,1875 dargestellt mit l = 4 und m = 4 Bits. Informatik 1 / Kapitel 2: Grundlagen
Rückblick Erweiterte b-adische Darstellung von Kommazahlen 7,1875 dargestellt mit l = 4 und m = 4 Bits 66 Rückblick Gleitkommazahlen (IEEE Floating Point Standard 754) lassen das Komma bei der Darstellung
MehrSeminar in Statistik - FS Nonparametric Bayes. Handout verfasst von. Ivo Francioni und Philippe Muller
Seminar in Statistik - FS 2008 Nonparametric Bayes Handout verfasst von Ivo Francioni und Philippe Muller Zürich, 17. März 2008 1 EINLEITUNG 1 1 Einleitung Bis jetzt haben wir in der Bayes schen Statistik
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
Mehr= 7! = 6! = 0, 00612,
Die Wahrscheinlichkeit, dass Prof. L. die Wette verliert, lässt sich wie folgt berechnen: Ω = {(i 1,..., i 7 ) : i j {1... 7}, j = 1... 7}, wobei i, j für den Wochentag steht, an dem die Person j geboren
MehrKlausur: Diskrete Strukturen I
Universität Kassel Fachbereich 10/16 13.09.01 Klausur: Diskrete Strukturen I Name: Vorname: Matrikelnummer: Versuch: Unterschrift: Bitte fangen Sie für jede Aufgabe ein neues Blatt an. Beschreiben Sie
MehrTheoretische Biophysik - Statistische Physik
Theoretische Biophysik - Statistische Physik 3. Vorlesung Pawel Romanczuk Wintersemester 2018 http://lab.romanczuk.de/teaching/ 1 Zusammenfassung letzte VL Einstieg in die Wahrscheinlichkeitstheorie Axiomatische
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
Mehrhtw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT Hans-Peter Hafner WS 2016/2017
htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT htw saar 2 Gliederung 25.01. Bedingte Wahrscheinlichkeit: Motivation und Definition Multiplikationssatz Stochastische Unabhängigkeit:
Mehrx p 2 (x )dx, Hinweis: es ist nicht erforderlich, zu integrieren!
Aufgabe T- Gegeben seien zwei normalverteilte Zufallsvariablen X N(µ, σ) 2 und X 2 N(µ 2, σ2) 2 mit pdf p (x) bzw. p 2 (x). Bestimmen Sie x (als Funktion der µ i, σ i, sodass x p (x )dx = + x p 2 (x )dx,
MehrWahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)
Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung
Mehr1.5.4 Quantile und Modi. Bem [Quantil, Modus]
1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.73. [Quantil, Modus] und Vertei- Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung
Mehr1 Wahrscheinlichkeitsrechnung und Zufallsvariablen
1 Wahrscheinlichkeitsrechnung und Zufallsvariablen Zoltán Zomotor Versionsstand: 18. Mai 2015, 09:29 Die nummerierten Felder bitte während der Vorlesung ausfüllen. This work is licensed under the Creative
MehrWahrscheinlichkeitsrechnung und Statistik
8. Vorlesung - 2017 Bemerkung: Sei X = (X 1,..., X n ) Zufallsvektor. Der n dimensionale Vektor ( ) E(X ) = E(X 1 ),..., E(X n ) ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N (0,
MehrEvidenzpropagation in Bayes-Netzen und Markov-Netzen
Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation
MehrDiskrete Mathematik 1
Ruhr-Universität Bochum Lehrstuhl für Kryptologie und IT-Sicherheit Prof Dr Alexander May M Ritzenhofen, M Mansour Al Sawadi, A Meurer Lösungsblatt zur Vorlesung Diskrete Mathematik WS 008/09 Blatt 4 /
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen. Bsp (3-maliges Werfen einer Münze) Menge der Elementarereignisse:
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen Bsp. 1.19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz, zzw,zwz,wzz,zww,wzw,wwz,www}. Dabei gilt: Ω 2 3 8 N. Wir definieren
MehrInhaltsverzeichnis (Ausschnitt)
8 Messbarkeit und Bildwahrscheinlichkeit Inhaltsverzeichnis (Ausschnitt) 8 Messbarkeit und Bildwahrscheinlichkeit Messbare Abbildungen Bildwahrscheinlichkeit Deskriptive Statistik und Wahrscheinlichkeitsrechnung
MehrKapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente
Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der
MehrBayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind
Bayessche Netze Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Einleitung Sicheres vs. Unsicheres Wissen Kausale Netzwerke Abhängigkeit Verbindungsarten Exkurs:
MehrEntscheidungs- und Spieltheorie
H. Bühlmann H. Loeffel E. Nievergelt Entscheidungs- und Spieltheorie Ein Lehrbuch für Wirtschaftswissenschaftler Mit 121 Figuren Springer-Verlag Berlin Heidelberg NewYork 1975 Inhaltsverzeichnis 1. Teil;
MehrKapitel 5 Stochastische Unabhängigkeit
Kapitel 5 Stochastische Unabhängigkeit Vorlesung Wahrscheinlichkeitsrechnung I vom SoSe 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 5.1 Das Konzept der stochastischen Unabhängigkeit. 1 Herleitung anhand
MehrWahrscheinlichkeitsrechnung und Quantentheorie
Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten
MehrKAPITEL 1. Martingale
KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst
MehrEinführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte
Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrÜbersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten
Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung
MehrWahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung
Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung - 2018 Anwendung der Bayesschen Theorie in ML Bayessche Netzwerke Bayessche Netze werden in modernen Expertensystemen benutzt. Das Wissen wird über
Mehr1 Elemente der Wahrscheinlichkeitstheorie
H.-J. Starkloff Unendlichdimensionale Stochastik Kap. 01 11. Oktober 2010 1 1 Elemente der Wahrscheinlichkeitstheorie 1.1 Messbare Räume Gegeben seien eine nichtleere Menge Ω und eine Menge A von Teilmengen
MehrTechnische Universität München
Stand der Vorlesung Kapitel 2: Auffrischung einiger mathematischer Grundlagen Mengen, Potenzmenge, Kreuzprodukt (Paare, Tripel, n-tupel) Relation: Teilmenge MxN Eigenschaften: reflexiv, symmetrisch, transitiv,
MehrMathematische und statistische Methoden II
Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+
MehrSatz von der totalen Wahrscheinlichkeit
htw saar 1 Satz von der totalen Wahrscheinlichkeit Sei (Ω, P) ein Wahrscheinlichkeitsraum, und B 1,, B n seien paarweise disjunkte Ereignisse mit B i = Ω. Für jedes Ereignis A gilt dann: P(A) = P(A B 1
Mehr4 Diskrete Wahrscheinlichkeitsverteilungen
4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder
MehrWahrscheinlichkeitsrechnung und Statistik
7. Vorlesung - 2018 Bemerkung: Sei X = X 1,..., X n Zufallsvektor. Der n dimensionale Vektor EX = EX 1,..., EX n ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N0, 1. X, Y sind die Koordinaten
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick
MehrKlausur: Diskrete Strukturen I
Universität Kassel Fachbereich 0/ 5.03.0 Dr. Sebastian Petersen Klausur: Diskrete Strukturen I Aufgabe. (8 Punkte) a) Sei X = {0, }. Geben Sie die Potenzmenge P (X) (durch Auflisten ihrer Elemente) an.
MehrElemente der Stochastik (SoSe 2016) 9. Übungsblatt
Dr. M. Weimar 06.06.2016 Elemente der Stochastik (SoSe 2016) 9. Übungsblatt Aufgabe 1 (2+2+2+2+1=9 Punkte) In einer Urne befinden sich sieben Lose, darunter genau ein Gewinnlos. Diese Lose werden nacheinander
MehrSprechstunde zur Klausurvorbereitung
htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)
MehrWiederholung. Einführung in die Wahrscheinlichkeitstheorie Wahrscheinlichkeitsraum Ergebnismenge Ω = {ω 1, ω 2, } mit ω Ω Pr[ω]=1.
Wiederholung Einführung in die Wahrscheinlichkeitstheorie Wahrscheinlichkeitsraum Ergebnismenge Ω = {ω 1, ω, } mit ω Ω Pr[ω]=1. Berechnung von Pr[ n i=1 A i ]: A i disjunkt: Additionssatz n i=1 Pr[A i
MehrMathematische Grundlagen I Logik und Algebra
Logik und Algebra Dr. Tim Haga 21. Oktober 2016 1 Aussagenlogik Erste Begriffe Logische Operatoren Disjunktive und Konjunktive Normalformen Logisches Schließen Dr. Tim Haga 1 / 21 Präliminarien Letzte
MehrKapitel 4. Reihen 4.1. Definition und Beispiele
Kapitel 4. Reihen 4.1. Definition und Beispiele Ist (a n ) eine Folge von Zahlen, so heißt der formale Ausdruck a ν = a 0 + a 1 + a 2 +... eine Reihe; die einzelnen a ν sind die Glieder dieser Reihe. Um
Mehr15.5 Stetige Zufallsvariablen
5.5 Stetige Zufallsvariablen Es gibt auch Zufallsvariable, bei denen jedes Elementarereignis die Wahrscheinlich keit hat. Beispiel: Lebensdauer eines radioaktiven Atoms Die Lebensdauer eines radioaktiven
MehrZusatzmaterial zur Vorlesung Statistik II
Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November
Mehr