Quantitative Methoden Wissensbasierter Systeme
|
|
|
- Dorothea Giese
- vor 9 Jahren
- Abrufe
Transkript
1 Quantitative Methoden Wissensbasierter Systeme Probabilistische Netze und ihre Anwendungen Robert Remus Universität Leipzig Fakultät für Mathematik und Informatik Abteilung für Intelligente Systeme 23. Januar /34
2 Übersicht 1 Bayes sche Netze Wahrscheinlichkeitstheoretische Grundlagen Graphentheoretische Grundlagen Motivation Bayes scher Netze Beispiele Bayes scher Netze Definition eines Bayes schen Netzes 2 Inferenz in probabilistischen Netzen Bayes-Netze und ihre Potentialdarstellungen Der permanente Cliquenbaum als Wissensbasis 2/34
3 Übersicht 1 Bayes sche Netze Wahrscheinlichkeitstheoretische Grundlagen Graphentheoretische Grundlagen Motivation Bayes scher Netze Beispiele Bayes scher Netze Definition eines Bayes schen Netzes 2 Inferenz in probabilistischen Netzen Bayes-Netze und ihre Potentialdarstellungen Der permanente Cliquenbaum als Wissensbasis 3/34
4 Bedingte Wahrscheinlichkeit Sei P eine Wahrscheinlichkeitsfunktion Seien A,B Formeln mit P(A) > 0 Dann ist die bedingte Wahrscheinlichkeit von B gegeben A definiert als P(A B) P(B A) = P(A) P(B A) gibt also die Wahrscheinlichkeit dafür an, dass wenn A wahr ist, auch B wahr ist 4/34
5 Der Satz von Bayes Sei P eine Wahrscheinlichkeitsfunktion und seien A,B Formeln mit P(A) > 0,P(B) > 0, dann gilt der Satz von Bayes P(B A) = P(A B)P(B) P(A) 5/34
6 Übersicht 1 Bayes sche Netze Wahrscheinlichkeitstheoretische Grundlagen Graphentheoretische Grundlagen Motivation Bayes scher Netze Beispiele Bayes scher Netze Definition eines Bayes schen Netzes 2 Inferenz in probabilistischen Netzen Bayes-Netze und ihre Potentialdarstellungen Der permanente Cliquenbaum als Wissensbasis 6/34
7 Cliquen G = V, E sei ein ungerichteter Graph mit V Menge der Knoten E Menge der Kanten Eine Menge C V heißt Clique von G, wenn C eine maximal vollständige Menge ist, d.h. wenn alle Knoten aus C paarweise durch eine Kante aus E miteinander verbunden sind und wenn es keine vollständige Teilmenge von V gibt, die C echt enthält 7/34
8 Triangulierte Graphen G = V, E sei ein ungerichteter Graph Eine Sehne eines Zyklus v 0,...,v n in G ist eine Kante zwischen zwei nicht aufeinanderfolgenden Knoten v i,v j, d.h. i j > 1 G heißt trianguliert, wenn jeder einfache Zyklus der Länge l > 3 eine Sehne besitzt 8/34
9 Fill-in-Graphen G = V, E sei ein ungerichteter Graph α sei eine lineare Ordnung auf den Knoten von G Der Fill-in von G bzgl. α ist die Kantenmenge F(α), wobei (v, w) F(α) gdw. (v, w) / E und es einen Weg zwischen v, w gibt, der außer v, w nur Knoten enthält, die bzgl. der Ordnung α v, w nachgeordnet sind Der Fill-in-Graph von G bzgl. α ist der Graph G(α) ist trianguliert G(α) = V, E F(α) 9/34
10 Morale Graphen G = V, E sei ein DAG 1 Der morale Graph G m zu G wird folgendermaßen konstruiert: Sind zwei Knoten u, v Elternknoten eines gemeinsames Kindknotens w, d.h. u, v pa(w) und sind u, v noch durch keine Kante verbunden, füge die Kante (u, v) oder die Kante (v, u) zu E hinzu Dadurch entsteht ein gerichteter Graph G d m G m ist der zu G d m gehörige ungerichtete Graph 1 Directed Acyclic Graph 10/34
11 Übersicht 1 Bayes sche Netze Wahrscheinlichkeitstheoretische Grundlagen Graphentheoretische Grundlagen Motivation Bayes scher Netze Beispiele Bayes scher Netze Definition eines Bayes schen Netzes 2 Inferenz in probabilistischen Netzen Bayes-Netze und ihre Potentialdarstellungen Der permanente Cliquenbaum als Wissensbasis 11/34
12 Motivation Bayes scher Netze - Beispiel die Zufallsvariablen A,B bezeichnen die Ergebnisse der Würfe zweier gleicher, fairer Münzen die Zufallsvariable C bezeichnet das Klingeln einer Glocke gdw. die Münzen nach einem Wurf das gleiche Bild zeigen A, B sind unabhängig A,B sind bedingt abhängig unter Kenntnis von C ein Graph G müsste nun die Unabhängigkeit von A,B und die Abhängigkeit von A, B, C, d.h. einseitige Abhängigkeiten, zum Ausdruck bringen dies ist jedoch mit einem ungerichteten Graphen G nicht möglich 12/34
13 Übersicht 1 Bayes sche Netze Wahrscheinlichkeitstheoretische Grundlagen Graphentheoretische Grundlagen Motivation Bayes scher Netze Beispiele Bayes scher Netze Definition eines Bayes schen Netzes 2 Inferenz in probabilistischen Netzen Bayes-Netze und ihre Potentialdarstellungen Der permanente Cliquenbaum als Wissensbasis 13/34
14 Beispiele Bayes scher Netze I Holmes & Watson in London G,H u,w u seien zweiwertige Zufallsvariablen G : glatte Straßen H u : Holmes hat einen Unfall W u : Watson hat einen Unfall G H u W u 14/34
15 Beispiele Bayes scher Netze I Holmes & Watson in London G,H u,w u seien zweiwertige Zufallsvariablen G : glatte Straßen H u : Holmes hat einen Unfall W u : Watson hat einen Unfall G H u W u 14/34
16 Beispiele Bayes scher Netze II Holmes & Watson in Los Angeles R,S,H r,w r seien zweiwertige Zufallsvariablen R: es hat geregnet S: der Rasensprenger hat sich eingeschaltet H r : Holmes Rasen ist nass W r : Watsons Rasen ist nass R S W r H r 15/34
17 Beispiele Bayes scher Netze II Holmes & Watson in Los Angeles R,S,H r,w r seien zweiwertige Zufallsvariablen R: es hat geregnet S: der Rasensprenger hat sich eingeschaltet H r : Holmes Rasen ist nass W r : Watsons Rasen ist nass R S W r H r 15/34
18 Beispiele Bayes scher Netze II Holmes & Watson in Los Angeles R,S,H r,w r seien zweiwertige Zufallsvariablen R: es hat geregnet S: der Rasensprenger hat sich eingeschaltet H r : Holmes Rasen ist nass W r : Watsons Rasen ist nass R S W r H r 15/34
19 Übersicht 1 Bayes sche Netze Wahrscheinlichkeitstheoretische Grundlagen Graphentheoretische Grundlagen Motivation Bayes scher Netze Beispiele Bayes scher Netze Definition eines Bayes schen Netzes 2 Inferenz in probabilistischen Netzen Bayes-Netze und ihre Potentialdarstellungen Der permanente Cliquenbaum als Wissensbasis 16/34
20 Definition eines Bayes schen Netzes V sei eine Menge von Aussagenvariablen P sei eine gemeinsame Verteilung über V G = V, E sei ein DAG für jedes A i V bezeichne pa(a i ) V die Menge aller Elternknoten, de(a i ) V die Menge aller Nachkommen und nd(a i ) V die Menge aller Nicht-Nachkommen von A i B = V, E,P heißt dann Bayes sches Netz, wenn für jedes A i gilt: A i P nd(a i ) pa(a i ) 2 = 2 d.h. A i ist probabilistisch unabhängig von der Ausprägung seiner Nicht-Nachkommen unter Kenntnis der Ausprägung seiner Elternknoten 17/34
21 Berechnung der gemeinamen Verteilung P Wendet man die Kettenregel an und lässt in sie die Unabhängigkeitsannahmen A i P nd(a i ) pa(a i ) einfließen, zerfällt die Verteilung P in ein handliches Produkt: = B = V, E,P sei Bayes sches Netz die gemeinsame Verteilung P lässt sich dann durch P(V) = P(V pa(v )) V V mit P(V ) = P(V ) darstellen 18/34
22 Übersicht 1 Bayes sche Netze Wahrscheinlichkeitstheoretische Grundlagen Graphentheoretische Grundlagen Motivation Bayes scher Netze Beispiele Bayes scher Netze Definition eines Bayes schen Netzes 2 Inferenz in probabilistischen Netzen Bayes-Netze und ihre Potentialdarstellungen Der permanente Cliquenbaum als Wissensbasis 19/34
23 Bayes-Netze und ihre Potentialdarstellungen B = V, E,P sei Bayes sches Netz mit DAG G = V, E G u sei eine Triangulierung des moralen Graphen G m von G {C i 1 i p} seien die Cliquen von G u Wähle für jedes V V eine Clique clq(v ) {C i 1 i p}, so dass V pa(v ) clq(v ) gilt Definiere für 1 i p ψ(c i ) = V :clq(v )=C i P(V pa(v )) {C 1,...,C p ;ψ} ist dann eine Potentialdarstellung von P 20/34
24 Übersicht 1 Bayes sche Netze Wahrscheinlichkeitstheoretische Grundlagen Graphentheoretische Grundlagen Motivation Bayes scher Netze Beispiele Bayes scher Netze Definition eines Bayes schen Netzes 2 Inferenz in probabilistischen Netzen Bayes-Netze und ihre Potentialdarstellungen Der permanente Cliquenbaum als Wissensbasis 21/34
25 Der permanente Cliquenbaum als Wissensbasis Cliquenbaum und Potentialdarstellung bilden zusammen die Wissensbasis. 22/34
26 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung I Gegeben sei das Bayes sche Netzwerk B = V, E, P mit DAG (V, E) aus dem Holmes & Watson in Los Angeles Beispiel : R S W r H r 1 Bilde den moralen Graphen G m von (V, E) 23/34
27 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung II Lösung: Der morale Graphe G m von (V, E): R S W r H r 2 Triangulierung von G m : Bestimme mittels Maximum Cardinality Search eine lineare Ordnung α auf den Knoten V V 24/34
28 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung III Lösung: Eine lineare Ordnung α auf den Knoten in V: α(w r ) = 1 α(r) = 2 α(s) = 3 α(h r ) = 4 2 Triangulierung von G m : Berechne den Fill-in-Graphen G(α) von G m 25/34
29 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung IV Lösung: Der Fill-in-Graph G(α) von G m enthält keine neuen Kanten, es gilt also G(α) = G m = G 3 Ordnung der Cliquen: Bestimme die Cliquen C i von G 26/34
30 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung V Lösung: Die Cliquen C i von G : C 1 = {R,W r } C 2 = {R,S,H r } 3 Ordnung der Cliquen: Ordne die Cliquen C i nach dem gemäß α jeweils größten in ihnen vorkommenden Knoten 27/34
31 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung VI Lösung: Ordnung der Cliquen C i ist gegeben durch (C 1,C 2 ) 4 Bestimme für 1 i p die Mengen R i und S i : S i = C i (C 1... C i 1 ) R i = C i \ S i 28/34
32 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung VII Lösung: die Mengen R i und S i für 1 i p = 2: S 1 = C 1 C 0 = S 2 = C 2 C 1 = {R} R 1 = {R,W r } R 2 = {S,H r } 5 Bestimme für jedes i > 1 ein j < i, so dass S i C j 29/34
33 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung VIII Lösung: Ein j < i für i > 1, so dass S i C j : j = 1, da S 2 = {R} {R,W r } = C 1. C 1 heißt jetzt Elternclique von C 2 6 Bilde anhand der im vorherigen Punkt festgelegten Eltern-Kind-Beziehungen einen Cliquenbaum 30/34
34 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung IX Lösung: Der Cliquenbaum: C 1 R C 2 7 Bestimme zu jedem V V eine Clique clq(v ) mit {V } pa(v ) clq(v ) 31/34
35 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung X Lösung: Cliquen clq(v ) mit {V } pa(v ) clq(v ) für jedes V V: clq(w r ) = C 1 clq(r) = C 2 clq(s) = C 2 clq(h r ) = C 2 8 Definiere für 1 i p ψ(c i ) = V :clq(v )=C i P(V pa(v )) 32/34
36 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung XI Lösung: Definition von ψ(c i ) für i = 1 ψ(c 1 ) = ψ({r,w r }) = P(W r R) also R W r ψ({r,w r }) /34
37 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung XII Lösung: Definition von ψ(c i ) für i = 2 : ψ(c 2 ) = ψ({r,s,h r }) = P(R)P(S)P(H r R,S) also R S W r ψ({r,s,h r }) /34
Lösungshinweise zu Kapitel 13
L-112 Lösungshinweise zu Kapitel 13 zu Selbsttestaufgabe 13.2 (Eigenschaften der bedingten Unabhängigkeit) Sei P eine Wahrscheinlichkeitsverteilung über V. Wir setzen im Folgenden stillschweigend voraus,
2. Rechnen mit Wahrscheinlichkeiten
2. Rechnen mit Wahrscheinlichkeiten 2.1 Axiome der Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeitsrechnung ist ein Teilgebiet der Mathematik. Es ist üblich, an den Anfang einer mathematischen Theorie
I. II. I. II. III. IV. I. II. III. I. II. III. IV. I. II. III. IV. V. I. II. III. IV. V. VI. I. II. I. II. III. I. II. I. II. I. II. I. II. III. I. II. III. IV. V. VI. VII. VIII.
Bayessche Netzwerke und ihre Anwendungen
Bayessche Netzwerke und ihre Anwendungen 1. Kapitel: Grundlagen Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863) Fakultät für Informatik
Algorithmen und Datenstrukturen 2
Algorithmen und Datenstrukturen 2 Sommersemester 2006 3. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik [email protected] Algorithmen für Graphen Fragestellungen: Suche
Flüsse, Schnitte, bipartite Graphen
Flüsse, Schnitte, bipartite Graphen Vlad Popa 08.06.2010 Inhaltsverzeihnis 1. Flussnetzwerke und Flüsse 1.1 Ford- Fulkerson 1.2 Edmond Karp 1.3 Dinic 2. Schnitte 3. Maximaler Fluss bei minimalen Kosten
1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie
Gliederung 1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. äume / Graphen. Hashing 6. Algorithmische Geometrie 4/6, Folie 1 2014 Prof. Steffen Lange - HDa/FbI
KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN
KPITEL 6 GNZZHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULRE MTRIZEN F. VLLENTIN,. GUNDERT. Ganzzahlige lineare Programme Viele Optimierungsprobleme des Operations Research lassen sich als ganzzahlige lineare
Allgemeine Definition von statistischer Abhängigkeit (1)
Allgemeine Definition von statistischer Abhängigkeit (1) Bisher haben wir die statistische Abhängigkeit zwischen Ereignissen nicht besonders beachtet, auch wenn wir sie wie im Fall zweier disjunkter Mengen
Bayes sche und probabilistische Netze
Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung
6. Induktives Beweisen - Themenübersicht
6. Induktives Beweisen - Themenübersicht Ordnungsrelationen Partielle Ordnungen Quasiordnungen Totale Ordnungen Striktordnungen Ordnungen und Teilstrukturen Noethersche Induktion Anwendung: Terminierungsbeweise
Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier
Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier [email protected] 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre
Evidenzpropagation in Bayes-Netzen und Markov-Netzen
Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation
2 Rationale und reelle Zahlen
2 reelle Es gibt Mathematik mit Grenzwert (Analysis) und Mathematik ohne Grenzwert (z.b Algebra). Grenzwerte existieren sicher nur dann, wenn der Zahlbereich vollständig ist, also keine Lücken aufweist
Graphentheorie Graphentheorie. Grundlagen Bäume Eigenschaften von Graphen Graphen-Algorithmen Matchings und Netzwerke
Graphen Graphentheorie Graphentheorie Grundlagen Bäume Eigenschaften von Graphen Graphen-Algorithmen Matchings und Netzwerke 2 Was ist ein Graph? Ein Graph ist in der Graphentheorie eine abstrakte Struktur,
Kenngrößen von Zufallsvariablen
Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert
Definition der Entropie unter Verwendung von supp(p XY )
Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
Randomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick
SS 2013 1.1-1 / 12
AMPELSTEUERUNG EINER KREUZUNG [email protected] SS 2013 1.1-1 / 12 (A) PROBLEM D C E B A Ziel (1) Sicherheit: keine kollidierenden Wege gleichzeitig, z.b. EB und AD Ziel (2) Maximierung:
Deskriptive Statistik Kapitel IX - Kontingenzkoeffizient
Deskriptive Statistik Kapitel IX - Kontingenzkoeffizient Georg Bol [email protected] Markus Höchstötter [email protected] Agenda 1. Untersuchung der Abhängigkeit 2.
Bayesnetzmodelle (BNM) in der Kardiologie
Bayesnetzmodelle (BNM) in der Kardiologie Vorgehensmodell - Ergebnisse Claus Möbus - Heiko Seebold Jan-Ole Janssen, Andreas Lüdtke, Iris Najman, Heinz-Jürgen Thole Besonderen Dank an: Herrn Reinke (Münster)
Künstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen
Lineare Algebra II 5. Übungsblatt
Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,
Das Rucksackproblem. Definition Sprache Rucksack. Satz
Das Rucksackproblem Definition Sprache Rucksack Gegeben sind n Gegenstände mit Gewichten W = {w 1,...,w n } N und Profiten P = {p 1,...,p n } N. Seien ferner b, k N. RUCKSACK:= {(W, P, b, k) I [n] : i
Induktive Beweise und rekursive Definitionen
Induktive Beweise und rekursive Definitionen Vorlesung Logik in der Informatik, HU Berlin 1. Übungsstunde Beweis durch vollständige Induktion über N Aufgabe 1 Zeige, dass für alle n N gilt: n 2 i = 2 n+1
Analysis I: Übungsblatt 1 Lösungen
Analysis I: Übungsblatt 1 Lösungen Verständnisfragen 1. Was ist Mathematik? Mathematik ist eine Wissenschaft, die selbstgeschaffene, abstrakte Strukturen auf ihre Eigenschaften und Muster hin untersucht.
Das Heiratsproblem. Definition Matching
Das Heiratsproblem Szenario: Gegeben: n Frauen und m > n Männer. Bekanntschaftsbeziehungen zwischen allen Männern und Frauen. Fragestellung: Wann gibt es für jede der Frauen einen Heiratspartner? Modellierung
www.mathe-aufgaben.com
Abiturprüfung Mathematik Baden-Württemberg (ohne CAS) Pflichtteil Aufgaben Aufgabe : ( VP) Bilden Sie die erste Ableitung der Funktion f mit f(x) = x sin( x + ) Aufgabe : ( VP) Berechnen Sie das Integral
Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung
Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft
H. Gruber, R. Neumann. Erfolg im Mathe-Abi. Basiswissen Niedersachsen. Übungsbuch für den Grundkurs mit Tipps und Lösungen
H. Gruber, R. Neumann Erfolg im Mathe-Abi Basiswissen Niedersachsen Übungsbuch für den Grundkurs mit Tipps und Lösungen Inhaltsverzeichnis Inhaltsverzeichnis Analysis Von der Gleichung zur Kurve... 9 Aufstellen
Kapitel 2 Wahrscheinlichkeitsrechnung
Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt
825 e 290 e 542 e 945 e 528 e 486 e 675 e 618 e 170 e 500 e 443 e 608 e. Zeichnen Sie das Box-Plot. Sind in dieser Stichprobe Ausreißer vorhanden?
1. Aufgabe: Eine Bank will die jährliche Sparleistung eines bestimmten Kundenkreises untersuchen. Eine Stichprobe von 12 Kunden ergab folgende Werte: 825 e 290 e 542 e 945 e 528 e 486 e 675 e 618 e 170
Bestimmen Sie die möglichen Realisationen sowie die dazugehörigen Wahrscheinlicheiten der Zufallsvariable
Zufallsgrößen ================================================================= 1. In einer Sendung von 10 Artikeln befinden sich 4 fehlerhafte. 4 Artikel werden zufällig entnommen. X beschreibe die Anzahl
2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1}
1. Berechne für jeden Knoten i in BFS-Art eine Liste S i von von i aus erreichbaren Knoten, so dass (i) oder (ii) gilt: (i) S i < n 2 + 1 und Si enthält alle von i aus erreichbaren Knoten (ii) S i = n
Einführung: Bayessches Lernen. Dipl.-Inform. Martin Lösch. [email protected] (0721) 608 45944. Dipl.-Inform. Martin Lösch
Einführung: [email protected] (0721) 608 45944 Übersicht Motivation & Hintergrund Naiver Bayes-Klassifikator Bayessche Netze EM-Algorithmus 2 Was ist eigentlich? MOTIVATION & HINTERGRUND 3 Warum Lernen
Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)
Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich
Allgemeine diskrete Wahrscheinlichkeitsräume I
6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete
Folgen und Grenzwerte
Wintersemester 2015/201 Folgen und Grenzwerte von Sven Grützmacher Dieser Vortrag wurde für den (von der Fachschaft organisierten) Vorkurs für die Studienanfänger an der Fakultät für Mathematik und Informatik
Wahrscheinlichkeit und Information
356 A Wahrscheinlichkeit und Information A.l Die Wahrscheinlichkeit von Formeln Üblicherweise führt man den Wahrscheinlichkeitsbegriff mit Hilfe von Wahrscheinlichkeitsmaßen über Wahrscheinlichkeitsräumen,
Kapitel 1.3. Normalformen aussagenlogischer Formeln. Mathematische Logik (WS 2010/11) Kapitel 1.3: Normalformen 1 / 1
Kapitel 1.3 Normalformen aussagenlogischer Formeln Mathematische Logik (WS 2010/11) Kapitel 1.3: Normalformen 1 / 1 Boolesche Formeln, Literale und Klauseln Eine Boolesche Formel ist eine aussagenlogische
Wahrscheinlichkeitsverteilungen
Wahrscheinlichkeitsverteilungen 1. Binomialverteilung 1.1 Abzählverfahren 1.2 Urnenmodell Ziehen mit Zurücklegen, Formel von Bernoulli 1.3 Berechnung von Werten 1.4 Erwartungswert und Standardabweichung
3. Selbstbehalt und Selbstbeteiligung
3. Selbstbehalt und Selbstbeteiligung Georg Nöldeke Wirtschaftswissenschaftliche Fakultät, Universität Basel Versicherungsökonomie (FS 11) Selbstbehalt und Selbstbeteiligung 1 / 16 1. Modellrahmen 1.1
Syntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung [email protected] http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel
Wissenschaftliches Arbeiten Quantitative Methoden
Wissenschaftliches Arbeiten Quantitative Methoden Prof. Dr. Stefan Nickel WS 2008 / 2009 Gliederung I. Motivation II. III. IV. Lesen mathematischer Symbole Wissenschaftliche Argumentation Matrizenrechnung
TESTEN VON HYPOTHESEN
TESTEN VON HYPOTHESEN 1. Beispiel: Kann ein neugeborenes Küken Körner erkennen oder lernt es dies erst durch Erfahrung? Um diese Frage zu entscheiden, wird folgendes Experiment geplant: Sobald das Küken
Pflichtteilaufgaben zu Stochastik (Pfadregeln, Erwartungswert, Binomialverteilung) Baden-Württemberg
Pflichtteilaufgaben zu Stochastik (Pfadregeln, Erwartungswert, Binomialverteilung) Baden-Württemberg Hilfsmittel: keine allgemeinbildende Gymnasien Alexander Schwarz www.mathe-aufgaben.com August 05 Übungsaufgaben:
Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 0.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
Theoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 10.01.2012 INSTITUT FÜR THEORETISCHE 0 KIT 12.01.2012 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik
Kapitel 4: Minimale spannende Bäume Gliederung der Vorlesung
Kapitel : Minimale spannende Bäume Gliederung der Vorlesung. Grundbegriffe 2. Elementare Graphalgorithmen und Anwendungen. Kürzeste Wege. Minimale spannende Bäume. Färbungen und Cliquen. Traveling Salesman
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c
Expander Graphen und Ihre Anwendungen
Expander Graphen und Ihre Anwendungen Alireza Sarveniazi Mathematisches Institut Universität Göttingen 21.04.2006 Alireza Sarveniazi (Universität Göttingen) Expander Graphen und Ihre Anwendungen 21.04.2006
Flüsse in Netzwerken
Skript zum Seminar Flüsse in Netzwerken WS 2008/09 David Meier Inhaltsverzeichnis 1 Einführende Definitionen und Beispiele 3 2 Schnitte in Flussnetzwerken 12 2.1 Maximaler s t Fluss..........................
Kapitel VI - Lage- und Streuungsparameter
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie
Grundlagen der Wahrscheinlichkeitstheorie und Statistik für Studierende der Informatik
INSTITUT FÜR STOCHASTIK WS 07/08 UNIVERSITÄT KARLSRUHE Blatt 4 Dr. B. Klar Übungen zur Vorlesung Grundlagen der Wahrscheinlichkeitstheorie und Statistik für Studierende der Informatik Musterlösungen Aufgabe
Wahrscheinlichkeit und Information
430 A Wahrscheinlichkeit und Information A.1 Die Wahrscheinlichkeit von Formeln Üblicherweise führt man den Wahrscheinlichkeitsbegriff mit Hilfe von Wahrscheinlichkeitsmaßen über Wahrscheinlichkeitsräumen
Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 2
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/14 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie svorschläge
Unabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
Ü b u n g s b l a t t 15
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 2. 7. 2007 Ü b u n g s b l a t t 15 Hier ist zusätzliches Übungsmaterial zur Klausurvorbereitung quer durch die Inhalte der Vorlesung. Eine
Grundlagen und Diskrete Strukturen Aufgaben zur Vorbereitung der Klausur
Technische Universität Ilmenau WS 2008/2009 Institut für Mathematik Informatik, 1.FS Dr. Thomas Böhme Aufgabe 1 : Grundlagen und Diskrete Strukturen Aufgaben zur Vorbereitung der Klausur Gegeben sind die
Grundbegriffe der Wahrscheinlichkeitstheorie
KAPITEL 1 Grundbegriffe der Wahrscheinlichkeitstheorie 1. Zufallsexperimente, Ausgänge, Grundmenge In der Stochastik betrachten wir Zufallsexperimente. Die Ausgänge eines Zufallsexperiments fassen wir
Algorithmus zur Berechnung der Jordannormalform
Algorithmus zur Berechnung der Jordannormalform Olivier Sète 19. Januar 2011 Inhaltsverzeichnis 1 Motivation 1 2 Algorithmus Wie und warum funktioniert das? 2 2.1 Zutat 1 Für einen Jordanblock.........................
Differentialrechnung
Kapitel 7 Differentialrechnung Josef Leydold Mathematik für VW WS 205/6 7 Differentialrechnung / 56 Differenzenquotient Sei f : R R eine Funktion. Der Quotient f = f ( 0 + ) f ( 0 ) = f () f ( 0) 0 heißt
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
Algorithmentheorie. 13 - Maximale Flüsse
Algorithmentheorie 3 - Maximale Flüsse Prof. Dr. S. Albers Prof. Dr. Th. Ottmann . Maximale Flüsse in Netzwerken 5 3 4 7 s 0 5 9 5 9 4 3 4 5 0 3 5 5 t 8 8 Netzwerke und Flüsse N = (V,E,c) gerichtetes Netzwerk
2 Eulersche Polyederformel und reguläre Polyeder
6 2 Eulersche Polyederformel und reguläre Polyeder 2.1 Eulersche Polyederformel Formal besteht ein Graph aus einer Knotenmenge X und einer Kantenmenge U. Jede Kante u U ist eine zweielementige Teilmenge
Lösungen zum Aufgabenblatt Nr. 1: Konstruktion der reellen Zahlen
Lösungen zum Aufgabenblatt Nr. 1: Konstruktion der reellen Zahlen Aufgabe 1: Es sei D die Menge aller rationalen Dedekind-Mengen, also D := { M 2 Q M is Dedekind-Menge }. Auf der Menge D definieren wir
Vollständiger Graph. Definition 1.5. Sei G =(V,E) ein Graph. Gilt {v, w} E für alle v, w V,v w, dann heißt G vollständig (complete).
Vollständiger Graph Definition 1.5. Sei G =(V,E) ein Graph. Gilt {v, w} E für alle v, w V,v w, dann heißt G vollständig (complete). Mit K n wird der vollständige Graph mit n Knoten bezeichnet. Bemerkung
Vorlesung Maschinelles Lernen
Prof. Dr. phil. Dr. rer. nat. habil. M.Schenke Vorlesung Maschinelles Lernen Basierend auf der Vorlesung und dem Buch»Methoden wissensbasierter Systeme«von Christoph Beierle und Gabriele Kern-Isberner
Finanzmathematik I Lösungvorschläge für Übungsblatt 1
Finanzmathematik I Lösungvorschläge für Übungsblatt 1 J. Widenmann ufgabe 1: Zu zeigen ist, dass Q die Definition Ü.1.1.2 erfüllt. Zunächst bemerken wir, dass Q wegen der nnahme f 0 Werte in R + annimmt.
SCHRIFTLICHE ABSCHLUSSPRÜFUNG 2008 REALSCHULABSCHLUSS. Mathematik. Arbeitszeit: 180 Minuten
Mathematik Arbeitszeit: 80 Minuten Es sind die drei Pflichtaufgaben und zwei Wahlpflichtaufgaben zu bearbeiten. Seite von 6 Pflichtaufgaben Pflichtaufgabe (erreichbare BE: 0) a) Berechnen Sie auf Hundertstel
Erzeugung zufälliger Graphen und Bayes-Netze
Erzeugung zufälliger Graphen und Bayes-Netze Proseminar Algorithmen auf Graphen Georg Lukas, IF2000 2002-07-09 E-Mail: [email protected] Folien: http://op-co.de/bayes/ Gliederung 1. Einleitung 2. einfache
Analytische Geometrie Aufgaben und Lösungen
Analytische Geometrie Aufgaben und Lösungen http://www.fersch.de Klemens Fersch. Januar Inhaltsverzeichnis Punkte:Vektor - Abstand - Steigung - Mittelpunkt. Aufgaben....................................................
Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 3
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/14 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Einführung in die Wahrscheinlichkeitstheorie svorschläge zu Übungsblatt
Zählen perfekter Matchings in planaren Graphen
Zählen perfekter Matchings in planaren Graphen Kathlén Kohn Institut für Mathematik Universität Paderborn 25. Mai 2012 Inhaltsverzeichnis Motivation Einführung in Graphentheorie Zählen perfekter Matchings
Statistik I für Humanund Sozialwissenschaften
Statistik I für Humanund Sozialwissenschaften 3. Übung Lösungsvorschlag Gruppenübung G 8 a) Ein Professor möchte herausfinden, welche 5 seiner insgesamt 8 Mitarbeiter zusammen das kreativste Team darstellen.
Differentialrechnung bei Funktionen mehreren Variablen
Kap. 6 Differentialrechnung bei Funktionen mehreren Variablen Im folgenden geht es um Funktionen des Typsf :R n R X... Y =f(x,...,x n ) X n Eine Weiterentwicklung der Differentialrechnung für solche Funktionen
8 Das Flussproblem für Netzwerke
8 Das Flussproblem für Netzwerke 8.1 Netzwerke mit Kapazitätsbeschränkung Definition 15 Ein Netzwerk N = (V, E, γ, q, s) besteht aus einem gerichteten Graph G = (V, E), einer Quelle q V und einer Senke
Lineare Abbildungen. Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls. d.h.
Lineare Abbildungen Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls (1) u, v V : f( u + v) = f( u) + f( v). (2) v V α K : f(α v) = αf( v).
Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind
Bayessche Netze Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Einleitung Sicheres vs. Unsicheres Wissen Kausale Netzwerke Abhängigkeit Verbindungsarten Exkurs:
Kapitel 4: Minimal spannende Bäume Gliederung der Vorlesung
Kapitel : Minimal spannende Bäume Gliederung der Vorlesung. Fallstudie Bipartite Graphen 2. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen. Minimal spannende Bäume. Kürzeste Wege. Traveling
Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung
Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Kursfolien Karin Haenelt 1 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln
λ(a n ) n 1 = (λa n ) n 1. Abbildung 1: Graph einer Folge. b n = arctan(n), f n = cos(nπ), g n = n 2, h n = ( 1) n n.
Folgen Es sei X eine beliebige Menge. Eine Folge mit Werten in X ist eine Abbildung von N nach X. Es wird also jeder natürlichen Zahl n (dem Index) ein Element a n aus X zugeordnet (das n-te Folgenglied).
8 Diskrete Optimierung
8 Diskrete Optimierung Definition 8.1. Ein Graph G ist ein Paar (V (G), E(G)) besteh aus einer lichen Menge V (G) von Knoten (oder Ecken) und einer Menge E(G) ( ) V (G) 2 von Kanten. Die Ordnung n(g) von
