Unsicheres Wissen Probabilistische Modelle
|
|
- Hannah Seidel
- vor 7 Jahren
- Abrufe
Transkript
1 Einführung in die Medizinische Informatik und Bioinformatik Unsicheres Wissen Probabilistische Modelle Frank Meineke SS 2005
2 Überblick Motivation Unsicheres Wissen Wahrscheinlichkeitslehre (Auffrischung) Bedingte Wahrscheinlichkeit Satz von Bayes Abhängigkeiten Anwendungsbeispiele Softwarewerkzeug HUGIN 2
3 Ziel Lösen von schwierigen Problemen im medizinischen Bereich Probleme aus der medizinischen Praxis sind meistens schwierig formal lösbar, da: nicht exakt abgrenzbar schlecht (diffus) strukturiert komplexer Natur unterschiedlich interpretierbar Zusammenhang Problem Modell Menschliche Experten können schwierige Probleme lösen! 3
4 Zusammenhang Problem und Modell Datenverarbeitung: reales Problem und Repräsentation überdecken sich Schlecht strukturiertes Problem, wohlstrukturiertes Modell Approximation des schlecht strukturierten Problems durch Expertenwissen reales Problem Repräsentation des Problems im Modell 4
5 Wissen Knowledge is a mysterious kind of entity, about which we know remarkable little. Jackson 1986 Explizites Wissen theoretisches Fachwissen Implizites Wissen Erfahrungswissen Expertenwissen Allgemein-/Alltagswissen 5
6 Daten / Information / Wissen Daten: Signale / Zeichen / Fakten Information: Daten mit Bedeutung Wissen: Information im Kontext Der Zusammenhang wird im Wissensbzw. Informationsmanagement analysiert. 6
7 Diagnostik Diagnose:die nosologisch-systematische Benennung eines Krankheitsbildes, in der Praxis die Summe der Erkenntnisse, auf denen das ärztliche Handeln beruht Diagnostik: alle auf die»erkennung«eines Krankheitsgeschehens als definierte nosologische Einheit gerichteten Maßnahmen. Nosologie / Nosographie: systematische Beschreibung und Lehre von den Krankheiten Roche Lexikon Medizin, 4.Auflage 7
8 Diagnostische Wagheit (1) Beispiel diagnostischer Aussagen: Wenn ein Schnupfen besonders stark ist, geht er meist mit Kopfschmerzen, Gliederschmerzen, tränenden Augen und manchmal mit Fieber einher Ohne Besuch in Asien etc. ist eine Malaria sehr unwahrscheinlich Solches Wissen in Regeln zu formulieren ist oft nicht möglich bzw. ist nur möglich, wenn wir dabei Vereinfachungen oder Fehler in Kauf nehmen Beispiele im Vorgriff auf die Vorlesung Expertensysteme 8
9 Diagnostische Wagheit (2) Aussagen mit unsicherem Wissen: sind sehr häufig enthalten Informationen explizite Aus- und Annahmen implizite Aus- und Annahmen Menschen können im Gegensatz zu Maschinen mit derartigen Aussagen gut umgehen 9
10 Nutzen aus der Formalisierung von Expertenwissen Explizierung von Fachwissen Überprüfbarkeit des Wissens Kritik der Entscheidung möglich Reproduzierbarkeit von Entscheidungsprozessen Möglichkeit einer Konservierung von Fachwissen und Problemlösungsverhalten Unterstützung und Ergänzung menschlicher Fachtätigkeit Vorteile bei der fachlichen Ausbildung Grundlage für die rechnergestützte Wissensverarbeitung und Wissensnutzung Aufgabe: Explizierung und Modellierung von Expertenwissen 10
11 Problembereich Diagnostik Der wichtigste Problembereich für den Umgang mit Unsicherheiten ist die Diagnostik Die Unsicherheiten bei der Diagnostik stammen aus folgenden Quellen: Symptomerhebung: Feststellung der Evidenz der Symptome Symptombewertung: Zuordnung der Symptome zu Diagnosen Unzulänglichkeiten des Verrechnungsschemas 11
12 Arten von unsicherem Wissen Fehler Mangelnde Vertrauenswürdigkeit, Unverlässlichkeit Ungenauigkeit Unvollständigkeit Mehrdeutigkeit Inkonsistenz Irrelevanz 12
13 Arten von unsicherem Wissen Beispiel (1) Mögliche Therapieempfehlungen für ein bestimmtes Medikament bezogen auf einen bestimmten Patienten: 700 mg, 3 mal täglich 600 mg 800 mg, 3 mal täglich Etwa 700 mg, 2 3 mal täglich Wahrscheinlich 700 mg, 2 mal täglich 100 oder 700 mg (Schrift undeutlich), 3 mal täglich 400 mg, 4 mal täglich oder 200 mg einmal 700 mg Mindestens 500 mg, 2 mal täglich Normalerweise werden 500 mg, 2 mal täglich verschrieben 70 g, 3 mal täglich Keine Ahnung, kann aber nachschauen Akazienweg 13 Richtig Ungenau Ungenau Vertrauen Mehrdeutig Inkonsistent,Ungenau Unvollständig Ungenau Irrelevant Fehler Vertrauen Irrelevant Fehler, Vertrauen, Ungenau,Unvollständig, Mehrdeutig, Inkonsistent, Irrelevant (In Anlehnung an Krause, Clark: Representing Uncertain Knowledge) 13
14 Ursachen unsicheren Wissens Wissensmangel gemäß dem Stand der Technik aus ethischen Gründen aus wirtschaftlichen Gründen aus juristischen Gründen Komplexität nicht deterministische Entscheidungsfindung chaotische Probleme 14
15 Betrachtete Unsicherheiten (1) Beispiele Unsicherheiten über einen Zustand Sicher hat er auch Fieber Der Zustand Fieber liegt mit großer Wahrscheinlichkeit vor. Unsicherheiten über das Zutreffen einer Aussage Wahrscheinlich 500 mg, 2 mal täglich Die Aussage: 500 mg, 2 mal täglich ist die richtige Dosierung ist mit großer Wahrscheinlichkeit zutreffend. 15
16 Betrachtete Unsicherheiten (2) Beispiele Unsicherheiten über eine Schlussfolgerung Wenn das Medikament A eingenommen wird, geht es sicher morgen besser Aus Medikament A eingenommen folgt mit großer Wahrscheinlichkeit morgen geht es besser. Ziel: Modell zur Verarbeitung von unsicherem Wissen 16
17 Wahrscheinlichkeitsrechnung Zur Erinnerung Zufallsgrößen sind Variablen, die alle Werte des Wertebereiches WB = {x 1,..., x n }, n Ν annehmen können. Die Zufallsgrößen werden durch Großbuchstaben bezeichnet; typisch X,Y,Z. WB(X) ist also die Menge aller möglichen Werte aus dem Wertebereich der Zufallsgröße X. Jeder Wert aus dem Wertebereich einer diskreten Zufallsgröße X tritt mit einer bestimmten Wahrscheinlichkeit P(X) auf. Die Angabe aller Wahrscheinlichkeiten P(X = x 1 )... P(X = x n ) ergibt die Wahrscheinlichkeitsverteilung der Zufallsgröße. Die Summe aller Wahrscheinlichkeiten ist immer 1. Es gilt: x,y P(X {x y}) = P(x) + P(y), wenn x y 17
18 Wahrscheinlichkeitsrechnung Beispiele Zufallsgröße G = Würfeln einer 6 WB (G) = {1,2,3,4,5,6} P G (X=6) = 1/6 P G (X {2,4,6}) = 1/2 Zufallsgröße G = Geschlecht eines Neugeborenen WB (G) = {m,w} P G (m) = 0.51 P G (w) = 0.49 Wo kommen die Wahrscheinlichkeitswerte her? 18
19 Personalistisch versus Frequentistisch (1) Frequentistisch Beispiel: P(Würfeln einer 6) = Wert aus häufiger Wiederholung ermittelt Die Wahrscheinlichkeit folgt aus der (evtl. theoretischen) Wiederholung des Versuchs Änderungen der Wahrscheinlichkeiten nur aufgrund von Wiederholungen des Versuchs Personalistisch Beispiel: P(Es wir heute regnen) = 0.1 Keine Wiederholungen möglich Die Wahrscheinlichkeit wird durch Abschätzen der Einflüsse bestimmt Änderungen der Wahrscheinlichkeiten (Schätzungen) nur aufgrund von neuem Wissen 19
20 Personalistisch versus Frequentistisch (2) Meist wird für den Begriff der Wahrscheinlichkeit eine frequentistische Deutung angenommen: z.b. Würfeln mit einem Würfel Die Wahrscheinlichkeit eines Ereignisses (hier ein bestimmter Ausgang beim Würfeln z.b. 6 gewürfelt oder gerade gewürfelt) ist die relative Häufigkeit mit der das Ereignis bei einer sehr großen Zahl von Versuchswiederholungen eintritt. 20
21 Bedingte Wahrscheinlichkeit (1) In der Schnupfendomäne können wir Beispiele für Abhängigkeiten und Unabhängigkeiten finden. Die Wahrscheinlichkeiten müssten wir jedoch als personalistische Wahrscheinlichkeiten von einem Experten schätzen lassen. Beispiel: Gegeben sind die Zufallsgrößen F und G mit: ja : Patient hat Fieber F = nein : Patient hat kein Fieber ja : Patient hat Grippe G = nein : Patient hat keine Grippe 21
22 Bedingte Wahrscheinlichkeit (2) Aus der Erfahrung wissen wir, dass diese beiden Zufallsvariablen nicht voneinander unabhängig sind: P (G = ja F = ja) > P (G = ja F = nein) P (F = ja G = ja) > P (F = ja G = nein) Fieber gibt einen Hinweis auf Grippe, da es die Wahrscheinlichkeit für das Vorliegen einer Grippe erhöht und umgekehrt. Wie stark diese Abhängigkeit ist, folgt erst aus den genauen Zahlenwerten. 22
23 Bedingte Wahrscheinlichkeit (3) Bedingte Wahrscheinlichkeiten stellen Beziehungen zwischen Zufallsgrößen her und ähneln damit dem Aufbau von Regeln. P (A = a B = b) = p ist äquivalent zu (B = b) (A = a) mit der Wahrscheinlichkeit p Die Regel (B = b) (A = a) kann immer angewendet werden, d.h. A = a kann geschlussfolgert werden, wenn die Prämisse B = b erfüllt ist. Aber: Die Wahrscheinlichkeit P (A = a B = b) = p darf nur dann angewendet werden, wenn B = b die einzige für A relevante Information ist und nicht eine weitere Regel der Form (C = c) (A = a) mit B und C voneinander abhängig existiert. 23
24 Bedingte Wahrscheinlichkeit Definition Die bedingte Wahrscheinlichkeit für ein Ereignis A unter der Bedingung B ist definiert durch: P (A B) = P (A B) P (B) Beispiel A = 6 Würfel B = {2,4,6} P(A B)= P(6 {2,4,6})/P({2,4,6}) = P(6)/P({2,4,6}) = 1/3 24
25 Bedingte Wahrscheinlichkeit Beispiele (1) Wahrscheinlichkeit für Grippe: P (G) = p P ( G) = 1 p Wahrscheinlichkeit für Grippe in Abhängigkeit von Fieber P (G F): F F G p 1 p 2 G 1- p 1 1- p 2 25
26 Bedingte Wahrscheinlichkeit Beispiele (2) Wahrscheinlichkeit für Grippe wenn Fieber und Halsweh (G F, H) vorliegen: G G F F H H H H p 1 p 2 p 3 p 4 1-p 1 1-p 2 1-p 3 1-p 4 In dieser Form werden die Tabellen für die bedingten Wahrscheinlichkeiten in HUGIN aufgebaut. 26
27 Probabilistisches Modell (1) Um z.b. die Schnupfendomäne, zu beschreiben verwenden wir eine Menge von Merkmalen (Fieber, Grippe, Halsweh), die wir als Zufallsgrößen F, G, H repräsentieren. Ziel ist, das bereits bekannte probabilistische Wissen über die Merkmale und ihre Abhängigkeiten in einem entsprechendem Modell zu repräsentieren um daraus alle bisher nicht bekannten Wahrscheinlichkeiten alle bisher nicht bekannten bedingten Wahrscheinlichkeiten zu berechnen. Ein solches Modell nennt man probabilistisches Modell. 27
28 Modellierungsmöglichkeiten Modelliert werden können: Unsicherheiten über Zustände (z.b. P(Fieber) ) Unsicherheiten über Aussagen (z.b. P(G = ja F = ja)) Nicht modelliert werden: Unsicherheiten über Wahrscheinlichkeiten (z.b. können keine Konfidenzintervalle angegeben werden) 28
29 Probabilistisches Modell (2) Für die Schnupfendomäne mit den Zufallsgrößen Grippe, Fieber, Halsweh wären dies z.b. Wahrscheinlichkeiten wie: P (Grippe = ja) P (Grippe = ja Fieber = ja) P (Fieber = nein Grippe = ja) P (Grippe = ja Fieber = ja, Halsweh = ja) P (Grippe = ja, Fieber = ja Halsweh = ja) 29
30 Probabilistisches Modell (3) In einem probabilistischen Modell können: 1. nicht alle Wahrscheinlichkeiten explizit angeben werden, da es meist sehr viele sind sie häufig nicht sinnvoll geschätzt werden können 2. durch Unabhängigkeitsannahmen zwischen den Zufallsgrößen kann auf die Angabe vieler bedingter Wahrscheinlichkeiten verzichtet werden. Gilt z.b. P (A B) = P (A), dann müssen die P (A B) nicht angegeben werden. 3. Widersprüche auf der Grundlage falscher Annahmen aufgedeckt werden. Frage: Wie kann ein solches probabilistisches Modell realisiert werden? 30
31 Softwarewerkzeug Hugin basiert auf einem gerichteten Graphen zur Darstellung eines probabilistischen Modells Gerichtete Graphen bestehen aus einer Menge von Knoten einer Menge von gerichteten Kanten Gerichtete Graphen können dazu verwendet werden um Abhängigkeiten zwischen Zufallsgrößen darzustellen indem: Zufallsgrößen auf die Knoten direkte Abhängigkeiten auf die Kanten abgebildet werden Einen solcher Graph wird im weiteren als Bayes-Netz bezeichnet 31
32 Satz von Bayes Vorbereitung Diagnostische Schlussrichtung Von den Symptomen (Folgen) auf die Krankheit (Ursache) schließen. Hier: Von Fieber auf Grippe schließen Kausale Schlussrichtung Von der Ursache (Krankheit) auf die Folgen (Symptome) schließen. Hier: Von Grippe auf Fieber schließen G Einfaches BAYES-Netz Meist ist es wesentlich einfacher Wahrscheinlichkeiten in kausaler Richtung zu schätzen, als in diagnostischer. Auch sind diese meist geringeren Schwankungen unterworfen: Bei einer Grippeepidemie steigt die Wahrscheinlichkeit, dass ein Patient mit Fieber an Grippe erkrankt ist an. Trotzdem wird der Anteil der Grippekranken mit Fieber etwa gleich bleiben. F 32
33 Satz von Bayes Aber: Für den Arzt ist es intuitiver in diagnostischer Richtung schlussfolgern! Satz von Bayes P (K S) = P (S K) P (K) P (S) Der Satz von Bayes ermöglicht es die kausale und diagnostische Schlussrichtung umzudrehen. Es können im Modell Wahrscheinlichkeiten in kausaler Richtung angeben und in diagnostischer Richtung geschlussfolgert werden. Dies ist bei Regeln so nicht möglich: Aus A B kann ich keine Aussage ob B A gilt, ableiten: Vogel fliegt fliegt Vogel 33
34 Beispiel Grippe Hugin Modell 34
35 Bayes-Netze Bayes-Netze bestehen aus: einer qualitativen Beschreibung: dem Graphen An diesem Graphen kann abgelesen werden, welche Zufallsgrößen im Modell abhängig, unabhängig oder (und unter welchen Bedingungen) bedingt abhängig sind. einer quantitativen Beschreibung: den bedingten Wahrscheinlichkeiten in den Wahrscheinlichkeitstabellen. Hinweis zur Modellierung: Zur Reduktion der Komplexität in Bayes-Netzen empfiehlt es sich möglichst wenige, jedoch alle notwendigen Abhängigkeiten zu modellieren. 35
36 Unabhängig bedingt abhängig (1) Betrachten wir folgendes Szenario: Wir werfen zwei Münzen M 1 und M 2. In Abhängigkeit vom Ausgang der beiden Münzwürfe wird die Glocke G geläutet, wenn beide Münzen Kopf oder beide Münzen Zahl zeigen. Die beiden Münzwürfe sind voneinander unabhängig: P (M 1 M 2 ) = P (M 1 ) P (M 2 M 1 ) = P (M 2 ) Somit sind auch die einzelnen Münzwürfe und die Glocke unabhängig P (G M 1 ) = P (G M 2 ) = P (G) Die Glocke ist jedoch abhängig von beiden Münzwürfen zusammen; die Glocke ist ja vollständig durch die Münzwürfe festgelegt P (G M 1, M 2 ) P (G M 1 ) = P (G M 2 ) = P (G) 36
37 Unabhängig bedingt abhängig (2) M 1 M 2 G BAYES-Netz zum Münzen-Szenario Zwischen den beiden Münzen wird hier durch die Glocke eine Verbindung hergestellt. Wenn wir den Zustand der Glocke kennen, geht die betrachtete Unabhängigkeit zwischen den Münzen verloren! P (M 1 M 2, G) P (M 1 M 2 ) 37
38 Unabhängig bedingt abhängig (3) Beispiel: P (M 1 = Kopf M 2 = Zahl) = 0.5 P (M 1 = Kopf M 2 = Zahl, G = ja) = 0 Die Münzen sind bedingt abhängig, unter der Voraussetzung der Zustand der Glocke ist gegeben. Dies wird als bedingte Abhängigkeit bezeichnet HUGIN 38
39 Bedingte Abhängigkeit Betrachten wir die Auswirkungen von bedingter Abhängigkeit an einem Beispiel aus der Schnupfendomäne: S G F BAYES-Netz mit Schnupfen S, Grippe G und Fieber F Wenn wir nicht wissen, ob der Patient Fieber hat, so sind Grippe und Fieber unabhängig. Haben wir Fieber beobachtet, so verschwindet diese Unabhängigkeit. Weiterhin gilt für sinnvolle Zahlenbelegungen, dass wenn wir jetzt Schnupfen beobachten die Wahrscheinlichkeit für Fieber sinkt. Schnupfen gibt uns eine Begründung für das Fieber und macht dadurch Grippe 39
40 Ausblick Woher kommen die Zahlen? Aufwand für die Wissensakquisition ist sehr hoch. Teilweise sind nur sehr grobe Schätzungen möglich Sind die Zahlen konstant? Die modellierten Beziehungen sind nicht immer und überall gleich. Oft genügt es jedoch, die Prävalenzen anzupassen Berechnungskomplexität? Bei stark vernetzten Graphen ist der Rechenaufwand sehr hoch. Erklärungsfähigkeit? Bayes-Netze sind eine intentionalistische Wissensrepräsentation und haben daher Schwierigkeiten mit der Erklärungsfähigkeit Genauigkeit der Ergebnisse? Wie genau sind die Ergebnisse, wenn meine Zahlenwerte teilweise nur grobe Schätzungen sind? 40
41 Bayes Anwendung (1) Diagnostischer Test Prävalenz: P(krank) Sensitivität: P(Test positiv krank) Spezifität: P(Test negativ gesund) Positiver Vorhersagewert = P(krank Test positiv) Negativer Vorhersagewert = P(gesund Test negativ) 41
42 Bayes Anwendung (2) Diagnostischer Test 0,02% der Bevölkerung leidet an der Krankheit K der Labortest findet die Kranken mit 99,9% Wahrscheinlichkeit Hält nur ca. 1% der Gesunden fälschlich für krank Ihr Test ist positiv! Sind sie krank? 42
43 Bayes Anwendung (1) Diagnostischer Test Prävalenz: P(krank) = 0.02% = Sensitivität: P(Test positiv krank) = Spezifität: P(Test negativ gesund) = = 0.99 Positiver Vorhersagewert = P(krank Test positiv) =? Negativer Vorhersagewert = P(gesund Test negativ) 43
44 Satz von Bayes (2) P (K S) = P (S K) P (K) P (S) = P (S K) P (K) P (S K) P (K) + P (S K) P ( K) 44
45 Bayes Anwendung (3) Positiver Vorhersagewert = Sensitivität * Prävalenz Sensitivität *Prävalenz + (1-Spezifität)*(1- Prävalenz) = (0.999*0.0002)/ (0.999* (1-0.99)*( ) = 0, = ca. 2% 45
46 Entscheidungsbaum Krank Gesund ~0 ~2 ~100 ~9898 Test- Test+ Test+ Test- 2 von 102 Personen haben einen zu Recht positiven Test. 46
47 Monty Hall Puzzle (1) alias: Ziegenproblem / Drei Türen Problem Drei Tore Hinter einem Tor steht ein Preis Sie dürfen ein Tor auswählen Monty öffnet ein leeres anderes Tor Sie dürfen jetzt noch einmal wechseln! Was tun Sie? Warum? 47
48 Monty Hall (2) Hugin Modellierung 48
49 Monty Hall (3) Hugin Abfrage 49
Überblick. Unsicheres Wissen Probabilistische Modelle. Ziel Lösen von schwierigen Problemen im medizinischen Bereich. Zusammenhang Problem und Modell
Einführung in die Medizinische Informatik und Bioinformatik Unsicheres Wissen Probabilistische Modelle Frank Meineke SS 2006 Überblick Motivation Unsicheres Wissen Wahrscheinlichkeitslehre (Auffrischung)
MehrBayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen
MehrSatz von der totalen Wahrscheinlichkeit
htw saar 1 Satz von der totalen Wahrscheinlichkeit Sei (Ω, P) ein Wahrscheinlichkeitsraum, und B 1,, B n seien paarweise disjunkte Ereignisse mit B i = Ω. Für jedes Ereignis A gilt dann: P(A) = P(A B 1
MehrÜbersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches
MehrP (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.
2 Wahrscheinlichkeitstheorie Beispiel. Wie wahrscheinlich ist es, eine Zwei oder eine Drei gewürfelt zu haben, wenn wir schon wissen, dass wir eine ungerade Zahl gewürfelt haben? Dann ist Ereignis A das
Mehr8 Einführung in Expertensysteme
8 Einführung in Expertensysteme 22. Vorlesung: Constraints; Probabilistisches Schließen Für die Programmierung von Expertensystemen werden verschiedene Grundtechniken der Wissensrepräsentation und spezielle
MehrKapitel N. Wahrscheinlichkeitsrechnung
Kapitel N Wahrscheinlichkeitsrechnung Inhalt dieses Kapitels N000 1 Diskrete Wahrscheinlichkeitsräume 2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 1 Produktexperimente 2 Kombinatorik und Urnenmodelle
MehrMethoden der KI in der Biomedizin Unsicheres Schließen
Methoden der KI in der Biomedizin Unsicheres Schließen Karl D. Fritscher Motivation Insofern sich die Gesetze der Mathematik auf die Wirklichkeit beziehen, sind sie nicht sicher. Und insofern sie sich
MehrElementare Wahrscheinlichkeitslehre
Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?
MehrEvidenzpropagation in Bayes-Netzen und Markov-Netzen
Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrStochastik und Markovketten
1 Zentrum für Bioinformatik der Universität des Saarlandes WS 22/23 2 Warum Stochastik? Viele Fragestellungen der Bioinformatik lassen sich auch heutzutage gar nicht oder nicht schnell genug exakt beantworten
MehrÜbungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression
Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen
MehrKI Seminar Vortrag Nr. 9 Unsicheres Wissen. Einleitung. Grundlagen. Wissen Ansätze. Sicherheitsfaktoren. Ansatz Probleme. Schlussfolgerungsnetze
Einleitung KI Seminar 2005 Vortrag Nr. 9 Unsicheres 1 Motivation Vögel können fliegen! 2 : Zuordnung von Wahrheitswerten, Wahrscheinlichkeitsgraden,. zu Aussagen, Ereignissen, Zuständen, 3 3 Eigenschaften
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 stheorie: Grundbegriffe Prof. Dr. Achim Klenke http://www.aklenke.de 5. Vorlesung: 25.11.2011 1/33 Inhalt 1 Zufallsvariablen 2 Ereignisse 3 2/33 Zufallsvariablen Eine Zufallsvariable
MehrBayes sche und probabilistische Netze
Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung
MehrMethoden der KI in der Biomedizin Bayes Netze
Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2014 / 2015 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrZiegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem
Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Wahrscheinlichkeitsrechnung Theorie Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem,
MehrBiomathematik für Mediziner
Institut für Medizinische Biometrie, Informatik und Epidemiologie der Universität Bonn (Direktor: Prof. Dr. Max P. Baur) Biomathematik für Mediziner Klausur SS 2002 Aufgabe 1: Franz Beckenbauer will, dass
MehrAnhang 9: 3. Szenario
Anhang 9: 3. Szenario Monty Hall s Problem (Ziegenproblem) 268 3. Szenario Monty Hall s Problem oder das Ziegenproblem 269 Ziegenproblem nach Wikipedia, der freien Enzyklopädie Das Ziegenproblem (auch
MehrInstitut für Biometrie und klinische Forschung. WiSe 2012/2013
Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive
MehrWie liest man Konfidenzintervalle? Teil I. Premiu m
Wie liest man Konfidenzintervalle? Teil I Premiu m Was sind Konfidenzintervalle? Ein Konfidenzintervall (KI) ist ein Maß für die Unsicherheit bezüglich einer Schätzung eines Effekts. Es ist ein Intervall
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Unabhängigkeit von Ereignissen A, B unabhängig:
MehrVorlesung - Medizinische Biometrie
Vorlesung - Medizinische Biometrie Stefan Wagenpfeil Institut für Medizinische Biometrie, Epidemiologie und Medizinische Informatik Universität des Saarlandes, Homburg / Saar Vorlesung - Medizinische Biometrie
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe
MehrVorlesung Statistik, WING, ASW Wahrscheinlichkeit in Laplace Versuchen. Kombinatorische Formeln. Bedingte Wahrscheinlichkeit
Wahrscheinlichkeit in Laplace Versuchen Kombinatorische Formeln Bedingte Wahrscheinlichkeit Multiplikationssatz Unabhängigkeit Melanie Kaspar 1 Formel der totalen Wahrscheinlichkeit Satz von Bayes Melanie
MehrTäuschung und Manipulation mit Zahlen Teil 1
Täuschung und Manipulation mit Zahlen Teil 1 Kleines Statistikseminar zum kritischen Umgang mit Zahlen 23.3.2011 Dr. med. H.-J. Koubenec Mammasprechstunde im Immanuel Krankenhaus Berlin Folien: Mammographie-Screening.de
MehrAufgabe 1 Probabilistische Inferenz
Seite 1 von 11 Aufgabe 1 Probabilistische Inferenz (28 Punkte) Es existieren zwei Krankheiten, die das gleiche Symptom hervorrufen. Folgende Erkenntnisse konnten in wissenschaftlichen Studien festgestellt
Mehr4 Diskrete Wahrscheinlichkeitsverteilungen
4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder
MehrWahrscheinlichkeitsrechnung [probability]
Wahrscheinlichkeitsrechnung [probability] Hinweis: Die Wahrscheinlichkeitsrechnung ist nicht Gegenstand dieser Vorlesung. Es werden lediglich einige Begriffsbildungen bereitgestellt und an Beispielen erläutert,
MehrSprechstunde zur Klausurvorbereitung
htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)
MehrStatistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze
Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger
MehrEpidemiologie und HIV-Tests
26. November 2009 Cornelias HIV-Test Das ist Cornelia. Cornelia möchte Plasmaspenderin werden. Dafür braucht sie einen negativen Befund eines HIV-Tests. Deshalb geht sie ins Krankenhaus. Cornelias HIV-Test
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrÜbung zur Vorlesung Statistik I WS Übungsblatt 12
Übung zur Vorlesung Statistik I WS 2013-2014 Übungsblatt 12 20. Januar 2014 Die folgenden ufgaben sind aus ehemaligen Klausuren! ufgabe 38.1 (1 Punkt: In einer Studie werden 10 Patienten therapiert. Die
MehrDiskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier
Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre
MehrTeil II: Einstieg in Expertensysteme
Teil II: Einstieg in Expertensysteme Begriffsbestimmung: Was sind wissensbasierte Systeme? Die beiden Begriffe Expertensystem und wissensbasiertes System werden weitgehend synonym verwendet für Softwaresysteme,
MehrTäuschung und Manipulation mit Zahlen
58. Ärztekongress Berlin/Charité 4.11.2010 Täuschung und Manipulation mit Zahlen Kleines Statistikseminar zum kritischen Umgang mit Zahlen Dr. med. H.-J. Koubenec Mammasprechstunde im Immanuel Krankenhaus
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrStatistical Coaching. Thomas Forstner
Statistical Coaching Thomas Forstner Diagnoseverfahren Allgemein Vergleich: wahrer Befund mit Test (Diagnose) wahrer Befund muss bekannt sein (Goldstandard) 3 Analogie zur Testtheorie 4 Beurteilung von
MehrSemester-Fahrplan 1 / 17
Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD
MehrEinführung in die Wahrscheinlichkeitsrechnung
Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung
MehrBiomathematik für Mediziner, Klausur WS 1999/2000 Seite 1
Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1 Aufgabe 1: Wieviele der folgenden Variablen sind quantitativ stetig? Schulnoten, Familienstand, Religion, Steuerklasse, Alter, Reaktionszeit, Fahrzeit,
MehrMathematische Grundlagen (Bayes sches Lernen)
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Mathematische Grundlagen (Bayes sches Lernen) Tobias Scheffer Michael Großhans Paul Prasse Uwe Dick Anwendungsbeispiel 1: Diagnostik
MehrZufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen
Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/
MehrTeil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung
Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()
MehrDiscrete Probability - Übung
F H Z > F A C H H O C H S C H U L E Z E N T R A L S C H W E I Z H T A > H O C H S C H U L E F Ü R T E C H N I K + A R C H I T E K T U R L U Z E R N A b t e i l u n g I n f o r m a t i k Discrete Probability
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Unabhängigkeit Prof. Dr. Achim Klenke http://www.aklenke.de 6. Vorlesung: 02.12.2011 1/30 Inhalt 1 Wahrscheinlichkeit 2 2/30 Wahrscheinlichkeit
MehrIn einem mathematischen Modell wird dies beschrieben durch einen funktionalen Zusammenhang: x = f (t).
Aktueller Überblick 0 Einführende Worte ( ) 1 Geschichtlicher Überblick ( ) 2 Zufall 3 Perfekte Sicherheit und ihre Grenzen 4 Angriffsszenarien 5 Der komplexitätstheoretische Ansatz 6 Pseudozufallsgeneratoren
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
MehrMathematische und statistische Methoden II
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de
MehrMathematische und statistische Methoden II
Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg
für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2016 Prof. Dr. Stefan Etschberger Hochschule Augsburg Zufallsvariablen Beschreibung von Ereignissen
MehrKapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen
Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit
MehrDieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.
Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.
MehrWahrscheinlichkeitsrechnung und Statistik
3. Vorlesung - 21.10.2016 Bedingte Wahrscheinlichkeit In einer Urne sind 2 grüne und 3 blaue Kugeln. 2 Kugeln werden ohne Zürücklegen gezogen. Welches ist die Wahrscheinlichkeit, dass : a) man eine grüne
MehrZufallsvariablen. Erwartungswert. Median. Perzentilen
Zufallsvariablen. Erwartungswert. Median. Perzentilen Jörn Loviscach Versionsstand: 22. Januar 2010, 10:46 1 Zufallsvariablen Wenn ein Zufallsexperiment eine Zahl als Ergebnis liefert, nennt man diese
MehrStatistik Einführung // Wahrscheinlichkeitstheorie 3 p.2/58
Statistik Einführung Wahrscheinlichkeitstheorie Kapitel 3 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Leydold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // Wahrscheinlichkeitstheorie
Mehr73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments
73 Hypothesentests 73.1 Motivation Bei Hypothesentests will man eine gewisse Annahme über eine Zufallsvariable darauf hin überprüfen, ob sie korrekt ist. Beispiele: ( Ist eine Münze fair p = 1 )? 2 Sind
MehrWahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung
Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung - 2018 Anwendung der Bayesschen Theorie in ML Bayessche Netzwerke Bayessche Netze werden in modernen Expertensystemen benutzt. Das Wissen wird über
MehrGrundlegende Eigenschaften von Punktschätzern
Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
MehrInhalt. Wissensbasierte Diagnose Entscheidungsbäume Bayes-Netze Fallbasiertes Schließen Funktionsorientierte Diagnose Modellbasierte Systeme
Inhalt 2 Wissensbasierte Diagnose 3 Diagnose bezeichnet hier das Rückschließen auf mögliche Ursachen, welche zu beobachtbaren Wirkungen führen. Heutige Diagnosesysteme haben gute Diagnosebasisfunktionen,
MehrKapitel MK:V. V. Diagnoseansätze
Kapitel MK:V V. Diagnoseansätze Diagnoseproblemstellung Diagnose mit Bayes Evidenztheorie von Dempster/Shafer Diagnose mit Dempster/Shafer Truth Maintenance Assumption-Based TMS Diagnosis Setting Diagnosis
Mehr27 Zufallsvariablen. Erwartungswert. Median. Perzentilen
27 Zufallsvariablen. Erwartungswert. Median. Perzentilen Jörn Loviscach Versionsstand: 7. Januar 2011, 21:03 Die nummerierten Felder sind absichtlich leer, zum Ausfüllen in der Vorlesung. Videos dazu:
MehrModelle diskreter Zufallsvariablen
Statistik 2 für SoziologInnen Modelle diskreter Zufallsvariablen Univ.Prof. Dr. Marcus Hudec Zufallsvariable Eine Variable (Merkmal) X, deren numerische Werte als Ergebnisse eines Zufallsvorgangs aufgefasst
MehrTechnische Universität München SS 2006 Zentrum Mathematik Blatt 7 Prof. Dr. J. Hartl Dr. Hannes Petermeier Dr. Cornelia Eder Dipl.-Ing.
Technische Universität München SS 2006 Zentrum Mathematik Blatt 7 Prof. Dr. J. Hartl Dr. Hannes Petermeier Dr. Cornelia Eder Dipl.-Ing. Martin Nagel Höhere Mathematik 2 (Weihenstephan) 1. In einer Urne
MehrStatistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg
Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer 07621 203 7612 E-Mail:
MehrInstitut für Biometrie und klinische Forschung. WiSe 2012/2013
Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie () WiSe /3 Univariate und bivariate Verfahren Univariate
MehrStochastische Unabhängigkeit. 01. Dezember 2014
Stochastische Unabhängigkeit 0. Dezember 204 Der Begriff der Unabhängigkeit Großbritannien, im November 999. Die Anwältin Sally Clark wird wegen Mordes an ihren Kindern angeklagt. Clark geriet unter Verdacht
MehrBayesnetzmodelle (BNM) in der Kardiologie
Bayesnetzmodelle (BNM) in der Kardiologie Vorgehensmodell - Ergebnisse Claus Möbus - Heiko Seebold Jan-Ole Janssen, Andreas Lüdtke, Iris Najman, Heinz-Jürgen Thole Besonderen Dank an: Herrn Reinke (Münster)
Mehr7. Übung Künstliche Intelligenz
Prof. Dr. Gerd Stumme, Dominik Benz Fachgebiet Wissensverarbeitung 7. Übung Künstliche Intelligenz 17.12.28 Wintersemester 28/29 Unsicherheit, Wagheit 1. Bei einem medizinischen Test wird ein Symptom S,
MehrEinführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte
Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum
MehrSTATISTISCHE KRANKHEITSTESTS. Simon Schimpf und Nico Schmitt
1 STATISTISCHE KRANKHEITSTESTS 18.11.2008 Simon Schimpf und Nico Schmitt Gliederung 2 Hintergrund des Themas (worum geht es Voraussetzungen Lernziele Die intuitive Herangehensweise ohne Satz von Bayes
MehrBayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur
MehrFolien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr
Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der
MehrStochastik Grundlagen
Grundlegende Begriffe: Zufallsexperiment: Ein Experiment, das beliebig oft wiederholt werden kann. Die möglichen Ergebnisse sind bekannt, nicht jedoch nicht, welches Ergebnis ein einzelnes Experiment hat.
Mehra) (A B) tritt ein = A tritt ein oder B tritt ein. = Mindestens eines der Ereignisse A, B tritt ein.
Lösungsvorschläge zu den Aufgaben von Blatt 6: 43) 7 Telefonzellen ( 7 Kugeln in der Urne); 3 davon sind von je einem Benutzer besetzt ( 3 Kugeln in die Stichprobe). Die Telefonzellen werden nicht mehrfach
MehrZusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen
Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k
MehrP (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
MehrBiostatistik, Sommer 2017
1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes
Mehr1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...
Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,
Mehr4. Grundzüge der Wahrscheinlichkeitsrechnung
4. Grundzüge der Wahrscheinlichkeitsrechnung Dr. Antje Kiesel Institut für angewandte Mathematik WS 2010/2011 In der beschreibenden Statistik haben wir verschiedene Kennzahlen (Statistiken) für Stichproben
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung 2. Vorlesung Dr. Jochen Köhler 25.02.2011 1 Inhalt der heutigen Vorlesung Risiko und Motivation für Risikobeurteilungen Übersicht über die Wahrscheinlichkeitstheorie
MehrAufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen
Ü b u n g 1 Aufgabe 1 Die Ereignisse A, B und C erfüllen die Bedingungen P(A) = 0. 7, P(B) = 0. 6, P(C) = 0. 5 P(A B) = 0. 4, P(A C) = 0. 3, P(B C) = 0. 2, P(A B C) = 0. 1 Bestimmen Sie P(A B), P(A C),
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr