Unsicheres Wissen Probabilistische Modelle

Größe: px
Ab Seite anzeigen:

Download "Unsicheres Wissen Probabilistische Modelle"

Transkript

1 Einführung in die Medizinische Informatik und Bioinformatik Unsicheres Wissen Probabilistische Modelle Frank Meineke SS 2005

2 Überblick Motivation Unsicheres Wissen Wahrscheinlichkeitslehre (Auffrischung) Bedingte Wahrscheinlichkeit Satz von Bayes Abhängigkeiten Anwendungsbeispiele Softwarewerkzeug HUGIN 2

3 Ziel Lösen von schwierigen Problemen im medizinischen Bereich Probleme aus der medizinischen Praxis sind meistens schwierig formal lösbar, da: nicht exakt abgrenzbar schlecht (diffus) strukturiert komplexer Natur unterschiedlich interpretierbar Zusammenhang Problem Modell Menschliche Experten können schwierige Probleme lösen! 3

4 Zusammenhang Problem und Modell Datenverarbeitung: reales Problem und Repräsentation überdecken sich Schlecht strukturiertes Problem, wohlstrukturiertes Modell Approximation des schlecht strukturierten Problems durch Expertenwissen reales Problem Repräsentation des Problems im Modell 4

5 Wissen Knowledge is a mysterious kind of entity, about which we know remarkable little. Jackson 1986 Explizites Wissen theoretisches Fachwissen Implizites Wissen Erfahrungswissen Expertenwissen Allgemein-/Alltagswissen 5

6 Daten / Information / Wissen Daten: Signale / Zeichen / Fakten Information: Daten mit Bedeutung Wissen: Information im Kontext Der Zusammenhang wird im Wissensbzw. Informationsmanagement analysiert. 6

7 Diagnostik Diagnose:die nosologisch-systematische Benennung eines Krankheitsbildes, in der Praxis die Summe der Erkenntnisse, auf denen das ärztliche Handeln beruht Diagnostik: alle auf die»erkennung«eines Krankheitsgeschehens als definierte nosologische Einheit gerichteten Maßnahmen. Nosologie / Nosographie: systematische Beschreibung und Lehre von den Krankheiten Roche Lexikon Medizin, 4.Auflage 7

8 Diagnostische Wagheit (1) Beispiel diagnostischer Aussagen: Wenn ein Schnupfen besonders stark ist, geht er meist mit Kopfschmerzen, Gliederschmerzen, tränenden Augen und manchmal mit Fieber einher Ohne Besuch in Asien etc. ist eine Malaria sehr unwahrscheinlich Solches Wissen in Regeln zu formulieren ist oft nicht möglich bzw. ist nur möglich, wenn wir dabei Vereinfachungen oder Fehler in Kauf nehmen Beispiele im Vorgriff auf die Vorlesung Expertensysteme 8

9 Diagnostische Wagheit (2) Aussagen mit unsicherem Wissen: sind sehr häufig enthalten Informationen explizite Aus- und Annahmen implizite Aus- und Annahmen Menschen können im Gegensatz zu Maschinen mit derartigen Aussagen gut umgehen 9

10 Nutzen aus der Formalisierung von Expertenwissen Explizierung von Fachwissen Überprüfbarkeit des Wissens Kritik der Entscheidung möglich Reproduzierbarkeit von Entscheidungsprozessen Möglichkeit einer Konservierung von Fachwissen und Problemlösungsverhalten Unterstützung und Ergänzung menschlicher Fachtätigkeit Vorteile bei der fachlichen Ausbildung Grundlage für die rechnergestützte Wissensverarbeitung und Wissensnutzung Aufgabe: Explizierung und Modellierung von Expertenwissen 10

11 Problembereich Diagnostik Der wichtigste Problembereich für den Umgang mit Unsicherheiten ist die Diagnostik Die Unsicherheiten bei der Diagnostik stammen aus folgenden Quellen: Symptomerhebung: Feststellung der Evidenz der Symptome Symptombewertung: Zuordnung der Symptome zu Diagnosen Unzulänglichkeiten des Verrechnungsschemas 11

12 Arten von unsicherem Wissen Fehler Mangelnde Vertrauenswürdigkeit, Unverlässlichkeit Ungenauigkeit Unvollständigkeit Mehrdeutigkeit Inkonsistenz Irrelevanz 12

13 Arten von unsicherem Wissen Beispiel (1) Mögliche Therapieempfehlungen für ein bestimmtes Medikament bezogen auf einen bestimmten Patienten: 700 mg, 3 mal täglich 600 mg 800 mg, 3 mal täglich Etwa 700 mg, 2 3 mal täglich Wahrscheinlich 700 mg, 2 mal täglich 100 oder 700 mg (Schrift undeutlich), 3 mal täglich 400 mg, 4 mal täglich oder 200 mg einmal 700 mg Mindestens 500 mg, 2 mal täglich Normalerweise werden 500 mg, 2 mal täglich verschrieben 70 g, 3 mal täglich Keine Ahnung, kann aber nachschauen Akazienweg 13 Richtig Ungenau Ungenau Vertrauen Mehrdeutig Inkonsistent,Ungenau Unvollständig Ungenau Irrelevant Fehler Vertrauen Irrelevant Fehler, Vertrauen, Ungenau,Unvollständig, Mehrdeutig, Inkonsistent, Irrelevant (In Anlehnung an Krause, Clark: Representing Uncertain Knowledge) 13

14 Ursachen unsicheren Wissens Wissensmangel gemäß dem Stand der Technik aus ethischen Gründen aus wirtschaftlichen Gründen aus juristischen Gründen Komplexität nicht deterministische Entscheidungsfindung chaotische Probleme 14

15 Betrachtete Unsicherheiten (1) Beispiele Unsicherheiten über einen Zustand Sicher hat er auch Fieber Der Zustand Fieber liegt mit großer Wahrscheinlichkeit vor. Unsicherheiten über das Zutreffen einer Aussage Wahrscheinlich 500 mg, 2 mal täglich Die Aussage: 500 mg, 2 mal täglich ist die richtige Dosierung ist mit großer Wahrscheinlichkeit zutreffend. 15

16 Betrachtete Unsicherheiten (2) Beispiele Unsicherheiten über eine Schlussfolgerung Wenn das Medikament A eingenommen wird, geht es sicher morgen besser Aus Medikament A eingenommen folgt mit großer Wahrscheinlichkeit morgen geht es besser. Ziel: Modell zur Verarbeitung von unsicherem Wissen 16

17 Wahrscheinlichkeitsrechnung Zur Erinnerung Zufallsgrößen sind Variablen, die alle Werte des Wertebereiches WB = {x 1,..., x n }, n Ν annehmen können. Die Zufallsgrößen werden durch Großbuchstaben bezeichnet; typisch X,Y,Z. WB(X) ist also die Menge aller möglichen Werte aus dem Wertebereich der Zufallsgröße X. Jeder Wert aus dem Wertebereich einer diskreten Zufallsgröße X tritt mit einer bestimmten Wahrscheinlichkeit P(X) auf. Die Angabe aller Wahrscheinlichkeiten P(X = x 1 )... P(X = x n ) ergibt die Wahrscheinlichkeitsverteilung der Zufallsgröße. Die Summe aller Wahrscheinlichkeiten ist immer 1. Es gilt: x,y P(X {x y}) = P(x) + P(y), wenn x y 17

18 Wahrscheinlichkeitsrechnung Beispiele Zufallsgröße G = Würfeln einer 6 WB (G) = {1,2,3,4,5,6} P G (X=6) = 1/6 P G (X {2,4,6}) = 1/2 Zufallsgröße G = Geschlecht eines Neugeborenen WB (G) = {m,w} P G (m) = 0.51 P G (w) = 0.49 Wo kommen die Wahrscheinlichkeitswerte her? 18

19 Personalistisch versus Frequentistisch (1) Frequentistisch Beispiel: P(Würfeln einer 6) = Wert aus häufiger Wiederholung ermittelt Die Wahrscheinlichkeit folgt aus der (evtl. theoretischen) Wiederholung des Versuchs Änderungen der Wahrscheinlichkeiten nur aufgrund von Wiederholungen des Versuchs Personalistisch Beispiel: P(Es wir heute regnen) = 0.1 Keine Wiederholungen möglich Die Wahrscheinlichkeit wird durch Abschätzen der Einflüsse bestimmt Änderungen der Wahrscheinlichkeiten (Schätzungen) nur aufgrund von neuem Wissen 19

20 Personalistisch versus Frequentistisch (2) Meist wird für den Begriff der Wahrscheinlichkeit eine frequentistische Deutung angenommen: z.b. Würfeln mit einem Würfel Die Wahrscheinlichkeit eines Ereignisses (hier ein bestimmter Ausgang beim Würfeln z.b. 6 gewürfelt oder gerade gewürfelt) ist die relative Häufigkeit mit der das Ereignis bei einer sehr großen Zahl von Versuchswiederholungen eintritt. 20

21 Bedingte Wahrscheinlichkeit (1) In der Schnupfendomäne können wir Beispiele für Abhängigkeiten und Unabhängigkeiten finden. Die Wahrscheinlichkeiten müssten wir jedoch als personalistische Wahrscheinlichkeiten von einem Experten schätzen lassen. Beispiel: Gegeben sind die Zufallsgrößen F und G mit: ja : Patient hat Fieber F = nein : Patient hat kein Fieber ja : Patient hat Grippe G = nein : Patient hat keine Grippe 21

22 Bedingte Wahrscheinlichkeit (2) Aus der Erfahrung wissen wir, dass diese beiden Zufallsvariablen nicht voneinander unabhängig sind: P (G = ja F = ja) > P (G = ja F = nein) P (F = ja G = ja) > P (F = ja G = nein) Fieber gibt einen Hinweis auf Grippe, da es die Wahrscheinlichkeit für das Vorliegen einer Grippe erhöht und umgekehrt. Wie stark diese Abhängigkeit ist, folgt erst aus den genauen Zahlenwerten. 22

23 Bedingte Wahrscheinlichkeit (3) Bedingte Wahrscheinlichkeiten stellen Beziehungen zwischen Zufallsgrößen her und ähneln damit dem Aufbau von Regeln. P (A = a B = b) = p ist äquivalent zu (B = b) (A = a) mit der Wahrscheinlichkeit p Die Regel (B = b) (A = a) kann immer angewendet werden, d.h. A = a kann geschlussfolgert werden, wenn die Prämisse B = b erfüllt ist. Aber: Die Wahrscheinlichkeit P (A = a B = b) = p darf nur dann angewendet werden, wenn B = b die einzige für A relevante Information ist und nicht eine weitere Regel der Form (C = c) (A = a) mit B und C voneinander abhängig existiert. 23

24 Bedingte Wahrscheinlichkeit Definition Die bedingte Wahrscheinlichkeit für ein Ereignis A unter der Bedingung B ist definiert durch: P (A B) = P (A B) P (B) Beispiel A = 6 Würfel B = {2,4,6} P(A B)= P(6 {2,4,6})/P({2,4,6}) = P(6)/P({2,4,6}) = 1/3 24

25 Bedingte Wahrscheinlichkeit Beispiele (1) Wahrscheinlichkeit für Grippe: P (G) = p P ( G) = 1 p Wahrscheinlichkeit für Grippe in Abhängigkeit von Fieber P (G F): F F G p 1 p 2 G 1- p 1 1- p 2 25

26 Bedingte Wahrscheinlichkeit Beispiele (2) Wahrscheinlichkeit für Grippe wenn Fieber und Halsweh (G F, H) vorliegen: G G F F H H H H p 1 p 2 p 3 p 4 1-p 1 1-p 2 1-p 3 1-p 4 In dieser Form werden die Tabellen für die bedingten Wahrscheinlichkeiten in HUGIN aufgebaut. 26

27 Probabilistisches Modell (1) Um z.b. die Schnupfendomäne, zu beschreiben verwenden wir eine Menge von Merkmalen (Fieber, Grippe, Halsweh), die wir als Zufallsgrößen F, G, H repräsentieren. Ziel ist, das bereits bekannte probabilistische Wissen über die Merkmale und ihre Abhängigkeiten in einem entsprechendem Modell zu repräsentieren um daraus alle bisher nicht bekannten Wahrscheinlichkeiten alle bisher nicht bekannten bedingten Wahrscheinlichkeiten zu berechnen. Ein solches Modell nennt man probabilistisches Modell. 27

28 Modellierungsmöglichkeiten Modelliert werden können: Unsicherheiten über Zustände (z.b. P(Fieber) ) Unsicherheiten über Aussagen (z.b. P(G = ja F = ja)) Nicht modelliert werden: Unsicherheiten über Wahrscheinlichkeiten (z.b. können keine Konfidenzintervalle angegeben werden) 28

29 Probabilistisches Modell (2) Für die Schnupfendomäne mit den Zufallsgrößen Grippe, Fieber, Halsweh wären dies z.b. Wahrscheinlichkeiten wie: P (Grippe = ja) P (Grippe = ja Fieber = ja) P (Fieber = nein Grippe = ja) P (Grippe = ja Fieber = ja, Halsweh = ja) P (Grippe = ja, Fieber = ja Halsweh = ja) 29

30 Probabilistisches Modell (3) In einem probabilistischen Modell können: 1. nicht alle Wahrscheinlichkeiten explizit angeben werden, da es meist sehr viele sind sie häufig nicht sinnvoll geschätzt werden können 2. durch Unabhängigkeitsannahmen zwischen den Zufallsgrößen kann auf die Angabe vieler bedingter Wahrscheinlichkeiten verzichtet werden. Gilt z.b. P (A B) = P (A), dann müssen die P (A B) nicht angegeben werden. 3. Widersprüche auf der Grundlage falscher Annahmen aufgedeckt werden. Frage: Wie kann ein solches probabilistisches Modell realisiert werden? 30

31 Softwarewerkzeug Hugin basiert auf einem gerichteten Graphen zur Darstellung eines probabilistischen Modells Gerichtete Graphen bestehen aus einer Menge von Knoten einer Menge von gerichteten Kanten Gerichtete Graphen können dazu verwendet werden um Abhängigkeiten zwischen Zufallsgrößen darzustellen indem: Zufallsgrößen auf die Knoten direkte Abhängigkeiten auf die Kanten abgebildet werden Einen solcher Graph wird im weiteren als Bayes-Netz bezeichnet 31

32 Satz von Bayes Vorbereitung Diagnostische Schlussrichtung Von den Symptomen (Folgen) auf die Krankheit (Ursache) schließen. Hier: Von Fieber auf Grippe schließen Kausale Schlussrichtung Von der Ursache (Krankheit) auf die Folgen (Symptome) schließen. Hier: Von Grippe auf Fieber schließen G Einfaches BAYES-Netz Meist ist es wesentlich einfacher Wahrscheinlichkeiten in kausaler Richtung zu schätzen, als in diagnostischer. Auch sind diese meist geringeren Schwankungen unterworfen: Bei einer Grippeepidemie steigt die Wahrscheinlichkeit, dass ein Patient mit Fieber an Grippe erkrankt ist an. Trotzdem wird der Anteil der Grippekranken mit Fieber etwa gleich bleiben. F 32

33 Satz von Bayes Aber: Für den Arzt ist es intuitiver in diagnostischer Richtung schlussfolgern! Satz von Bayes P (K S) = P (S K) P (K) P (S) Der Satz von Bayes ermöglicht es die kausale und diagnostische Schlussrichtung umzudrehen. Es können im Modell Wahrscheinlichkeiten in kausaler Richtung angeben und in diagnostischer Richtung geschlussfolgert werden. Dies ist bei Regeln so nicht möglich: Aus A B kann ich keine Aussage ob B A gilt, ableiten: Vogel fliegt fliegt Vogel 33

34 Beispiel Grippe Hugin Modell 34

35 Bayes-Netze Bayes-Netze bestehen aus: einer qualitativen Beschreibung: dem Graphen An diesem Graphen kann abgelesen werden, welche Zufallsgrößen im Modell abhängig, unabhängig oder (und unter welchen Bedingungen) bedingt abhängig sind. einer quantitativen Beschreibung: den bedingten Wahrscheinlichkeiten in den Wahrscheinlichkeitstabellen. Hinweis zur Modellierung: Zur Reduktion der Komplexität in Bayes-Netzen empfiehlt es sich möglichst wenige, jedoch alle notwendigen Abhängigkeiten zu modellieren. 35

36 Unabhängig bedingt abhängig (1) Betrachten wir folgendes Szenario: Wir werfen zwei Münzen M 1 und M 2. In Abhängigkeit vom Ausgang der beiden Münzwürfe wird die Glocke G geläutet, wenn beide Münzen Kopf oder beide Münzen Zahl zeigen. Die beiden Münzwürfe sind voneinander unabhängig: P (M 1 M 2 ) = P (M 1 ) P (M 2 M 1 ) = P (M 2 ) Somit sind auch die einzelnen Münzwürfe und die Glocke unabhängig P (G M 1 ) = P (G M 2 ) = P (G) Die Glocke ist jedoch abhängig von beiden Münzwürfen zusammen; die Glocke ist ja vollständig durch die Münzwürfe festgelegt P (G M 1, M 2 ) P (G M 1 ) = P (G M 2 ) = P (G) 36

37 Unabhängig bedingt abhängig (2) M 1 M 2 G BAYES-Netz zum Münzen-Szenario Zwischen den beiden Münzen wird hier durch die Glocke eine Verbindung hergestellt. Wenn wir den Zustand der Glocke kennen, geht die betrachtete Unabhängigkeit zwischen den Münzen verloren! P (M 1 M 2, G) P (M 1 M 2 ) 37

38 Unabhängig bedingt abhängig (3) Beispiel: P (M 1 = Kopf M 2 = Zahl) = 0.5 P (M 1 = Kopf M 2 = Zahl, G = ja) = 0 Die Münzen sind bedingt abhängig, unter der Voraussetzung der Zustand der Glocke ist gegeben. Dies wird als bedingte Abhängigkeit bezeichnet HUGIN 38

39 Bedingte Abhängigkeit Betrachten wir die Auswirkungen von bedingter Abhängigkeit an einem Beispiel aus der Schnupfendomäne: S G F BAYES-Netz mit Schnupfen S, Grippe G und Fieber F Wenn wir nicht wissen, ob der Patient Fieber hat, so sind Grippe und Fieber unabhängig. Haben wir Fieber beobachtet, so verschwindet diese Unabhängigkeit. Weiterhin gilt für sinnvolle Zahlenbelegungen, dass wenn wir jetzt Schnupfen beobachten die Wahrscheinlichkeit für Fieber sinkt. Schnupfen gibt uns eine Begründung für das Fieber und macht dadurch Grippe 39

40 Ausblick Woher kommen die Zahlen? Aufwand für die Wissensakquisition ist sehr hoch. Teilweise sind nur sehr grobe Schätzungen möglich Sind die Zahlen konstant? Die modellierten Beziehungen sind nicht immer und überall gleich. Oft genügt es jedoch, die Prävalenzen anzupassen Berechnungskomplexität? Bei stark vernetzten Graphen ist der Rechenaufwand sehr hoch. Erklärungsfähigkeit? Bayes-Netze sind eine intentionalistische Wissensrepräsentation und haben daher Schwierigkeiten mit der Erklärungsfähigkeit Genauigkeit der Ergebnisse? Wie genau sind die Ergebnisse, wenn meine Zahlenwerte teilweise nur grobe Schätzungen sind? 40

41 Bayes Anwendung (1) Diagnostischer Test Prävalenz: P(krank) Sensitivität: P(Test positiv krank) Spezifität: P(Test negativ gesund) Positiver Vorhersagewert = P(krank Test positiv) Negativer Vorhersagewert = P(gesund Test negativ) 41

42 Bayes Anwendung (2) Diagnostischer Test 0,02% der Bevölkerung leidet an der Krankheit K der Labortest findet die Kranken mit 99,9% Wahrscheinlichkeit Hält nur ca. 1% der Gesunden fälschlich für krank Ihr Test ist positiv! Sind sie krank? 42

43 Bayes Anwendung (1) Diagnostischer Test Prävalenz: P(krank) = 0.02% = Sensitivität: P(Test positiv krank) = Spezifität: P(Test negativ gesund) = = 0.99 Positiver Vorhersagewert = P(krank Test positiv) =? Negativer Vorhersagewert = P(gesund Test negativ) 43

44 Satz von Bayes (2) P (K S) = P (S K) P (K) P (S) = P (S K) P (K) P (S K) P (K) + P (S K) P ( K) 44

45 Bayes Anwendung (3) Positiver Vorhersagewert = Sensitivität * Prävalenz Sensitivität *Prävalenz + (1-Spezifität)*(1- Prävalenz) = (0.999*0.0002)/ (0.999* (1-0.99)*( ) = 0, = ca. 2% 45

46 Entscheidungsbaum Krank Gesund ~0 ~2 ~100 ~9898 Test- Test+ Test+ Test- 2 von 102 Personen haben einen zu Recht positiven Test. 46

47 Monty Hall Puzzle (1) alias: Ziegenproblem / Drei Türen Problem Drei Tore Hinter einem Tor steht ein Preis Sie dürfen ein Tor auswählen Monty öffnet ein leeres anderes Tor Sie dürfen jetzt noch einmal wechseln! Was tun Sie? Warum? 47

48 Monty Hall (2) Hugin Modellierung 48

49 Monty Hall (3) Hugin Abfrage 49

Überblick. Unsicheres Wissen Probabilistische Modelle. Ziel Lösen von schwierigen Problemen im medizinischen Bereich. Zusammenhang Problem und Modell

Überblick. Unsicheres Wissen Probabilistische Modelle. Ziel Lösen von schwierigen Problemen im medizinischen Bereich. Zusammenhang Problem und Modell Einführung in die Medizinische Informatik und Bioinformatik Unsicheres Wissen Probabilistische Modelle Frank Meineke SS 2006 Überblick Motivation Unsicheres Wissen Wahrscheinlichkeitslehre (Auffrischung)

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen

Mehr

Satz von der totalen Wahrscheinlichkeit

Satz von der totalen Wahrscheinlichkeit htw saar 1 Satz von der totalen Wahrscheinlichkeit Sei (Ω, P) ein Wahrscheinlichkeitsraum, und B 1,, B n seien paarweise disjunkte Ereignisse mit B i = Ω. Für jedes Ereignis A gilt dann: P(A) = P(A B 1

Mehr

Übersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1

Übersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches

Mehr

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3. 2 Wahrscheinlichkeitstheorie Beispiel. Wie wahrscheinlich ist es, eine Zwei oder eine Drei gewürfelt zu haben, wenn wir schon wissen, dass wir eine ungerade Zahl gewürfelt haben? Dann ist Ereignis A das

Mehr

8 Einführung in Expertensysteme

8 Einführung in Expertensysteme 8 Einführung in Expertensysteme 22. Vorlesung: Constraints; Probabilistisches Schließen Für die Programmierung von Expertensystemen werden verschiedene Grundtechniken der Wissensrepräsentation und spezielle

Mehr

Kapitel N. Wahrscheinlichkeitsrechnung

Kapitel N. Wahrscheinlichkeitsrechnung Kapitel N Wahrscheinlichkeitsrechnung Inhalt dieses Kapitels N000 1 Diskrete Wahrscheinlichkeitsräume 2 Bedingte Wahrscheinlichkeit und Unabhängigkeit 1 Produktexperimente 2 Kombinatorik und Urnenmodelle

Mehr

Methoden der KI in der Biomedizin Unsicheres Schließen

Methoden der KI in der Biomedizin Unsicheres Schließen Methoden der KI in der Biomedizin Unsicheres Schließen Karl D. Fritscher Motivation Insofern sich die Gesetze der Mathematik auf die Wirklichkeit beziehen, sind sie nicht sicher. Und insofern sie sich

Mehr

Elementare Wahrscheinlichkeitslehre

Elementare Wahrscheinlichkeitslehre Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?

Mehr

Evidenzpropagation in Bayes-Netzen und Markov-Netzen

Evidenzpropagation in Bayes-Netzen und Markov-Netzen Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Stochastik und Markovketten

Stochastik und Markovketten 1 Zentrum für Bioinformatik der Universität des Saarlandes WS 22/23 2 Warum Stochastik? Viele Fragestellungen der Bioinformatik lassen sich auch heutzutage gar nicht oder nicht schnell genug exakt beantworten

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen

Mehr

KI Seminar Vortrag Nr. 9 Unsicheres Wissen. Einleitung. Grundlagen. Wissen Ansätze. Sicherheitsfaktoren. Ansatz Probleme. Schlussfolgerungsnetze

KI Seminar Vortrag Nr. 9 Unsicheres Wissen. Einleitung. Grundlagen. Wissen Ansätze. Sicherheitsfaktoren. Ansatz Probleme. Schlussfolgerungsnetze Einleitung KI Seminar 2005 Vortrag Nr. 9 Unsicheres 1 Motivation Vögel können fliegen! 2 : Zuordnung von Wahrheitswerten, Wahrscheinlichkeitsgraden,. zu Aussagen, Ereignissen, Zuständen, 3 3 Eigenschaften

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 stheorie: Grundbegriffe Prof. Dr. Achim Klenke http://www.aklenke.de 5. Vorlesung: 25.11.2011 1/33 Inhalt 1 Zufallsvariablen 2 Ereignisse 3 2/33 Zufallsvariablen Eine Zufallsvariable

Mehr

Bayes sche und probabilistische Netze

Bayes sche und probabilistische Netze Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung

Mehr

Methoden der KI in der Biomedizin Bayes Netze

Methoden der KI in der Biomedizin Bayes Netze Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2014 / 2015 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Wahrscheinlichkeitsrechnung Theorie Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem,

Mehr

Biomathematik für Mediziner

Biomathematik für Mediziner Institut für Medizinische Biometrie, Informatik und Epidemiologie der Universität Bonn (Direktor: Prof. Dr. Max P. Baur) Biomathematik für Mediziner Klausur SS 2002 Aufgabe 1: Franz Beckenbauer will, dass

Mehr

Anhang 9: 3. Szenario

Anhang 9: 3. Szenario Anhang 9: 3. Szenario Monty Hall s Problem (Ziegenproblem) 268 3. Szenario Monty Hall s Problem oder das Ziegenproblem 269 Ziegenproblem nach Wikipedia, der freien Enzyklopädie Das Ziegenproblem (auch

Mehr

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

Institut für Biometrie und klinische Forschung. WiSe 2012/2013 Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive

Mehr

Wie liest man Konfidenzintervalle? Teil I. Premiu m

Wie liest man Konfidenzintervalle? Teil I. Premiu m Wie liest man Konfidenzintervalle? Teil I Premiu m Was sind Konfidenzintervalle? Ein Konfidenzintervall (KI) ist ein Maß für die Unsicherheit bezüglich einer Schätzung eines Effekts. Es ist ein Intervall

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Unabhängigkeit von Ereignissen A, B unabhängig:

Mehr

Vorlesung - Medizinische Biometrie

Vorlesung - Medizinische Biometrie Vorlesung - Medizinische Biometrie Stefan Wagenpfeil Institut für Medizinische Biometrie, Epidemiologie und Medizinische Informatik Universität des Saarlandes, Homburg / Saar Vorlesung - Medizinische Biometrie

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe

Mehr

Vorlesung Statistik, WING, ASW Wahrscheinlichkeit in Laplace Versuchen. Kombinatorische Formeln. Bedingte Wahrscheinlichkeit

Vorlesung Statistik, WING, ASW Wahrscheinlichkeit in Laplace Versuchen. Kombinatorische Formeln. Bedingte Wahrscheinlichkeit Wahrscheinlichkeit in Laplace Versuchen Kombinatorische Formeln Bedingte Wahrscheinlichkeit Multiplikationssatz Unabhängigkeit Melanie Kaspar 1 Formel der totalen Wahrscheinlichkeit Satz von Bayes Melanie

Mehr

Täuschung und Manipulation mit Zahlen Teil 1

Täuschung und Manipulation mit Zahlen Teil 1 Täuschung und Manipulation mit Zahlen Teil 1 Kleines Statistikseminar zum kritischen Umgang mit Zahlen 23.3.2011 Dr. med. H.-J. Koubenec Mammasprechstunde im Immanuel Krankenhaus Berlin Folien: Mammographie-Screening.de

Mehr

Aufgabe 1 Probabilistische Inferenz

Aufgabe 1 Probabilistische Inferenz Seite 1 von 11 Aufgabe 1 Probabilistische Inferenz (28 Punkte) Es existieren zwei Krankheiten, die das gleiche Symptom hervorrufen. Folgende Erkenntnisse konnten in wissenschaftlichen Studien festgestellt

Mehr

4 Diskrete Wahrscheinlichkeitsverteilungen

4 Diskrete Wahrscheinlichkeitsverteilungen 4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder

Mehr

Wahrscheinlichkeitsrechnung [probability]

Wahrscheinlichkeitsrechnung [probability] Wahrscheinlichkeitsrechnung [probability] Hinweis: Die Wahrscheinlichkeitsrechnung ist nicht Gegenstand dieser Vorlesung. Es werden lediglich einige Begriffsbildungen bereitgestellt und an Beispielen erläutert,

Mehr

Sprechstunde zur Klausurvorbereitung

Sprechstunde zur Klausurvorbereitung htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)

Mehr

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger

Mehr

Epidemiologie und HIV-Tests

Epidemiologie und HIV-Tests 26. November 2009 Cornelias HIV-Test Das ist Cornelia. Cornelia möchte Plasmaspenderin werden. Dafür braucht sie einen negativen Befund eines HIV-Tests. Deshalb geht sie ins Krankenhaus. Cornelias HIV-Test

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Übung zur Vorlesung Statistik I WS Übungsblatt 12

Übung zur Vorlesung Statistik I WS Übungsblatt 12 Übung zur Vorlesung Statistik I WS 2013-2014 Übungsblatt 12 20. Januar 2014 Die folgenden ufgaben sind aus ehemaligen Klausuren! ufgabe 38.1 (1 Punkt: In einer Studie werden 10 Patienten therapiert. Die

Mehr

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre

Mehr

Teil II: Einstieg in Expertensysteme

Teil II: Einstieg in Expertensysteme Teil II: Einstieg in Expertensysteme Begriffsbestimmung: Was sind wissensbasierte Systeme? Die beiden Begriffe Expertensystem und wissensbasiertes System werden weitgehend synonym verwendet für Softwaresysteme,

Mehr

Täuschung und Manipulation mit Zahlen

Täuschung und Manipulation mit Zahlen 58. Ärztekongress Berlin/Charité 4.11.2010 Täuschung und Manipulation mit Zahlen Kleines Statistikseminar zum kritischen Umgang mit Zahlen Dr. med. H.-J. Koubenec Mammasprechstunde im Immanuel Krankenhaus

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Statistical Coaching. Thomas Forstner

Statistical Coaching. Thomas Forstner Statistical Coaching Thomas Forstner Diagnoseverfahren Allgemein Vergleich: wahrer Befund mit Test (Diagnose) wahrer Befund muss bekannt sein (Goldstandard) 3 Analogie zur Testtheorie 4 Beurteilung von

Mehr

Semester-Fahrplan 1 / 17

Semester-Fahrplan 1 / 17 Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung

Mehr

Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1

Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1 Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1 Aufgabe 1: Wieviele der folgenden Variablen sind quantitativ stetig? Schulnoten, Familienstand, Religion, Steuerklasse, Alter, Reaktionszeit, Fahrzeit,

Mehr

Mathematische Grundlagen (Bayes sches Lernen)

Mathematische Grundlagen (Bayes sches Lernen) Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Mathematische Grundlagen (Bayes sches Lernen) Tobias Scheffer Michael Großhans Paul Prasse Uwe Dick Anwendungsbeispiel 1: Diagnostik

Mehr

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/

Mehr

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()

Mehr

Discrete Probability - Übung

Discrete Probability - Übung F H Z > F A C H H O C H S C H U L E Z E N T R A L S C H W E I Z H T A > H O C H S C H U L E F Ü R T E C H N I K + A R C H I T E K T U R L U Z E R N A b t e i l u n g I n f o r m a t i k Discrete Probability

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Unabhängigkeit Prof. Dr. Achim Klenke http://www.aklenke.de 6. Vorlesung: 02.12.2011 1/30 Inhalt 1 Wahrscheinlichkeit 2 2/30 Wahrscheinlichkeit

Mehr

In einem mathematischen Modell wird dies beschrieben durch einen funktionalen Zusammenhang: x = f (t).

In einem mathematischen Modell wird dies beschrieben durch einen funktionalen Zusammenhang: x = f (t). Aktueller Überblick 0 Einführende Worte ( ) 1 Geschichtlicher Überblick ( ) 2 Zufall 3 Perfekte Sicherheit und ihre Grenzen 4 Angriffsszenarien 5 Der komplexitätstheoretische Ansatz 6 Pseudozufallsgeneratoren

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2016 Prof. Dr. Stefan Etschberger Hochschule Augsburg Zufallsvariablen Beschreibung von Ereignissen

Mehr

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit

Mehr

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen. Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 3. Vorlesung - 21.10.2016 Bedingte Wahrscheinlichkeit In einer Urne sind 2 grüne und 3 blaue Kugeln. 2 Kugeln werden ohne Zürücklegen gezogen. Welches ist die Wahrscheinlichkeit, dass : a) man eine grüne

Mehr

Zufallsvariablen. Erwartungswert. Median. Perzentilen

Zufallsvariablen. Erwartungswert. Median. Perzentilen Zufallsvariablen. Erwartungswert. Median. Perzentilen Jörn Loviscach Versionsstand: 22. Januar 2010, 10:46 1 Zufallsvariablen Wenn ein Zufallsexperiment eine Zahl als Ergebnis liefert, nennt man diese

Mehr

Statistik Einführung // Wahrscheinlichkeitstheorie 3 p.2/58

Statistik Einführung // Wahrscheinlichkeitstheorie 3 p.2/58 Statistik Einführung Wahrscheinlichkeitstheorie Kapitel 3 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Leydold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // Wahrscheinlichkeitstheorie

Mehr

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments 73 Hypothesentests 73.1 Motivation Bei Hypothesentests will man eine gewisse Annahme über eine Zufallsvariable darauf hin überprüfen, ob sie korrekt ist. Beispiele: ( Ist eine Münze fair p = 1 )? 2 Sind

Mehr

Wahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung

Wahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung - 2018 Anwendung der Bayesschen Theorie in ML Bayessche Netzwerke Bayessche Netze werden in modernen Expertensystemen benutzt. Das Wissen wird über

Mehr

Grundlegende Eigenschaften von Punktschätzern

Grundlegende Eigenschaften von Punktschätzern Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Inhalt. Wissensbasierte Diagnose Entscheidungsbäume Bayes-Netze Fallbasiertes Schließen Funktionsorientierte Diagnose Modellbasierte Systeme

Inhalt. Wissensbasierte Diagnose Entscheidungsbäume Bayes-Netze Fallbasiertes Schließen Funktionsorientierte Diagnose Modellbasierte Systeme Inhalt 2 Wissensbasierte Diagnose 3 Diagnose bezeichnet hier das Rückschließen auf mögliche Ursachen, welche zu beobachtbaren Wirkungen führen. Heutige Diagnosesysteme haben gute Diagnosebasisfunktionen,

Mehr

Kapitel MK:V. V. Diagnoseansätze

Kapitel MK:V. V. Diagnoseansätze Kapitel MK:V V. Diagnoseansätze Diagnoseproblemstellung Diagnose mit Bayes Evidenztheorie von Dempster/Shafer Diagnose mit Dempster/Shafer Truth Maintenance Assumption-Based TMS Diagnosis Setting Diagnosis

Mehr

27 Zufallsvariablen. Erwartungswert. Median. Perzentilen

27 Zufallsvariablen. Erwartungswert. Median. Perzentilen 27 Zufallsvariablen. Erwartungswert. Median. Perzentilen Jörn Loviscach Versionsstand: 7. Januar 2011, 21:03 Die nummerierten Felder sind absichtlich leer, zum Ausfüllen in der Vorlesung. Videos dazu:

Mehr

Modelle diskreter Zufallsvariablen

Modelle diskreter Zufallsvariablen Statistik 2 für SoziologInnen Modelle diskreter Zufallsvariablen Univ.Prof. Dr. Marcus Hudec Zufallsvariable Eine Variable (Merkmal) X, deren numerische Werte als Ergebnisse eines Zufallsvorgangs aufgefasst

Mehr

Technische Universität München SS 2006 Zentrum Mathematik Blatt 7 Prof. Dr. J. Hartl Dr. Hannes Petermeier Dr. Cornelia Eder Dipl.-Ing.

Technische Universität München SS 2006 Zentrum Mathematik Blatt 7 Prof. Dr. J. Hartl Dr. Hannes Petermeier Dr. Cornelia Eder Dipl.-Ing. Technische Universität München SS 2006 Zentrum Mathematik Blatt 7 Prof. Dr. J. Hartl Dr. Hannes Petermeier Dr. Cornelia Eder Dipl.-Ing. Martin Nagel Höhere Mathematik 2 (Weihenstephan) 1. In einer Urne

Mehr

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer 07621 203 7612 E-Mail:

Mehr

Institut für Biometrie und klinische Forschung. WiSe 2012/2013

Institut für Biometrie und klinische Forschung. WiSe 2012/2013 Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie () WiSe /3 Univariate und bivariate Verfahren Univariate

Mehr

Stochastische Unabhängigkeit. 01. Dezember 2014

Stochastische Unabhängigkeit. 01. Dezember 2014 Stochastische Unabhängigkeit 0. Dezember 204 Der Begriff der Unabhängigkeit Großbritannien, im November 999. Die Anwältin Sally Clark wird wegen Mordes an ihren Kindern angeklagt. Clark geriet unter Verdacht

Mehr

Bayesnetzmodelle (BNM) in der Kardiologie

Bayesnetzmodelle (BNM) in der Kardiologie Bayesnetzmodelle (BNM) in der Kardiologie Vorgehensmodell - Ergebnisse Claus Möbus - Heiko Seebold Jan-Ole Janssen, Andreas Lüdtke, Iris Najman, Heinz-Jürgen Thole Besonderen Dank an: Herrn Reinke (Münster)

Mehr

7. Übung Künstliche Intelligenz

7. Übung Künstliche Intelligenz Prof. Dr. Gerd Stumme, Dominik Benz Fachgebiet Wissensverarbeitung 7. Übung Künstliche Intelligenz 17.12.28 Wintersemester 28/29 Unsicherheit, Wagheit 1. Bei einem medizinischen Test wird ein Symptom S,

Mehr

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum

Mehr

STATISTISCHE KRANKHEITSTESTS. Simon Schimpf und Nico Schmitt

STATISTISCHE KRANKHEITSTESTS. Simon Schimpf und Nico Schmitt 1 STATISTISCHE KRANKHEITSTESTS 18.11.2008 Simon Schimpf und Nico Schmitt Gliederung 2 Hintergrund des Themas (worum geht es Voraussetzungen Lernziele Die intuitive Herangehensweise ohne Satz von Bayes

Mehr

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur

Mehr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der

Mehr

Stochastik Grundlagen

Stochastik Grundlagen Grundlegende Begriffe: Zufallsexperiment: Ein Experiment, das beliebig oft wiederholt werden kann. Die möglichen Ergebnisse sind bekannt, nicht jedoch nicht, welches Ergebnis ein einzelnes Experiment hat.

Mehr

a) (A B) tritt ein = A tritt ein oder B tritt ein. = Mindestens eines der Ereignisse A, B tritt ein.

a) (A B) tritt ein = A tritt ein oder B tritt ein. = Mindestens eines der Ereignisse A, B tritt ein. Lösungsvorschläge zu den Aufgaben von Blatt 6: 43) 7 Telefonzellen ( 7 Kugeln in der Urne); 3 davon sind von je einem Benutzer besetzt ( 3 Kugeln in die Stichprobe). Die Telefonzellen werden nicht mehrfach

Mehr

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes

Mehr

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente... Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,

Mehr

4. Grundzüge der Wahrscheinlichkeitsrechnung

4. Grundzüge der Wahrscheinlichkeitsrechnung 4. Grundzüge der Wahrscheinlichkeitsrechnung Dr. Antje Kiesel Institut für angewandte Mathematik WS 2010/2011 In der beschreibenden Statistik haben wir verschiedene Kennzahlen (Statistiken) für Stichproben

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung 2. Vorlesung Dr. Jochen Köhler 25.02.2011 1 Inhalt der heutigen Vorlesung Risiko und Motivation für Risikobeurteilungen Übersicht über die Wahrscheinlichkeitstheorie

Mehr

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen Ü b u n g 1 Aufgabe 1 Die Ereignisse A, B und C erfüllen die Bedingungen P(A) = 0. 7, P(B) = 0. 6, P(C) = 0. 5 P(A B) = 0. 4, P(A C) = 0. 3, P(B C) = 0. 2, P(A B C) = 0. 1 Bestimmen Sie P(A B), P(A C),

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr