Diagnose. Statistische Diagnose. Statistische Diagnose. Statistische Diagnose. Einordnung: Diagnose Problemklasse Analyse

Größe: px
Ab Seite anzeigen:

Download "Diagnose. Statistische Diagnose. Statistische Diagnose. Statistische Diagnose. Einordnung: Diagnose Problemklasse Analyse"

Transkript

1 Statistische Einordnung: Problemklasse Analyse Kernfrage bzgl. der Modellierung: Wieviel ist bekannt über das zu diagnostizierende System? Begriffe der : System. Ausschnitt aus der realen Welt. Hier: System zeigt Fehlverhalten bzw. einen Fehler. Black box Gray box White box Symptom. Beobachtbare Ausprägung einer Eigenschaft eines Systems, die durch einen Fehler im System verursacht wird. Einfach: Abweichung vom Normalverhalten. Wenn wenig bekannt ist, haben wir es mit einem Black-Box-Modell bzw. assoziativem Modell zu tun. Input Output I. Zustand eines Systems, der alle Symptome erklärt. Hier: = Fehler(zustand) bzw. Menge von Fehler(zuständen) II. Prozess zur Bestimmung einer (im Sinne von I). Hypothese. kandidat, mögliche (im Sinne von I).... Black box Modellierung: statistische Verfahren neuronale Netze Methoden der Identifikation V-1 Statistical Diagnosis: Bayes c STEIN V-2 Statistical Diagnosis: Bayes c STEIN Statistische Statistische Problemstellung und Rahmen für Modellierung seien vorgegeben. Frage: Welche Problemlösungsmethode ist geeignet? Problemlösungs- methoden für Analyseaufgaben Arzt: Das Medikament wird Sie mit einer Wahrscheinlichkeit von 90% heilen. Was könnte damit gemeint sein? 1. Er hat das Medikament bei 20 PatientInnen ausprobiert und 18 wurden geheilt. statistische fallbasierte Logik- Struktur- Fehler- 2. Er glaubt, daß, wenn er immer mehr PatientInnen mit diesem Medikament behandeln würde, sich die relative Häufigkeit der Erfolge bei genügend großer PatientInnen-Zahl bei 0.9 stabilisieren wird. assoziative funktionsbas. Ursache/ Wirkungs- Regel- modell Verhaltens- Fuzzy- 3. Er hält 90 Euro für den fairen Einsatz einer Wette, bei der er 100 Euro bekommt, wenn Sie geheilt werden. verhaltensbas. Black-Box-. Ein statistischer Test mit der Irrtums-Wahrscheinlichkeit 10% hat die Wirksamkeit des Medikamentes bewiesen. [Hennig, Univ. Hamburg] V-3 Statistical Diagnosis: Bayes c STEIN V- Statistical Diagnosis: Bayes c STEIN

2 Statistische Prinzip: Aus einer Menge vorhandener Fälle werden mit Hilfe statistischer Methoden Aussagen über die typische Verteilung möglicher n abgeleitet. Aussagen quantifizieren den Zusammenhang zwischen Symptomen und n Aussagen umfassen oft a-priori-wahrscheinlichkeiten und bedingte Wahrscheinlichkeiten Für gegebene Symptomkonstellationen können Wahrscheinlichkeiten möglicher n berechnet werden Wahrscheinlichste (= Lösung) kann ausgewählt werden. Definition 27 (Zufallsexperiment, Zufallsbeobachtung) Ein Zufallsexperiment ist ein im Prinzip beliebig oft wiederholbarer Vorgang mit folgenden Eigenschaften: Anordnung. Durch eine Beschreibung festgelegte reproduzierbare Gegebenheit. Prozedur. Ein festgelegtes Vorgehen innerhalb der Anordnung zur Durchführung des Experiments. Unvorhersagbarkeit des Resultats. Werden Anordnung und Prozedur nicht künstlich geschaffen, so spricht man von natürlichen Zufallsexperimenten bzw. von Zufallsbeobachtungen. Grundlage wichtiger statistische Ansätze: 1. Theorem von Bayes 2. Dempster-Shafer-Theorie Der Vorgang kann mehrmalig mit demselben System oder einmalig mit gleichartigen Systemen durchgeführt werden. Auch Zufallsexperimente laufen kausal im Sinne von Ursache und Wirkung ab. Die Zufälligkeit des Ergebnisses beruht nur auf dem Fehlen von Informationen über die Ursachenkette. V-5 Statistical Diagnosis: Bayes c STEIN V-6 Statistical Diagnosis: Bayes c STEIN Definition 28 (Ergebnisraum) Eine Menge Ω = {ω 1, ω 2,..., ω n } heißt Ergebnisraum eines Zufallsexperiments, wenn jedem Versuchsausgang höchstens ein Element ω Ω zugeordnet ist. Die Elemente von Ω heißen Ergebnisse. Empirisches Gesetz der großen Zahlen: Es gibt Ereignisse, deren relative Häufigkeit nach einer hinreichend großen Anzahl von Versuchen ungefähr gleich einem festen Zahlenwert ist. Motivation zum klassischen Wahrscheinlichkeitsbegriff: Definition 29 (Ereignisraum) Jede Teilmenge A eines Ergebnisraums Ω heißt Ereignis. Ein Ereignis A tritt genau dann ein, wenn ein Ergebnis ω vorliegt mit ω A. Die Menge aller Ereignisse P(Ω) heißt Ereignisraum. Laplace-Experiment. Hierunter versteht man ein Zufallsexperiment, bei dem auf Basis einer Analyse der Anordnung und Prozedur angenommen werden kann, daß alle Ergebnisse gleich wahrscheinlich sind. Definition 30 (wichtige Ereignistypen) Sei Ω ein Ergebnisraums, A Ω und B Ω zwei Ereignisse. Dann sei vereinbart: heißt unmögliches Ereignis. Ω heißt sicheres Ereignis. Ω \ A =: A heißt Gegenereignis zu A. A = 1 A heißt Elementarereignis. A B A heißt Teilereignis von B bzw. A zieht B nach sich. A = B (A B B A). A B = A und B sind unvereinbar (ansonsten vereinbar). Laplace-Wahrscheinlichkeiten. So bezeichnet man die Wahrscheinlichkeiten der Ergebnisse eines Laplace-Experiments. Bei n Ergebnissen beträgt die Wahrscheinlichkeit jedes Ergebnisses 1/n. Laplace-Annahme. Hierunter versteht man die Annahme, daß es sich bei einem Experiment um ein Laplace-Experiment handelt. V-7 Statistical Diagnosis: Bayes c STEIN V-8 Statistical Diagnosis: Bayes c STEIN

3 Definition 31 (klassischer oder Laplace scher Wahrscheinlichkeitsbegriff) Wird jedem Elementarereignis aus Ω die gleiche Wahrscheinlichkeit zugeordnet, so gilt für die Wahrscheinlichkeit eines Ereignisses A: = A Anzahl der für A günstigen Elementarereignisse = Ω Anzahl aller möglichen Elementarereignisse Axiomatische Definition des Wahrscheinlichkeitsbegriffs: 1. Postulierung einer Funktion, die jedem Element des Ereignisraums eine Wahrscheinlichkeit zuordnet. 2. Formulierung grundlegender Eigenschaften dieser Funktion in Form von Axiomen. Definition 32 (Wahrscheinlichkeitsmaß) Strenggenommen handelt es sich hierbei nicht um eine Definition. Warum nicht? Trifft die Laplace-Annahme nicht zu, so können die Wahrscheinlichkeiten nur als relative Häufigkeiten bei der Durchführung vieler Versuche geschätzt werden. Motiviert durch das empirische Gesetz der großen Zahlen wurde versucht, den Wahrscheinlichkeitsbegriff frequentistisch, über den (fiktiven) Grenzwert der relativen Häufigkeit zu definieren (hier insbesondere v. Mises, 1951). Dieser Versuch scheiterte, weil dieser Grenzwert im Gegensatz zu Grenzwerten in der Infinitesimalrechnung nicht nachweisbar ist. Sei Ω eine Menge, genannt Ergebnisraum, und sei P(Ω) die Menge aller Ereignisse, genannt Ereignisraum. Dann heißt eine Funktion P : P(Ω) R, die jedem Ereignis A P(Ω) eine relle Zahl zuordnet, Wahrscheinlichkeitsmaß, wenn sie folgende Eigenschaften besitzt: 1. 0 (Axiom I) 2. P (Ω) = 1 (Axiom II) 3. A B = P (A B) = + P (B) (Axiom III) [Kolmogorow 1933] Die drei Axiome heißen auch das Axiomensystem von Kolmogorow. wird als Wahrscheinlichkeit für das Eintreffen von A bezeichnet. Es ist nicht definiert, wie die Wahrscheinlichkeiten P verteilt sind. Allgemein nennt man eine Funktion, welche die drei Bedingungen der Definition erfüllt, ein nicht-negatives, normiertes und additives Maß. V-9 Statistical Diagnosis: Bayes c STEIN V-10 Statistical Diagnosis: Bayes c STEIN Bedingte Wahrscheinlichkeiten Definition 33 (Wahrscheinlichkeitsraum) Sei Ω ein Ergebnisraum, P(Ω) ein Ereignisraum und P : P(Ω) R ein Wahrscheinlichkeitsmaß. Dann heißt das Paar Ω, P bzw. das Tripel Ω, P(Ω), P Wahrscheinlichkeitsraum. Satz (Folgerungen der Axiome von Kolmogorov) 1. + = 1 (aus Axiomen II und III) 2. P ( ) = 0 (aus 1. mit A = Ω) Definition 3 (bedingte Wahrscheinlichkeit) Seien Ω, P(Ω), P ein Wahrscheinlichkeitsraum und A, B P(Ω) zwei Ereignisse. Die Wahrscheinlichkeit, daß A eintritt, wenn man bereits weiß, daß B eingetreten ist, ist definiert durch P (A B) = P (A B), falls P (B) > 0 P (B) P (A B) heißt bedingte Wahrscheinlichkeit für A unter der Bedingung B. 3. Monotoniegesetz des Wahrscheinlichkeitsmaßes: A B P (B) (aus Axiomen I und II) Die bedingte Wahrscheinlichkeit P (A B) erfüllt für variables A und festes B die Axiome von Kolmogorov und stellt ein Wahrscheinlichkeitsmaß dar.. P (A B) = + P (B) P (A B) (aus Axiom III) 5. Seien A 1, A 2..., A m paarweise unvereinbar, dann gilt: P (A 1 A 2... A m ) = P (A 1 ) + P (A 2 ) P (A m ) V-11 Statistical Diagnosis: Bayes c STEIN V-12 Statistical Diagnosis: Bayes c STEIN

4 Bedingte Wahrscheinlichkeiten Bedingte Wahrscheinlichkeiten Wichtige Folgerungen aus der Definition der bedingten Wahrscheinlichkeit: 1. P (A B) = P (B) P (A B) (Multiplikationsregel) 2. P (A B) = P (B A) = P (B A) 3. P (B) P (A B) = P (B A) Satz 5 (totale Wahrscheinlichkeit) Seien Ω, P(Ω), P ein Wahrscheinlichkeitsraum, B 1,..., B m disjunkte Ereignisse mit Ω = B 1... B m, P (B i ) > 0, i = 1,..., m und A P(Ω). Dann gilt: = m P (B i ) P (A B i ) P (B A) = P (A B) = P (B) P (A B) Beweis 1. P (A B) = 1 P (A B) Im allgemeinen gilt P (A B) 1 P (A B). = P (Ω A) = P ((B 1... B m ) A) = P ((B 1 A)... (B m A)) = m = m = m P (B i A) P (A B i ) P (B i ) P (A B i ) V-13 Statistical Diagnosis: Bayes c STEIN V-1 Statistical Diagnosis: Bayes c STEIN Unabhängigkeit von Ereignissen Definition 35 (stochastische Unabhängigkeit von zwei Ereignissen) Seien Ω, P(Ω), P ein Wahrscheinlichkeitsraum und A, B P(Ω) zwei Ereignisse. A und B heißen stochastisch unabhängig (bei P ) genau dann, wenn gilt: Satz 6 (Bayes) Seien Ω, P(Ω), P ein Wahrscheinlichkeitsraum, B 1,..., B m disjunkte Ereignisse mit Ω = B 1... B m, P (B i ) > 0, i = 1,..., m und A P(Ω) mit > 0. Dann gilt: P (A B) = P (B) Produktregel P (B i A) = P (B i) P (A B i ) m P (B i ) P (A B i ) Mit 0 < P (B) < 1 gelten folgende Äquivalenzen: P (A B) = P (B) P (A B) = P (A B) P (A B) = Beweis 2 Aus der Multiplikationsregel für P (A B i ) und P (B i A) folgt: P (B i A) = P (A B i) = P (B i) P (A B i ) Definition 36 (stochastische Unabhängigkeit von m Ereignissen) Seien Ω, P(Ω), P ein Wahrscheinlichkeitsraum und A 1,..., A m P(Ω) Ereignisse. A 1,..., A m heißen gemeinsam stochastisch unabhängig (bei P ) genau dann, wenn für alle Teilmengen {A i1,..., A ik } aus {A 1,..., A m } mit i 1 < i 2 <... < i k und 2 k m die Produktregel gilt: P (A i1... A ik ) = P (A i1 )... P (A ik ) Anwendung des Satzes der totalen Wahrscheinlichkeit für im Nenner des Bruches gibt die Behauptung. P (B i ) heißt a-priori-wahrscheinlichkeit von B i. P (B i A) heißt a-posteriori-wahrscheinlichkeit von B i. V-15 Statistical Diagnosis: Bayes c STEIN V-16 Statistical Diagnosis: Bayes c STEIN

5 Anwendung von Bayes zur : Aus Wahrscheinlichkeiten für Kausalzusammenhänge P (<symptom> <ursache>) und Ursachen P (<ursache>) kann mittels Bayes die Wahrscheinlichkeit P (<ursache> <symptom>) in einer situation berechnet werden. n entsprechen Ursachen. n und Symptome werden als Ereignisse aufgefaßt. Ereignisse sind Teilmengen eines Ergebnisraums Ω = {ω 1,..., ω n }. Wie Ω tatsächlich aussieht, wird in der statistischen Diagnostik oft nicht betrachtet. Grund: Hier ist die wichtigste Begriffsebene (Knowledge level) auf den Konzepten bzw. Hypothese und Symptom aufgebaut. Man könnte sich den Ergebnisraums Ω als Menge von Vektoren ω i vorstellen, wobei jeder Vektor ω i einer Zufallsbeobachtung des Systems entspricht. Z. B. könnte ω i Informationen über Blutwerte, Herz-Kreislaufwerte etc. beinhalten. Verallgemeinerung auf mehrere Ereignisse. Seien B 1,..., B m Ereignisse. Dann bezeichne P (A B 1,..., B m ) die Wahrscheinlichkeit für A unter der Voraussetzung, daß alle B i eingetreten sind. Schreibweisen auch: P (A B 1... B m ), P (A B 1... B m ) P (A B 1,..., B m ) heißt bedingte Wahrscheinlichkeit für A unter den Bedingungen B i. Anwendung auf die : Situation des Kausalzusammenhangs S 1,..., S k D : Es wird (wurde in der Vergangenheit) immer wieder festgestellt, daß in der Situation D die Symptome S 1,..., S k beobachtet werden können. situation D S 1,..., S k : Umkehrung der Situation des Kausalzusammenhangs. Beobachtet werden die Symptome S 1,..., S k. Gesucht ist die Wahrscheinlichkeit dafür, daß D vorliegt. Wenn sich Daten zur Berechnung von P (D) und P (S 1,..., S k D) akquirieren lassen, läßt sich P (D S 1,..., S k ) mit dem berechnen. V-17 Statistical Diagnosis: Bayes c STEIN V-18 Statistical Diagnosis: Bayes c STEIN Gegeben sind: Menge von n: D i, i = 1,..., m Menge von Symptomen: S j, j = 1,..., k Wird weiterhin vorausgesetzt: m P (D i ) = 1 (die Menge der n ist vollständig) Mit Bayes folgt: P (D i S 1,..., S k ) = P (D i) P (S 1,..., S k D i ) P (S 1,..., S k ) 1. Der Aufbau einer Datenbasis, um verläßliche Werte für P (S 1,..., S k D i ) schätzen zu können, ist in der Praxis unmöglich. Ausweg durch folgende Annahme ( Naive Bayes Assumption ): P (S 1,..., S k D i ) = k Unter dem Ereignis (der Bedingung) D i sind die Ereignisse S 1,..., S k stochastisch unabhängig. 2. Die Wahrscheinlichkeit P (S 1,..., S k ) ist eine Konstante und braucht nicht bekannt zu sein, um das unter der Naive Bayes Assumption wahrscheinlichste Ereignis D NB aus {D i i = 1,..., m} zu bestimmen: D NB = argmax D {Di,...,m} P (D i, D j ) = 0, 1 i, j m, i j (die n schließen sich gegenseitig aus) dann gilt: P (S 1,..., S k ) = m P (S 1,..., S k D i ) (Satz der totalen Wahrscheinlichkeit) P (S 1,..., S k ) = m ( Naive Bayes Assumption ) und insgesamt: P (D i S 1,..., S k ) = m Die Formel ermöglicht nicht nur eine Bestimmung der Rangordnung zwischen den D i, sondern auch die Berechnung ihrer a-posteriori-wahrscheinlichkeiten. Beachte aber die gemachten Voraussetzungen. V-19 Statistical Diagnosis: Bayes c STEIN V-20 Statistical Diagnosis: Bayes c STEIN

6 mit Bayes mit Bayes Beispiel: Eine Krankheit D liege bei 0.8% der Bevölkerung vor. Ein Bluttest liefert in 98% aller Fälle ein positives Ergebnis, falls die Krankheit tatsächlich vorliegt. Liegt die Krankheit nicht vor, liefert der Test trotzdem noch zu 3% ein positives Ergebnis. Die Frage ist nun, wie wahrscheinlich es ist, daß ein Patient an D erkrankt ist, wenn der Bluttest positiv ausgeht. Fortsetzung Beispiel. Modellierung: A-Priori-Wahrscheinlichkeit für das Vorliegen der Krankheit: P (D + ) = A-Priori-Wahrscheinlichkeit für die Abwesenheit der Krankheit: P (D ) = Bedingte Wahrscheinlichkeit für ein positives Ergebnis, unter der Annahme, daß die Krankheit vorliegt: P (S + D + ) = 0.98 Bedingte Wahrscheinlichkeit für ein positives Ergebnis, unter der Annahme, daß die Krankheit nicht vorliegt: P (S + D ) = 0.03 Rangordnung der n gemäß fallender Werte 1. P (D ) P (S + D ) = = P (D + ) P (S + D + ) = = A-Posteriori-Wahrscheinlichkeiten gemäß P (S + ) = m P (D S + ) = / % P (D + S + ) = / % m. = = , 8% V-21 Statistical Diagnosis: Bayes c STEIN V-22 Statistical Diagnosis: Bayes c STEIN mit Bayes mit Bayes Für einen ansatz nach Bayes müssen umfangreiche, gesicherte Datenmengen vorliegen. Entweder a-priori-wahrscheinlichkeiten für n, P (D i ), sowie bedingte Wahrscheinlichkeiten oder eine Menge von Fällen C, die einen Zusammenhang zwischen n und Symptomen beschreiben: Vorgehensweise: C = {(D i, S) i {1,..., m}, S {S 1,..., S k }} 1. Schätzung der a-priori-wahrscheinlichkeiten und der bedingten Wahrscheinlichkeiten aus C. 2. Schätzung der a-posteriori-wahrscheinlichkeiten für die einzelnen n, P (D i S 1,..., S k ), unter der Annahme, daß die gegebenen Symptome S 1,..., S k vorliegen. Die Anwendung von Bayes Formel zur Verarbeitung von Wissen über n und Symptome ist problematisch: Closed-World-Assumption: Die Menge der n D i muß vollständig sein. Single-Fault-Assumption: Die n müssen sich gegenseitig ausschließen, d. h. es darf nur eine zutreffen. Vereinfachtes Modell: Die Symptome S j dürfen nur von den n abhängen und müssen untereinander unabhängig sein. Welt ändert sich langsam: Die statistischen Daten müssen über einen längeren Zeitraum (relativ) konstant bleiben. Diese Anforderungen sind in den meisten Fällen verletzt. Der ist oft nicht direkt anwendbar. In vielen Systemen werden Varianten des Satzes von Bayes verwendet. 3. Auswahl der mit der höchsten a-posteriori- Wahrscheinlichkeit. Je mehr Annahmen verletzt sind, desto fließender die Grenze zwischen statistischen Verfahren und heuristischen Verfahren. V-23 Statistical Diagnosis: Bayes c STEIN V-2 Statistical Diagnosis: Bayes c STEIN

7 Interpretation des Konzeptes Wahrscheinlichkeit Subjektivistische Verwendung von Bayes Beispiel: Mit einer Wahrscheinlichkeit von 60% hat ein Patient mit den Symptomen Fieber, Husten und Schwäche eine TBC. 1. objektivistische Interpretation Wahrscheinlichkeit ist ein objektives Merkmal materieller Prozesse, die unabhängig vom Beobachter stattfinden. Ein Wahrscheinlichkeitsurteil entspricht einem Wahrnehmungsurteil und kann mehr oder weniger richtig sein. Es gibt einen wahren Wert für die Wahrscheinlichkeit, daß ein Patient mit den Symptomen Fieber, Husten und Schwäche TBC hat. Die Aussage Mit einer Wahrscheinlichkeit von 60% kann diesem wahren Wert mehr oder weniger gut entsprechen. 2. frequentistische Interpretation Wahrscheinlichkeit ist eine Beschreibung von Beobachtungen im Sinne der Angabe der relativen Häufigkeit bezogen auf eine Referenzmenge. Wahrscheinlichkeit ist der Grenzwert der relativen Häufigkeit des Auftretens eines Ereignisses für n. Von 100 Patienten, die die Symptome Fieber, Husten und Schwäche gezeigt haben, hatten 60 Patienten eine TBC. Die relative Häufigkeit 60% nähert sich der tatsächlichen Wahrscheinlichkeit mit zunehmendem n an. Sie wird bei Patienten eher der Wahrscheinlichkeit entsprechen als bei 100 Patienten. Subjektivistische Deutung als Lernen aus Erfahrung: Ausgangspunkt sind bedingte Wahrscheinlichkeiten P (A j B i ) für das Eintreffen von beobachtbaren Ereignissen (Symptomen) A j als Folge anderer, nicht beobachtbarer Ereignisse (Systemzustände, n) B i. Die a-priori-wahrscheinlichkeiten P (B i ) der Systemzustände seien unbekannt und sollen zunächst als gleichverteilt angenommen werden. 1. Wird nun Ereignis A j beobachtet, so lassen sich mit der Formel von Bayes die a-posteriori-wahrscheinlichkeiten P (B i A j ) der Systemzustände B i ausrechnen. 2. Die a-posteriori-wahrscheinlichkeiten P (B i A j ) können als neue Schätzung der a-priori-wahrscheinlichkeiten P (B i ) der Systemzustände interpretiert werden: Lernen durch Erfahrung. 3. Eventuell weiter bei subjektivistische Interpretation Wahrscheinlichkeit ist Ausdruck eines subjektiven Grades an Gewissheit bzw. Sicherheit. Ein Wahrscheinlichkeitsurteil kann somit nicht objektiv richtig oder falsch sein, aber es besitzt subjektive Validität. Die Aussage Mit einer Wahrscheinlichkeit von 60% ist ein Maß für die subjektive Sicherheit des Arztes. D. h., in 60% aller vergleichbaren Fälle würde der Arzt die richtige TBC stellen. Je öfter der Zyklus aus Beobachtung eines Ereignisses und Aktualisierung der a-posteriori-wahrscheinlichkeiten durchlaufen wird, um so exakter ist das erworbene Wissen über die Welt hier: Wissen darüber, welcher Systemzustand B i vorliegen mag. [Sachse 0, TU Berlin] V-25 Statistical Diagnosis: Bayes c STEIN V-26 Statistical Diagnosis: Bayes c STEIN Subjektivistische Verwendung von Bayes Subjektivistische Verwendung von Bayes Beispiel: Gegeben sind drei Würfel, ein Laplace-Würfel W, ein Riemer- U-Würfel und ein Riemer-L-Würfel: W U L Es wird gewürfelt, die Zahlen genannt, aber nicht der verwandte Würfel gezeigt. Angenommen, es wird dreimal gewürfelt, zuerst 3, dann 1 und schließlich 5. Welche Hypothesen sind zu entwickeln? 2 6 Fortsetzung Beispiel. 1. Beobachtung: 3 fällt. a-priori-wahrscheinlichkeiten: P (W ) = P (L) = P (U) = 1/3 Es ist bekannt: P (3 W ) = 0.17, P (3 L) = 0.21, P (3 V ) = 0.1 a-posteriori-wahrscheinlichkeiten (nach Bayes): P (W 3) = = P (L 3) = P (U 3) = P (W ) P (3 W ) P (W ) P (3 W ) + P (L) P (3 L) + P (U) P (3 U) Aufgrund von Experimenten mit U- und L-Würfeln sind folgende Wahrscheinlichkeitsverteilungen für die 3 Würfel bekannt: W Laplace-Würfel L L-Würfel U U-Würfel [LearnLine NRW 2002] 2. Beobachtung: 1 fällt. Neue a-priori-wahrscheinlichkeiten sind die alten a-posteriori-wahrscheinlichkeiten: P (W ) = 0.35, P (L) = 0., P (U) = 0.21 Es ist bekannt: P (1 W ) = 0.17, P (3 L) = 0.01, P (3 V ) = 0.21 a-posteriori-wahrscheinlichkeiten: P (W 1) 0.52, P (L 1) 0.0, P (U 1) Beobachtung: 5 fällt. a-priori-wahrscheinlichkeiten: P (W ) = 0.52, P (L) = 0.0, P (U) = 0. a-posteriori-wahrscheinlichkeiten: P (W 5) 0.73, P (L 5) 0.05, P (U 5) 0.22 V-27 Statistical Diagnosis: Bayes c STEIN V-28 Statistical Diagnosis: Bayes c STEIN

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,

Mehr

Kapitel MK:V. V. Diagnoseansätze

Kapitel MK:V. V. Diagnoseansätze Kapitel MK:V V. Diagnoseansätze Diagnoseproblemstellung Diagnose mit Bayes Evidenztheorie von Dempster/Shafer Diagnose mit Dempster/Shafer Truth Maintenance Assumption-Based TMS Diagnosis Setting Diagnosis

Mehr

Kapitel VI. Wahrscheinlichkeitsbegriff. Wahrscheinlichkeitsbegriff. LF: VI Bayesian Learning c STEIN

Kapitel VI. Wahrscheinlichkeitsbegriff. Wahrscheinlichkeitsbegriff. LF: VI Bayesian Learning c STEIN Kapitel VI VI. Bayes sches Lernen Maximum-a-Posteriori-Hypothesen 1 Definition 18 (Zufallsexperiment, Zufallsbeobachtung) Ein Zufallsexperiment ist ein im Prinzip beliebig oft wiederholbarer Vorgang mit

Mehr

Kapitel ML:IV (Fortsetzung)

Kapitel ML:IV (Fortsetzung) Kapitel ML:IV (Fortsetzung) IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-18 Statistical Learning c STEIN 2005-2011 Satz 3 (Bayes)

Mehr

Teil II. Wahrscheinlichkeitsrechnung

Teil II. Wahrscheinlichkeitsrechnung Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse

Mehr

Teil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129

Teil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129 Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse

Mehr

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse

Teil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) Teil II Wahrscheinlichkeitsrechnung 5 Zufallsexperimente Ergebnisse Ereignisse Wahrscheinlichkeiten Deskriptive Statistik und Wahrscheinlichkeitsrechnung

Mehr

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007

Lehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007 . Grundlagen der Wahrscheinlichkeitstheorie. Zufallsereignisse, Ereignisraum und Ereignismenge Zufallsexperiment: nach einer bestimmten Vorschrift ausgeführter, unter gleichen edingungen beliebig oft wiederholbarer

Mehr

Vorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie

Vorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie Kapitel 4 Christoph Hindermann Vorkurs Mathematik 1 4.0 Motivation Wenn 100 Münzen geworfen werden, wie ist dann die Wahrscheinlichkeit, dass genau 50 davon Kopf zeigen? Angenommen, es befinden sich 300

Mehr

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis Stochastische Prozesse: Grundlegende Begriffe bei zufälligen Prozessen In diesem Abschnitt beschäftigen wir uns mit den grundlegenden Begriffen und Definitionen von Zufallsexperimenten, also Prozessen,

Mehr

4. Die Laplacesche Gleichverteilung

4. Die Laplacesche Gleichverteilung Universität Basel Wirtschaftswissenschaftliches Zentrum Grundlagen der Stochastik Dr. Thomas Zehrt Inhalt: 1. Die Ereignismenge 2. Die Wahrscheinlichkeitsverteilung 3. Eigenschaften einer Wahrscheinlichkeitsverteilung

Mehr

2.2 Ereignisse und deren Wahrscheinlichkeit

2.2 Ereignisse und deren Wahrscheinlichkeit 2.2 Ereignisse und deren Wahrscheinlichkeit Literatur: [Papula Bd., Kap. II.2 und II.], [Benning, Kap. ], [Bronstein et al., Kap. 1.2.1] Def 1 [Benning] Ein Zufallsexperiment ist ein beliebig oft wiederholbarer,

Mehr

Stochastik für Ingenieure

Stochastik für Ingenieure Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 1 Vorbemerkungen

Mehr

7. Kapitel: Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten

7. Kapitel: Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten 7. Kapitel: Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten 7.1 Zufallsvorgänge - zufälliges Geschehen/ Zufallsvorgang/ stochastische Vorgang: aus Geschehen/Vorgang/Experiment (mit gegebener Ausgangssituation)

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Grundbegriffe. Vereinigungsmenge Schnittmenge sicheres Ereignis disjunkte Mengen komplementäre Ereignisse/ Gegenereignisse/ Alternativereignisse

Grundbegriffe. Vereinigungsmenge Schnittmenge sicheres Ereignis disjunkte Mengen komplementäre Ereignisse/ Gegenereignisse/ Alternativereignisse Grundbegriffe Vereinigungsmenge Schnittmenge sicheres Ereignis disjunkte Mengen komplementäre Ereignisse/ Gegenereignisse/ Alternativereignisse 33 Mengenschreibweise von Ereignissen - Rechenregeln: (1)

Mehr

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

Satz 18 (Satz von der totalen Wahrscheinlichkeit) Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte

Mehr

1 Elementare Wahrscheinlichkeitstheorie

1 Elementare Wahrscheinlichkeitstheorie 1 Elementare Wahrscheinlichkeitstheorie 1.1 Zufallsexperiment Definition 1.1. Ein Zufallsexperiment ist ein Vorgang, der im Prinzip beliebig oft unter identischen Randbedingungen wiederholt werden kann.

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Zusammenfassung Stochastik

Zusammenfassung Stochastik Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl

Mehr

Satz von der totalen Wahrscheinlichkeit

Satz von der totalen Wahrscheinlichkeit htw saar 1 Satz von der totalen Wahrscheinlichkeit Sei (Ω, P) ein Wahrscheinlichkeitsraum, und B 1,, B n seien paarweise disjunkte Ereignisse mit B i = Ω. Für jedes Ereignis A gilt dann: P(A) = P(A B 1

Mehr

Wahrscheinlichkeitsrechnung [probability]

Wahrscheinlichkeitsrechnung [probability] Wahrscheinlichkeitsrechnung [probability] Hinweis: Die Wahrscheinlichkeitsrechnung ist nicht Gegenstand dieser Vorlesung. Es werden lediglich einige Begriffsbildungen bereitgestellt und an Beispielen erläutert,

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Grundbegrie der Wahrscheinlichkeitsrechnung

Grundbegrie der Wahrscheinlichkeitsrechnung Die Benutzung dieser Materialien ist auf Herbst 2017 beschränkt. Diese Hilfsmaterialien sind nur für unseren Studenten gemeint, dürfen also nicht weiterverteilt werden. Grundbegrie der Wahrscheinlichkeitsrechnung

Mehr

Wahrscheinlichkeitslehre

Wahrscheinlichkeitslehre Wahrscheinlichkeitslehre I. Was ist unter dem Ausdruck "wahrscheinlich" zu verstehen? Wir unterscheiden vier verschiedene, teils miteinander zusammenhängende, teils heterogene Verwendungen des Ausdrucks

Mehr

Mathematische Grundlagen der Computerlinguistik Wahrscheinlichkeit

Mathematische Grundlagen der Computerlinguistik Wahrscheinlichkeit Mathematische Grundlagen der Computerlinguistik Wahrscheinlichkeit Dozentin: Wiebke Petersen 8. Foliensatz Wiebke Petersen math. Grundlagen 1 Motivation Bsp.: In vielen Bereichen der CL kommt Wahrscheinlichkeitstheorie

Mehr

WAHRSCHEINLICHKEITSRECHNUNG

WAHRSCHEINLICHKEITSRECHNUNG WAHRSCHEINLICHKEITSRECHNUNG Mathematischer Teil In der Wahrscheinlichkeitsrechnung haben wir es mit Zufallsexperimenten zu tun, d.h. Ausgang nicht vorhersagbar. Grundbegriffe Zufallsexperiment und Ergebnisse

Mehr

3. Grundbegriffe der Wahrscheinlichkeitstheorie

3. Grundbegriffe der Wahrscheinlichkeitstheorie 03. JULI 2006: BLATT 17 3. Grundbegriffe der Wahrscheinlichkeitstheorie (v.a. nach Manning/Schütze: 40ff und Fahrmeir /Künstler/Pigeot/Tutz: 171ff) Übersicht Um entscheiden zu können, ob eine statistische

Mehr

Dr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung

Dr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung Vorlesungscharts Vorlesung 1 Grundbegriffe der Wahrscheinlichkeitsrechnung Zufallsvorgänge und Zufallsereignisse Definitionen der Wahrscheinlichkeit Seite 1 von 11 Chart 1: Vorgänge deterministisch zufällig

Mehr

Kapitel 2 Wahrscheinlichkeitsrechnung

Kapitel 2 Wahrscheinlichkeitsrechnung Motivation bisher: Beschreibung von Datensätzen = beobachteten Merkmalsausprägungen Frage: Sind Schlußfolgerungen aus diesen Beobachtungen möglich? Antwort: Ja, aber diese gelten nur mit einer bestimmten

Mehr

Stochastik Grundlagen

Stochastik Grundlagen Grundlegende Begriffe: Zufallsexperiment: Ein Experiment, das beliebig oft wiederholt werden kann. Die möglichen Ergebnisse sind bekannt, nicht jedoch nicht, welches Ergebnis ein einzelnes Experiment hat.

Mehr

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen

Rumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Rumpfskript Elementare Wahrscheinlichkeitsrechnung Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Vorbemerkung Vorbemerkung Das vorliegende Skript heißt nicht nur Rumpf skript, sondern

Mehr

15 Wahrscheinlichkeitsrechnung und Statistik

15 Wahrscheinlichkeitsrechnung und Statistik 5 Wahrscheinlichkeitsrechnung und Statistik Alles, was lediglich wahrscheinlich ist, ist wahrscheinlich falsch. ( Descartes ) Trau keiner Statistik, die du nicht selbst gefälscht hast. ( Churchill zugeschrieben

Mehr

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum

Mehr

Es werden 120 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 120 Schülern besitzen 99 ein Handy.

Es werden 120 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 120 Schülern besitzen 99 ein Handy. R. Brinkmann http://brinkmann-du.de Seite 08..2009 Von der relativen Häufigkeit zur Wahrscheinlichkeit Es werden 20 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 20 Schülern

Mehr

= 7! = 6! = 0, 00612,

= 7! = 6! = 0, 00612, Die Wahrscheinlichkeit, dass Prof. L. die Wette verliert, lässt sich wie folgt berechnen: Ω = {(i 1,..., i 7 ) : i j {1... 7}, j = 1... 7}, wobei i, j für den Wochentag steht, an dem die Person j geboren

Mehr

1. Grundlagen der Wahrscheinlichkeitsrechnung

1. Grundlagen der Wahrscheinlichkeitsrechnung 1. Grundlagen der Wahrscheinlichkeitsrechnung Ereignisse und Wahrscheinlichkeiten Zufälliger Versuch: Vorgang, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang innerhalb einer

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit

Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit Teil I: Wahrscheinlichkeitstheorie 1 Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 3: Bedingte Wahrscheinlichkeit Kapitel 4: Zufallsvariablen Kapitel 5: Erwartungswerte, Varianz, Kovarianz

Mehr

Kapitel MK:V. V. Diagnoseansätze

Kapitel MK:V. V. Diagnoseansätze Kapitel MK:V V. Diagnoseansätze Diagnoseproblemstellung Diagnose mit Bayes Evidenztheorie von Dempster/Shafer Diagnose mit Dempster/Shafer Truth Maintenance Assumption-Based TMS Diagnosis Setting Diagnosis

Mehr

Gründe für die Behandlung von stochastischen Problemen (nach KÜTTING)

Gründe für die Behandlung von stochastischen Problemen (nach KÜTTING) Vorlesung 03.01.09 Stochastik Gründe für die Behandlung von stochastischen Problemen (nach KÜTTING) Der Mathematikunterricht der Schule hat die Aufgabe, eine Grundbildung zu vermitteln, die auf ein mathematisches

Mehr

Kapitel 5 Stochastische Unabhängigkeit

Kapitel 5 Stochastische Unabhängigkeit Kapitel 5 Stochastische Unabhängigkeit Vorlesung Wahrscheinlichkeitsrechnung I vom SoSe 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 5.1 Das Konzept der stochastischen Unabhängigkeit. 1 Herleitung anhand

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 1. und 2. Vorlesung - 2017 Im Alltag... Laut den meteorologischen Vorhersagen wird es morgen regnen. Ob ich riskiere und die Wette verlieren werde? Ich werde mit Sicherheit gewinnen! Ist das wirklich unmöglich?

Mehr

Grundwissen Stochastik Grundkurs 23. Januar 2008

Grundwissen Stochastik Grundkurs 23. Januar 2008 GYMNSIUM MIT SCHÜLERHEIM PEGNITZ math.-technolog. u. sprachl. Gymnasium WILHELM-VON-HUMBOLDT-STRSSE 7 91257 PEGNITZ FERNRUF 09241/48333 FX 09241/2564 Grundwissen Stochastik Grundkurs 23. Januar 2008 1.

Mehr

Population und Stichprobe: Wahrscheinlichkeitstheorie

Population und Stichprobe: Wahrscheinlichkeitstheorie Population und Stichprobe: Wahrscheinlichkeitstheorie SS 2001 4. Sitzung vom 15.05.2001 Wahrscheinlichkeitstheorie in den Sozialwissenschaften: Stichprobenziehung: Aussagen über Stichprobenzusammensetzung

Mehr

Wahrscheinlichkeiten

Wahrscheinlichkeiten Wahrscheinlichkeiten Bestimmung der Wahrscheinlichkeit Bei einem Zufallsexperiment kann man nicht voraussagen, welches Ereignis eintritt, aber manche Ereignisse treten naturgemäß mit einer größeren Wahrscheinlichkeit

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 stheorie: Grundbegriffe Prof. Dr. Achim Klenke http://www.aklenke.de 5. Vorlesung: 25.11.2011 1/33 Inhalt 1 Zufallsvariablen 2 Ereignisse 3 2/33 Zufallsvariablen Eine Zufallsvariable

Mehr

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? 2. Übung: Wahrscheinlichkeitsrechnung Aufgabe 1 Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? a) P ist nichtnegativ. b) P ist additiv. c) P ist multiplikativ.

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω 2 3 8 N Wir definieren

Mehr

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)

Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26) Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 27. Oktober 2010 Teil III Wahrscheinlichkeitstheorie 1 Zufallsereignisse Vorüberlegungen Der Ereignisraum Konstruktionen

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 12.02.2010 Fakultät für Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Ein Ereignis ist eine Menge von Elementarereignissen. Berechnung von Wahrscheinlichkeiten zufälliger Ereignisse erfordert ein Modell.

Ein Ereignis ist eine Menge von Elementarereignissen. Berechnung von Wahrscheinlichkeiten zufälliger Ereignisse erfordert ein Modell. SS 2013 Prof. Dr. J. Schütze/ J.Puhl FB GW Wkt.1 1 Grundbegriffe Zufallsexperiment unter gleichen Bedingungen wiederholbarer Vorgang (geplant, gesteuert, beobachtet oder auch nur gedanklich) Menge der

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum

Mehr

Kombinatorik & Stochastik Übung im Sommersemester 2018

Kombinatorik & Stochastik Übung im Sommersemester 2018 Kombinatorik & Stochastik Übung im Sommersemester 2018 Kombinatorik Formeln & Begriffe Begrifflichkeiten Permutation = Anordnung in einer bestimmten Reihenfolge Kombination = Anordnung ohne bestimmte Reihenfolge

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung 2. Vorlesung Dr. Jochen Köhler 25.02.2011 1 Inhalt der heutigen Vorlesung Risiko und Motivation für Risikobeurteilungen Übersicht über die Wahrscheinlichkeitstheorie

Mehr

6: Diskrete Wahrscheinlichkeit

6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 219 6: Diskrete Wahrscheinlichkeit 6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 220 Wahrscheinlichkeitsrechnung Eines der wichtigsten

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω = {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω = 2 3 = 8 = N

Mehr

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? 2. Übung: Wahrscheinlichkeitsrechnung Aufgabe 1 Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? a) P ist nichtnegativ. b) P ist additiv. c) P ist multiplikativ.

Mehr

Vorlesung Statistik, H&A Mathe, Master M

Vorlesung Statistik, H&A Mathe, Master M Beispiel: Die Wahrscheinlichkeit dafür, dass ein Bewerber von Firma A angenommen wird ist P(A) = 0,2. Die Wahrscheinlichkeit von Firma B angenommen zu werden beträgt P(B) = 0,3. Von mindestens einer der

Mehr

Bedingte Wahrscheinlichkeiten

Bedingte Wahrscheinlichkeiten Bedingte Wahrscheinlichkeiten Bei der Betrachtung der Ereignisse A und B eines Zufallsexperiments muss man die beiden im folgendem beschrieben zwei Situationen unterscheiden. 1. Das Ereignis A und B tritt

Mehr

Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung. Semester Begleitendes Skriptum zur Vorlesung im FH-Masterstudiengang Technisches Management von Günther Karigl FH Campus Wien 206/7 Inhaltsverzeichnis. Semester: Wahrscheinlichkeitsrechnung

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de

Mehr

Ereignis E: ist ein oder sind mehrere Ergebnisse zusammen genommen. Bsp. E = {2; 4; 6}

Ereignis E: ist ein oder sind mehrere Ergebnisse zusammen genommen. Bsp. E = {2; 4; 6} Laplace-Experimente Begriffsklärung am Beispiel eines Laplace-Würfel mit Augenzahlen (AZ) 1-6: Ergebnis: ist jeder Ausgang eines Zufallsexperimentes heißt ein Ergebnis ω dieses Zufallsexperimentes. Die

Mehr

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3. 2 Wahrscheinlichkeitstheorie Beispiel. Wie wahrscheinlich ist es, eine Zwei oder eine Drei gewürfelt zu haben, wenn wir schon wissen, dass wir eine ungerade Zahl gewürfelt haben? Dann ist Ereignis A das

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung

Mehr

1.3 Stochastische Unabhängigkeit und bedingte

1.3 Stochastische Unabhängigkeit und bedingte 1.3 Stochastische Unabhängigkeit und bedingte Wahrscheinlichkeiten Ziel: komplexere Modelle aus Verkettung ( Koppelung ) von Zufallsexperimenten bauen, insbesondere Ziehung von n-personen aus n-maliger

Mehr

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen Ü b u n g 1 Aufgabe 1 Die Ereignisse A, B und C erfüllen die Bedingungen P(A) = 0. 7, P(B) = 0. 6, P(C) = 0. 5 P(A B) = 0. 4, P(A C) = 0. 3, P(B C) = 0. 2, P(A B C) = 0. 1 Bestimmen Sie P(A B), P(A C),

Mehr

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/

Mehr

Partialbruchzerlegung

Partialbruchzerlegung Partialbruchzerlegung Beispiel: Partialbruchzerlegung Seien g(x) = x und f (x) = 1 x x 2. f R (x) = x 2 x 1 besitzt die beiden Nullstellen 1 2 ± 1 4 + 1, d.h. φ = 1+ 5 2 und φ = 1 5 2. Damit gilt f (x)

Mehr

Dr. Jürgen Senger INDUKTIVE STATISTIK. Wahrscheinlichkeitstheorie, Schätz- und Testverfahren

Dr. Jürgen Senger INDUKTIVE STATISTIK. Wahrscheinlichkeitstheorie, Schätz- und Testverfahren Dr. Jürgen Senger INDUKTIVE STATISTIK Wahrscheinlichkeitstheorie, Schätz- und Testverfahren ÜBUNG - LÖSUNGEN. Zweimaliges Werfen eines Würfels mit Berücksichtigung der Reihenfolge a. Ergebnismenge (Ereignisraum)

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr

Kapitel 9 WAHRSCHEINLICHKEITS-RÄUME

Kapitel 9 WAHRSCHEINLICHKEITS-RÄUME Kapitel 9 WAHRSCHEINLICHKEITS-RÄUME Fassung vom 12. Januar 2001 121 WAHRSCHEINLICHKEITS-RÄUME Stichproben-Raum. 9.1 9.1 Stichproben-Raum. Die bisher behandelten Beispiele von Naturvorgängen oder Experimenten

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II

Allgemeine diskrete Wahrscheinlichkeitsräume II 6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume I

Allgemeine diskrete Wahrscheinlichkeitsräume I 6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum) Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich

Mehr

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer 07621 203 7612 E-Mail:

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 10. November 2010 1 Bedingte Wahrscheinlichkeit Satz von der totalen Wahrscheinlichkeit Bayessche Formel 2 Grundprinzipien

Mehr

Übungen zur Wahrscheinlichkeitstheorie und Statistik

Übungen zur Wahrscheinlichkeitstheorie und Statistik Übungen zur Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank Blatt 0 vom 16. April 2012 Aufgabe 1 (Wahrscheinlichkeitsräume). Welche der folgenden Aussagen sind wahr? Begründen Sie jeweils

Mehr

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Beurteilende Statistik

Beurteilende Statistik Beurteilende Statistik Wahrscheinlichkeitsrechnung und Beurteilende Statistik was ist der Unterschied zwischen den beiden Bereichen? In der Wahrscheinlichkeitstheorie werden aus gegebenen Wahrscheinlichkeiten

Mehr

SEMINAR KLASSIFIKATION & CLUSTERING STATISTISCHE GRUNDLAGEN. Stefan Langer WINTERSEMESTER 2014/15.

SEMINAR KLASSIFIKATION & CLUSTERING STATISTISCHE GRUNDLAGEN. Stefan Langer WINTERSEMESTER 2014/15. SEMINAR KLASSIFIKATION & CLUSTERING WINTERSEMESTER 2014/15 STATISTISCHE GRUNDLAGEN Stefan Langer stefan.langer@cis.uni-muenchen.de Frequenz & Häufigkeit: Übersicht Absolute Häufigkeit Relative Häufigkeit

Mehr

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe

Mehr

,,Schäferhunde sind gefährlich! Denn,,Jeder dritte Biss geht auf das Konto dieser Rasse.

,,Schäferhunde sind gefährlich! Denn,,Jeder dritte Biss geht auf das Konto dieser Rasse. Wirtschaftswissenschaftliches Zentrum 7 Universität Basel Statistik Dr. Thomas Zehrt Bedingte Wahrscheinlichkeit Motivation Die bedingte Wahrscheinlichkeit eines Ereignisses A bei einem gegebenen Ereignis

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr