Kapitel VI. Wahrscheinlichkeitsbegriff. Wahrscheinlichkeitsbegriff. LF: VI Bayesian Learning c STEIN
|
|
- Franka Brinkerhoff
- vor 7 Jahren
- Abrufe
Transkript
1 Kapitel VI VI. Bayes sches Lernen Maximum-a-Posteriori-Hypothesen 1 Definition 18 (Zufallsexperiment, Zufallsbeobachtung) Ein Zufallsexperiment ist ein im Prinzip beliebig oft wiederholbarer Vorgang mit folgenden Eigenschaften: 1. Anordnung: durch eine Beschreibung festgelegte reproduzierbare Gegebenheit Der Vorgang kann mehrmalig mit demselben System oder einmalig mit gleichartigen Systemen durchgeführt werden. Auch Zufallsexperimente laufen kausal im Sinne von Ursache und Wirkung ab. Die Zufälligkeit des Ergebnisses beruht nur auf dem Fehlen von Informationen über die Ursachenkette. Somit kann ein Zufallsexperiment durch neue Erkenntnisse sein ganze Zufälligkeit verlieren. 2. Prozedur: Vorgehen zur Durchführung des Experiments mit der Anordnung 3. Unvorhersagbarkeit des Resultats Werden Anordnung und Prozedur nicht künstlich geschaffen, so spricht man von natürlichen Zufallsexperimenten bzw. von Zufallsbeobachtungen. 2 2a Definition 19 (Ergebnisraum, Ereignisraum) Eine Menge Ω={ω 1,ω 2,..., ω n} heißt Ergebnisraum eines Zufallsexperiments, wenn jedem Versuchsausgang höchstens ein Element ω Ω zugeordnet ist. Die Elemente von Ω heißen Ergebnisse. Jede Teilmenge A eines Ergebnisraums Ω heißt Ereignis. Ein Ereignis A tritt genau dann ein, wenn ein Ergebnis ω vorliegt mit ω A. Die Menge aller Ereignisse P(Ω) heißt Ereignisraum. 3
2 Definition 19 (Ergebnisraum, Ereignisraum) Eine Menge Ω={ω 1,ω 2,..., ω n} heißt Ergebnisraum eines Zufallsexperiments, wenn jedem Versuchsausgang höchstens ein Element ω Ω zugeordnet ist. Die Elemente von Ω heißen Ergebnisse. Jede Teilmenge A eines Ergebnisraums Ω heißt Ereignis. Ein Ereignis A tritt genau dann ein, wenn ein Ergebnis ω vorliegt mit ω A. Die Menge aller Ereignisse P(Ω) heißt Ereignisraum. Definition 20 (wichtige Ereignistypen) Sei Ω ein Ergebnisraums, A Ω und B Ω zwei Ereignisse. Dann sei vereinbart: heißt unmögliches, Ω heißt sicheres Ereignis Ω \ A =: A heißt Gegenereignis zu A A =1 A heißt Elementarereignis A B A heißt Teilereignis von B bzw. A zieht B nach sich A = B (A B B A) A B = A und B sind unvereinbar (ansonsten vereinbar) 3 Klassische Begriffsbildung Empirisches Gesetz der großen Zahlen: Es gibt Ereignisse, deren relative Häufigkeit nach einer hinreichend großen Anzahl von Versuchen ungefähr gleich einem festen Zahlenwert ist. 4
3 Klassische Begriffsbildung Empirisches Gesetz der großen Zahlen: Es gibt Ereignisse, deren relative Häufigkeit nach einer hinreichend großen Anzahl von Versuchen ungefähr gleich einem festen Zahlenwert ist. Definition 21 (klassischer / Laplace scher ) Wird jedem Elementarereignis aus Ω die gleiche Wahrscheinlichkeit zugeordnet, so gilt für die Wahrscheinlichkeit P (A) eines Ereignisses A: P (A) = A Anzahl der für A günstigen Elementarereignisse = Ω Anzahl aller möglichen Elementarereignisse Ein Zufallsexperiment, bei dem auf Basis einer Analyse der Anordnung und Prozedur angenommen werden kann, daß alle Ergebnisse gleich wahrscheinlich sind heißt Laplace- Experiment. Die Wahrscheinlichkeiten der Ergebnisse heißen Laplace- Wahrscheinlichkeiten. Laplace-Annahme: Annahme, daß es sich bei einem Experiment um ein Laplace- Experiment handelt. Trifft die Laplace-Annahme nicht zu, so können die Wahrscheinlichkeiten nur als relative Häufigkeiten bei der Durchführung vieler Versuche geschätzt werden. Strenggenommen handelt es sich bei der Definition des Laplace scher s nicht um eine Definition. Motiviert durch das empirische Gesetz der großen Zahlen wurde versucht, den frequentistisch, über den (fiktiven) Grenzwert der relativen Häufigkeit zu definieren (hier insbesondere v. Mises, 1951). Dieser Versuch scheiterte, weil dieser Grenzwert im Gegensatz zu Grenzwerten in der Infinitesimalrechnung nicht nachweisbar ist. 4 4a Axiomatische Begriffsbildung 1. Postulierung einer Funktion, die jedem Element des Ereignisraums eine Wahrscheinlichkeit zuordnet. 2. Formulierung grundlegender Eigenschaften dieser Funktion in Form von Axiomen. Definition 22 (Wahrscheinlichkeitsmaß) Sei Ω eine Menge, genannt Ergebnisraum, und sei P(Ω) die Menge aller Ereignisse, genannt Ereignisraum. Dann heißt eine Funktion P : P(Ω) R, die jedem Ereignis A P(Ω) eine relle Zahl P (A) zuordnet, Wahrscheinlichkeitsmaß, wenn sie folgende Eigenschaften besitzt: 1. P (A) 0 (Axiom I) 2. P (Ω) = 1 (Axiom II) 3. A B = P (A B) =P (A) +P (B) (Axiom III) [Kolmogorow 1933] 5 Axiomatische Begriffsbildung Definition 23 (Wahrscheinlichkeitsraum) Sei Ω ein Ergebnisraum, P(Ω) ein Ereignisraum und P : P(Ω) R ein Wahrscheinlichkeitsmaß. Dann heißt das Paar Ω,P bzw. das Tripel Ω, P(Ω),P Wahrscheinlichkeitsraum. Die drei Axiome heißen auch das Axiomensystem von Kolmogorow. P (A) wird als Wahrscheinlichkeit für das Eintreffen von A bezeichnet. Es ist nicht definiert, wie die Wahrscheinlichkeiten P verteilt sind. Allgemein nennt man eine Funktion, welche die drei Bedingungen der Definition erfüllt, ein nicht-negatives, normiertes und additives Maß. Satz 5 (Folgerungen der Axiome von Kolmogorov) 1. P (A) +P (A) =1 (aus Axiomen II und III) 2. P ( ) =0 (aus 1. mit A =Ω) 3. Monotoniegesetz des Wahrscheinlichkeitsmaßes: A B P (A) P (B) (aus Axiomen I und II) 4. P (A B) =P (A) +P (B) P (A B) (aus Axiom III) 5. Seien A 1,A 2..., A p paarweise unvereinbar, dann gilt: P (A 1 A 2... A p)=p (A 1)+P (A 2) P (A p) 6a 6
4 Bedingte Wahrscheinlichkeiten Definition 24 (bedingte Wahrscheinlichkeit) Seien Ω, P(Ω),P ein Wahrscheinlichkeitsraum und A, B P(Ω) zwei Ereignisse. Die Wahrscheinlichkeit, daß A eintritt, wenn man bereits weiß, daß B eingetreten ist, ist wie folgt definiert: P (A B) P (A B) =, falls P (B) > 0 P (B) P (A B) heißt bedingte Wahrscheinlichkeit für A unter der Bedingung B. 7 Bedingte Wahrscheinlichkeiten Satz 6 (totale Wahrscheinlichkeit) Seien Ω, P(Ω),P ein Wahrscheinlichkeitsraum, B 1,..., B k disjunkte Ereignisse mit Ω=B 1... B k, P (B i) > 0, i =1,..., k, und A P(Ω). Dann gilt: P (A) = P (B i) P (A B i) 8 Bedingte Wahrscheinlichkeiten Satz 6 (totale Wahrscheinlichkeit) Seien Ω, P(Ω),P ein Wahrscheinlichkeitsraum, B 1,..., B k disjunkte Ereignisse mit Ω=B 1... B k, P (B i) > 0, i =1,..., k, und A P(Ω). Dann gilt: P (A) = P (B i) P (A B i) Beweisidee P (A) = P (Ω A) Die bedingte Wahrscheinlichkeit P (A B) erfüllt für variables A und festes B die Axiome von Kolmogorov und stellt ein Wahrscheinlichkeitsmaß dar. Im allgemeinen gilt P (A B) 1 P (A B). Wichtige Folgerungen aus der Definition der bedingten Wahrscheinlichkeit: 1. P (A B) =P (B) P (A B) (Multiplikationsregel) 2. P (A B) =P (B A) =P (A) P (B A) 3. P (B) P (A B) =P (A) P (B A) P (A B) P (B) P (A B) P (B A) = = P (A) P (A) 4. P (A B) =1 P (A B) = P ((B 1... B k) A) = P ((B 1 A)... (B k A)) = P (B i A) = P (A B i) = P (B i) P (A B i) 8 8a
5 Unabhängigkeit von Ereignissen Definition 25 (stochastische Unabhängigkeit von zwei Ereignissen) Seien Ω, P(Ω),P ein Wahrscheinlichkeitsraum und A, B P(Ω) zwei Ereignisse. A und B heißen stochastisch unabhängig (bei P ) genau dann, wenn gilt: P (A B) =P (A) P (B) Produktregel Mit 0 <P(B) < 1 gelten folgende Äquivalenzen: P (A B) = P (A) P (B) P (A B) = P (A B) P (A B) = P (A) 9 Unabhängigkeit von Ereignissen Definition 26 (stochastische Unabhängigkeit von m Ereignissen) Seien Ω, P(Ω),P ein Wahrscheinlichkeitsraum und A 1,..., A p P(Ω) Ereignisse. A 1,..., A p heißen gemeinsam stochastisch unabhängig (bei P ) genau dann, wenn für alle Teilmengen {A i1,..., A il } aus {A 1,..., A p} mit i 1 <i 2 <... < i l und 2 l m die Produktregel gilt: P (A i1... A il )=P(A i1 )... P (A il ) 10
6 Kapitel VI VI. Bayes sches Lernen Maximum-a-Posteriori-Hypothesen 11 Satz 5 (Bayes) Seien Ω, P(Ω),P ein Wahrscheinlichkeitsraum, B 1,..., B k disjunkte Ereignisse mit Ω=B 1... B k, P (B i) > 0, i =1,..., k, und A P(Ω) mit P (A) > 0. Dann gilt: P (B i) P (A B i) P (B i A) = k P (Bi) P (A Bi) P (B i) heißt a-priori-wahrscheinlichkeit von B i. P (B i A) heißt a-posteriori-wahrscheinlichkeit von B i. 12 Satz 5 (Bayes) Seien Ω, P(Ω),P ein Wahrscheinlichkeitsraum, B 1,..., B k disjunkte Ereignisse mit Ω=B 1... B k, P (B i) > 0, i =1,..., k, und A P(Ω) mit P (A) > 0. Dann gilt: Anwendung zur Klassifikation: Aus den a-priori-wahrscheinlichkeiten für die Klassen, P (Klasse=C), und den Wahrscheinlichkeiten für Kausalzusammenhänge, P (Attribut=Wert Klasse=C), läßt sich in einer Umkehrschlußsituation mittels Bayes die Wahrscheinlichkeit P (Klasse=C Attribut=Wert) berechnen. Klassen und Attribut-Wert-Paare werden als Ereignisse aufgefaßt; Ereignisse sind Teilmengen eines Ergebnisraums Ω={ω 1,..., ω n }. P (B i) P (A B i) P (B i A) = k P (Bi) P (A Bi) P (B i) heißt a-priori-wahrscheinlichkeit von B i. P (B i A) heißt a-posteriori-wahrscheinlichkeit von B i. Beweisidee Aus der Multiplikationsregel für P (A B i) und P (B i A) folgt: P (A Bi) P (Bi) P (A Bi) P (B i A) = = P (A) P (A) Anwendung des Satzes der totalen Wahrscheinlichkeit für P (A) im Nenner des Bruches gibt die Behauptung a
7 Satz von Bayes für kombinierte Ereignisse Bezeichne P (B i A 1,..., A p) die Wahrscheinlichkeit für das Eintreten von Ereignis B i unter der Voraussetzung, daß die Ereignisse A 1,..., A p eingetreten sind. Anwendung zur Klassifikation: die A j, j =1,..., p, stehen für Ereignisse der Form Attribut_j=Wert_j, die B i, i =1,..., k, stehen für Ereignisse der Form Klasse=C_i Kausalzusammenhang: A 1,..., A p B i Umkehrschlußsituation: B i A 1,..., A p 13 Satz von Bayes für kombinierte Ereignisse Bezeichne P (B i A 1,..., A p) die Wahrscheinlichkeit für das Eintreten von Ereignis B i unter der Voraussetzung, daß die Ereignisse A 1,..., A p eingetreten sind. Anwendung zur Klassifikation: P (B i A 1,..., A p ) heißt bedingte Wahrscheinlichkeit für B i unter den Bedingungen A 1,..., A p. Andere Schreibweisen für P (B i A 1,..., A p ): P (B i A 1... A p ), P (B i A 1... A p ) Kausalzusammenhang: Es wird (wurde in der Vergangenheit) immer wieder festgestellt, daß in der Situation B i die Symptome A 1,..., A p beobachtbar sind. Umkehrschlußsituation: Beobachtet werden die Symptome A 1,..., A p ; gesucht ist die Wahrscheinlichkeit für das Vorliegen von B i. die A j, j =1,..., p, stehen für Ereignisse der Form Attribut_j=Wert_j, die B i, i =1,..., k, stehen für Ereignisse der Form Klasse=C_i Kausalzusammenhang: A 1,..., A p B i Umkehrschlußsituation: B i A 1,..., A p Wenn sich Daten zur Berechnung von P (B i) und P (A 1,..., A p B i) akquirieren lassen, läßt sich P (B i A 1,..., A p) mit dem Satz von Bayes berechnen: P (Bi) P (A1,..., Ap Bi) P (B i A 1,..., A p)= ( ) P (A 1,..., A p) 13 13a Naive-Bayes Der Aufbau einer Datenbasis, um verläßliche Werte für P (A 1,..., A p B i) schätzen zu können, ist in der Praxis unmöglich. Ausweg durch die Naive-Bayes-Assumption : Unter dem Ereignis (der Bedingung) B i sind die Ereignisse A 1,..., A p stochastisch unabhängig. p P (A 1,..., A p B i)= P (A j B i) j=1 14
8 Naive-Bayes Der Aufbau einer Datenbasis, um verläßliche Werte für P (A 1,..., A p B i) schätzen zu können, ist in der Praxis unmöglich. Ausweg durch die Naive-Bayes-Assumption : Unter dem Ereignis (der Bedingung) B i sind die Ereignisse A 1,..., A p stochastisch unabhängig. p P (A 1,..., A p B i)= P (A j B i) j=1 Trifft die Naive-Bayes-Assumption zu, so maximiert B NB auch die a-posteriori- Wahrscheinlichkeit P (B NB A 1,..., A p ), die mit dem Satz von Bayes ( ) berechnet wird. Das Lernen bei einem Naive- besteht in der Schätzung der a-priori- Wahrscheinlichkeiten P (B i ) und der Wahrscheinlichkeiten für Kausalzusammenhänge P (A j B i ) auf Basis von Traningsdaten D. Die geschätzten Wahrscheinlichkeiten entsprechen der gelernten Hypothese, die dazu verwendet wird, neue Beispiele gemäß der Optimierungsformel für B NB zu klassifizieren. Der Hypothesenraum H besteht aus der Menge aller Werte, die P (B i ) und P (A j B i ) annehmen können. Beachte, daß bei der Konstruktion eines Naive-Bayes- Classifiers der Hypothesenraum H nicht durchsucht wird, sondern daß sich die gesuchte Hypothese direkt aus einer Häufigkeitsanalyse von D berechnet. Die Wahrscheinlichkeit P (A 1,..., A p) ist eine Konstante und braucht nicht bekannt zu sein, um das unter der Naive-Bayes-Assumption wahrscheinlichste Ereignis B NB {B 1,..., B k} mit Hilfe von Bayes zu bestimmen: P (B i) P (A 1,..., A p B i) argmax B i {B 1,...,B k} P (A 1,..., A p) p argmax B i {B 1,...,B k} P (B i) j=1 NB = P (A j B i)=b NB 14 14a Naive-Bayes Wird weiterhin vorausgesetzt: die Menge der B i ist vollständig: P (B i)=1 die B i schließen sich gegenseitig aus: P (B i,b j)=0, 1 i, j k, i j 15 Naive-Bayes Wird weiterhin vorausgesetzt: die Menge der B i ist vollständig: dann gilt: P (B i)=1 die B i schließen sich gegenseitig aus: P (B i,b j)=0, 1 i, j k, i j P (A 1,..., A p) = P (B i) P (A 1,..., A p B i) p = P (B i) P (A j B i) j=1 (totale Wahrscheinlichkeit) (Naive-Bayes-Assumption) 15
9 Naive-Bayes Wird weiterhin vorausgesetzt: die Menge der B i ist vollständig: P (B i)=1 die B i schließen sich gegenseitig aus: P (B i,b j)=0, 1 i, j k, i j Auf Basis von argmax P (B i ) p P (A j=1 j B i ) läßt sich eine Rangordnung B i {B 1,...,B k} zwischen den Ereignissen B i berechnen. Unter bestimmten Voraussetzungen lassen sich die Rangordnungswerte der B i in die a- Posteriori-Wahrscheinlichkeiten P (B i A 1,..., A p ) umrechnen. Kann nämlich Vollständigkeit und Exklusivität der B i angenommen werden, so gilt, daß die Summe aller a-posteriori-wahrscheinlichkeiten Eins sein muß, in Zeichen: k P (B i A 1,..., A p )=1. Damit ergeben sich die Wahrscheinlichkeiten aus den Rangordnungswerten durch Normalisierung (Division) mit der Summe ( ) aller Rangordnungswerte. dann gilt: P (A 1,..., A p) = P (B i) P (A 1,..., A p B i) p = P (B i) P (A j B i) j=1 (totale Wahrscheinlichkeit) (Naive-Bayes-Assumption) und es folgt für die bedingten Wahrscheinlichkeiten: P (Bi) P (A1,..., Ap Bi) P (B i A 1,..., A p) = = P (A 1,..., A p) P (B i) p j=1 P (Aj Bi) p P (Bi) j=1 P (Aj Bi) ( ) k 15 15a Naive-Bayes: Zusammenfassung Sei D eine Menge von Trainingsbeispielen der Form x,c(x) ; diek Ausprägungen (Klassen) des Zielkonzeptes c werden als Ereignisse B 1,..., B k aufgefaßt, die Ausprägungen (Werte) der m = dim(x) Attribute als Ereignisse A 1,..., A m. Konstruktion und Anwendung eines Naive-s: 1. Schätzung von P (B i) auf Basis der relativen Häufigkeiten in D durch p(b i) 2. Schätzung von P (A j B i) auf Basis der relativen Häufigkeiten in D durch p(a j B i) 3. Klassifikation eines neuen Beispiels x als B NB, mit B NB = argmax p(b i) p(a j B i) B i {B 1,...,B k} A j x j=1,...,p 4. Berechnung der a-posteriori-wahrscheinlichkeit für B NB durch Normalisieren von p(b NB) A j x p(aj BNB) 16 Die echten Wahrscheinlichkeiten P sind unbekannt und werden durch die relativen Häufigkeiten, in Zeichen p, geschätzt. Naive-Bayes ist angesagt für Trainingsmengen D, die mittelgroß bis sehr groß sind. Naive-Bayes fordert, daß die Attributausprägungen der Beispiele stochastisch unabhängig von den Ausprägungen des Zielkonzeptes sind. Die Praxis hat gezeigt, daß auch bei Verletzung der Naive-Bayes-Assumption hervorragende Klassifikationsergebnisse mit einem Naive- erzielbar sind. Beispiel: Textklassifikation Möchte man nicht nur Rangordnungswerte sondern auch a-posteriori- Wahrscheinlichkeiten berechnen, wird noch die Closed-World-Assumption (Vollständigkeit der B i ) und die Single-Fault-Assumption (gegenseitiger Ausschluß der B i ) gefordert. Insgesamt muß gelten, daß sich die betrachtete Welt nur langsam ändert: die statistischen Daten müssen über einen längeren Zeitraum relativ konstant bleiben. 16a
10 Naive-Bayes: Beispiel Outlook Temperature Humidity Wind PlayTennis 1 sunny hot high weak no 2 sunny hot high strong no 3 overcast hot high weak yes 4 rain mild high weak yes 5 rain cold normal weak yes 6 rain cold normal strong no 7 overcast cold normal strong yes 8 sunny mild high weak no 9 sunny cold normal weak yes 10 rain mild normal weak yes 11 sunny mild normal strong yes 12 overcast mild high strong yes 13 overcast hot normal weak yes 14 rain mild nigh strong no Die Wert des Zielkonzeptes der folgenden Instanz x sei unbekannt: x = Outlook=sunny, Temperature=cool, Humidity=high, Wind=strong 17 Naive-Bayes: Beispiel (Fortsetzung) B NB = argmax p(b i) p(a j B i) A j x = argmax p(b i) p(outlook=sunny B i)... A j x bezeichnet die Ereignisse {x Outlook(x) =sunny }, {x Temperature(x) =cool}, {x Humidity(x) =high}, {x Wind(x) =strong} a Naive-Bayes: Beispiel (Fortsetzung) B NB = argmax p(b i) p(a j B i) A j x = argmax p(b i) p(outlook=sunny B i)... Zur Klassifikation von x sind 10 Wahrscheinlichkeiten zu schätzen: p(playtennis=yes) = 9 14 =0.64 p(playtennis=no) = 5 14 =0.36 p(wind=strong PlayTennis=yes) = 3 9 =
11 Naive-Bayes: Beispiel (Fortsetzung) B NB = argmax p(b i) p(a j B i) A j x = argmax p(b i) p(outlook=sunny B i)... Zur Klassifikation von x sind 10 Wahrscheinlichkeiten zu schätzen: p(playtennis=yes) = 9 14 =0.64 p(playtennis=no) = 5 14 =0.36 p(wind=strong PlayTennis=yes) = 3 9 = Rangordnung: 1. p(playtennis=no) A j x p(aj PlayTennis=no) = p(playtennis=yes) A j x p(aj PlayTennis=yes) = Normalisierung: P (PlayTennis=no x) = =
Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen
Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,
MehrKapitel ML:IV (Fortsetzung)
Kapitel ML:IV (Fortsetzung) IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-18 Statistical Learning c STEIN 2005-2011 Satz 3 (Bayes)
MehrDiagnose. Statistische Diagnose. Statistische Diagnose. Statistische Diagnose. Einordnung: Diagnose Problemklasse Analyse
Statistische Einordnung: Problemklasse Analyse Kernfrage bzgl. der Modellierung: Wieviel ist bekannt über das zu diagnostizierende System? Begriffe der : System. Ausschnitt aus der realen Welt. Hier: System
MehrTeil II. Wahrscheinlichkeitsrechnung
Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2014) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse
MehrTeil II. Wahrscheinlichkeitsrechnung. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129
Teil II Wahrscheinlichkeitsrechnung Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 2015) Folie 129 5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) 5 Zufallsexperimente Ergebnisse Ereignisse
MehrTeil II. Wahrscheinlichkeitsrechnung. Inhaltsverzeichnis (Ausschnitt) Zufallsexperimente (Zufallsvorgänge) Ergebnisse
5 Zufallsexperimente Inhaltsverzeichnis (Ausschnitt) Teil II Wahrscheinlichkeitsrechnung 5 Zufallsexperimente Ergebnisse Ereignisse Wahrscheinlichkeiten Deskriptive Statistik und Wahrscheinlichkeitsrechnung
MehrEinführung in die Wahrscheinlichkeitsrechnung
Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze
MehrVorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie
Kapitel 4 Christoph Hindermann Vorkurs Mathematik 1 4.0 Motivation Wenn 100 Münzen geworfen werden, wie ist dann die Wahrscheinlichkeit, dass genau 50 davon Kopf zeigen? Angenommen, es befinden sich 300
MehrLehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007
. Grundlagen der Wahrscheinlichkeitstheorie. Zufallsereignisse, Ereignisraum und Ereignismenge Zufallsexperiment: nach einer bestimmten Vorschrift ausgeführter, unter gleichen edingungen beliebig oft wiederholbarer
Mehr4. Die Laplacesche Gleichverteilung
Universität Basel Wirtschaftswissenschaftliches Zentrum Grundlagen der Stochastik Dr. Thomas Zehrt Inhalt: 1. Die Ereignismenge 2. Die Wahrscheinlichkeitsverteilung 3. Eigenschaften einer Wahrscheinlichkeitsverteilung
MehrStochastik für Ingenieure
Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:
MehrKapitel 2 Wahrscheinlichkeitsrechnung
Motivation bisher: Beschreibung von Datensätzen = beobachteten Merkmalsausprägungen Frage: Sind Schlußfolgerungen aus diesen Beobachtungen möglich? Antwort: Ja, aber diese gelten nur mit einer bestimmten
Mehr2.2 Ereignisse und deren Wahrscheinlichkeit
2.2 Ereignisse und deren Wahrscheinlichkeit Literatur: [Papula Bd., Kap. II.2 und II.], [Benning, Kap. ], [Bronstein et al., Kap. 1.2.1] Def 1 [Benning] Ein Zufallsexperiment ist ein beliebig oft wiederholbarer,
MehrRumpfskript. Elementare Wahrscheinlichkeitsrechnung. Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen
Rumpfskript Elementare Wahrscheinlichkeitsrechnung Prof. Dr. Ralf Runde Statistik und Ökonometrie, Universität Siegen Vorbemerkung Vorbemerkung Das vorliegende Skript heißt nicht nur Rumpf skript, sondern
MehrDr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung
Vorlesungscharts Vorlesung 1 Grundbegriffe der Wahrscheinlichkeitsrechnung Zufallsvorgänge und Zufallsereignisse Definitionen der Wahrscheinlichkeit Seite 1 von 11 Chart 1: Vorgänge deterministisch zufällig
MehrSatz von der totalen Wahrscheinlichkeit
htw saar 1 Satz von der totalen Wahrscheinlichkeit Sei (Ω, P) ein Wahrscheinlichkeitsraum, und B 1,, B n seien paarweise disjunkte Ereignisse mit B i = Ω. Für jedes Ereignis A gilt dann: P(A) = P(A B 1
Mehr1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis 1 Vorbemerkungen 1 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 1 Vorbemerkungen
MehrZusammenfassung Stochastik
Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl
Mehr1 Elementare Wahrscheinlichkeitstheorie
1 Elementare Wahrscheinlichkeitstheorie 1.1 Zufallsexperiment Definition 1.1. Ein Zufallsexperiment ist ein Vorgang, der im Prinzip beliebig oft unter identischen Randbedingungen wiederholt werden kann.
MehrDefinition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis
Stochastische Prozesse: Grundlegende Begriffe bei zufälligen Prozessen In diesem Abschnitt beschäftigen wir uns mit den grundlegenden Begriffen und Definitionen von Zufallsexperimenten, also Prozessen,
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.
MehrSatz 18 (Satz von der totalen Wahrscheinlichkeit)
Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte
Mehr7. Kapitel: Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten
7. Kapitel: Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten 7.1 Zufallsvorgänge - zufälliges Geschehen/ Zufallsvorgang/ stochastische Vorgang: aus Geschehen/Vorgang/Experiment (mit gegebener Ausgangssituation)
MehrGrundbegriffe. Vereinigungsmenge Schnittmenge sicheres Ereignis disjunkte Mengen komplementäre Ereignisse/ Gegenereignisse/ Alternativereignisse
Grundbegriffe Vereinigungsmenge Schnittmenge sicheres Ereignis disjunkte Mengen komplementäre Ereignisse/ Gegenereignisse/ Alternativereignisse 33 Mengenschreibweise von Ereignissen - Rechenregeln: (1)
MehrKapitel 5 Stochastische Unabhängigkeit
Kapitel 5 Stochastische Unabhängigkeit Vorlesung Wahrscheinlichkeitsrechnung I vom SoSe 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 5.1 Das Konzept der stochastischen Unabhängigkeit. 1 Herleitung anhand
MehrMaschinelles Lernen: Symbolische Ansätze. Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt 1 Aufgabe 1 Nearest Neighbour Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity
MehrSatz 16 (Multiplikationssatz)
Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrKapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit
Teil I: Wahrscheinlichkeitstheorie 1 Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 3: Bedingte Wahrscheinlichkeit Kapitel 4: Zufallsvariablen Kapitel 5: Erwartungswerte, Varianz, Kovarianz
MehrSEMINAR KLASSIFIKATION & CLUSTERING STATISTISCHE GRUNDLAGEN. Stefan Langer WINTERSEMESTER 2014/15.
SEMINAR KLASSIFIKATION & CLUSTERING WINTERSEMESTER 2014/15 STATISTISCHE GRUNDLAGEN Stefan Langer stefan.langer@cis.uni-muenchen.de Frequenz & Häufigkeit: Übersicht Absolute Häufigkeit Relative Häufigkeit
Mehr3. Grundbegriffe der Wahrscheinlichkeitstheorie
03. JULI 2006: BLATT 17 3. Grundbegriffe der Wahrscheinlichkeitstheorie (v.a. nach Manning/Schütze: 40ff und Fahrmeir /Künstler/Pigeot/Tutz: 171ff) Übersicht Um entscheiden zu können, ob eine statistische
MehrStochastik Grundlagen
Grundlegende Begriffe: Zufallsexperiment: Ein Experiment, das beliebig oft wiederholt werden kann. Die möglichen Ergebnisse sind bekannt, nicht jedoch nicht, welches Ergebnis ein einzelnes Experiment hat.
MehrKapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente
Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der
MehrWahrscheinlichkeitsrechnung und Statistik
1. und 2. Vorlesung - 2017 Im Alltag... Laut den meteorologischen Vorhersagen wird es morgen regnen. Ob ich riskiere und die Wette verlieren werde? Ich werde mit Sicherheit gewinnen! Ist das wirklich unmöglich?
Mehr= 7! = 6! = 0, 00612,
Die Wahrscheinlichkeit, dass Prof. L. die Wette verliert, lässt sich wie folgt berechnen: Ω = {(i 1,..., i 7 ) : i j {1... 7}, j = 1... 7}, wobei i, j für den Wochentag steht, an dem die Person j geboren
MehrEin Ereignis ist eine Menge von Elementarereignissen. Berechnung von Wahrscheinlichkeiten zufälliger Ereignisse erfordert ein Modell.
SS 2013 Prof. Dr. J. Schütze/ J.Puhl FB GW Wkt.1 1 Grundbegriffe Zufallsexperiment unter gleichen Bedingungen wiederholbarer Vorgang (geplant, gesteuert, beobachtet oder auch nur gedanklich) Menge der
MehrMathematische Grundlagen der Computerlinguistik Wahrscheinlichkeit
Mathematische Grundlagen der Computerlinguistik Wahrscheinlichkeit Dozentin: Wiebke Petersen 8. Foliensatz Wiebke Petersen math. Grundlagen 1 Motivation Bsp.: In vielen Bereichen der CL kommt Wahrscheinlichkeitstheorie
MehrMathematische und statistische Methoden II
Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω 2 3 8 N Wir definieren
MehrÜbungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression
Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen
MehrEinführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte
Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare Wahrscheinlichkeitsrechnung, bedingte Wahrscheinlichkeit Axiome nach Kolmogorov Gegeben sei ein Zufallsexperiment mit Ergebnisraum
MehrGrundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt
Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 7. Übungsblatt Aufgabe 1: Evaluierung und Kosten Gegeben sei ein Datensatz mit 300 Beispielen, davon 2 /3 positiv
MehrWahrscheinlichkeitsrechnung [probability]
Wahrscheinlichkeitsrechnung [probability] Hinweis: Die Wahrscheinlichkeitsrechnung ist nicht Gegenstand dieser Vorlesung. Es werden lediglich einige Begriffsbildungen bereitgestellt und an Beispielen erläutert,
MehrData Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt
Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 7. Übungsblatt 1 Aufgabe 1a) Auffüllen von Attributen
MehrWahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele
Wahrscheinlichkeitstheorie Kapitel I - Einführende Beispiele Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Wahrscheinlichkeitstheorie Agenda:
MehrWahrscheinlichkeitsrechnung
Wahrscheinlichkeitsrechnung. Semester Begleitendes Skriptum zur Vorlesung im FH-Masterstudiengang Technisches Management von Günther Karigl FH Campus Wien 206/7 Inhaltsverzeichnis. Semester: Wahrscheinlichkeitsrechnung
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrWelche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?
2. Übung: Wahrscheinlichkeitsrechnung Aufgabe 1 Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? a) P ist nichtnegativ. b) P ist additiv. c) P ist multiplikativ.
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
MehrEs werden 120 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 120 Schülern besitzen 99 ein Handy.
R. Brinkmann http://brinkmann-du.de Seite 08..2009 Von der relativen Häufigkeit zur Wahrscheinlichkeit Es werden 20 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 20 Schülern
MehrWahrscheinlichkeitslehre
Wahrscheinlichkeitslehre I. Was ist unter dem Ausdruck "wahrscheinlich" zu verstehen? Wir unterscheiden vier verschiedene, teils miteinander zusammenhängende, teils heterogene Verwendungen des Ausdrucks
Mehr1. Grundlagen der Wahrscheinlichkeitsrechnung
1. Grundlagen der Wahrscheinlichkeitsrechnung Ereignisse und Wahrscheinlichkeiten Zufälliger Versuch: Vorgang, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang innerhalb einer
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω = {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω = 2 3 = 8 = N
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 27. Oktober 2010 Teil III Wahrscheinlichkeitstheorie 1 Zufallsereignisse Vorüberlegungen Der Ereignisraum Konstruktionen
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 7. Übung SS 16: Woche vom
Übungsaufgaben 7. Übung SS 16: Woche vom 23. 5. 27. 5.. 2016 Stochastik I: Klassische Wkt.-Berechnung Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/... (SS16).html
MehrBedingte Wahrscheinlichkeiten
Bedingte Wahrscheinlichkeiten Bei der Betrachtung der Ereignisse A und B eines Zufallsexperiments muss man die beiden im folgendem beschrieben zwei Situationen unterscheiden. 1. Das Ereignis A und B tritt
MehrWelche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?
2. Übung: Wahrscheinlichkeitsrechnung Aufgabe 1 Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? a) P ist nichtnegativ. b) P ist additiv. c) P ist multiplikativ.
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,
MehrWahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26)
Wahrscheinlichkeitsräume (Teschl/Teschl 2, Kap. 26 Ein Wahrscheinlichkeitsraum (Ω, P ist eine Menge Ω (Menge aller möglichen Ausgänge eines Zufallsexperiments: Ergebnismenge versehen mit einer Abbildung
MehrGrundwissen Stochastik Grundkurs 23. Januar 2008
GYMNSIUM MIT SCHÜLERHEIM PEGNITZ math.-technolog. u. sprachl. Gymnasium WILHELM-VON-HUMBOLDT-STRSSE 7 91257 PEGNITZ FERNRUF 09241/48333 FX 09241/2564 Grundwissen Stochastik Grundkurs 23. Januar 2008 1.
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,
MehrSprechstunde zur Klausurvorbereitung
htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrWahrscheinlichkeiten
Wahrscheinlichkeiten Bestimmung der Wahrscheinlichkeit Bei einem Zufallsexperiment kann man nicht voraussagen, welches Ereignis eintritt, aber manche Ereignisse treten naturgemäß mit einer größeren Wahrscheinlichkeit
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 7. Übungsblatt Aufgabe 1 Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity Wind PlayTennis D1? Hot High Weak No D2 Sunny
MehrStochastik - Kapitel 2
" k " h(a) n = bezeichnet man als die relative Häufigkeit des Ereignisses A bei n Versuchen. n (Anmerkung: für das kleine h wird in der Literatur häufig auch ein r verwendet) k nennt man die absolute Häufigkeit
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrMathematische und statistische Methoden II
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrWahrscheinlichkeit (Teschl/Teschl 2, Kap. 26)
Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26) Gegeben Menge Ω (Wahscheinlichkeitsraum, Menge aller möglichen Ausgänge eines Zufallsexperiments), Abbildung P : P(Ω) [0, 1] (Wahrscheinlichkeit): Jeder Teilmenge
MehrAllgemeine diskrete Wahrscheinlichkeitsräume II
6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete
MehrAllgemeine diskrete Wahrscheinlichkeitsräume I
6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete
MehrAllgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)
Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich
MehrInteraktives Skriptum: Elementare Wahrscheinlichkeitsrechnung
Interaktives Skriptum: Elementare Wahrscheinlichkeitsrechnung 1. Grundbegriffe Würfeln, Werfen einer Münze, Messen der Lebensdauer einer Glühbirne Ausfall/Ausgang: Würfeln: Augenzahlen 1, 2, 3, 4, 5, 6
MehrPopulation und Stichprobe: Wahrscheinlichkeitstheorie
Population und Stichprobe: Wahrscheinlichkeitstheorie SS 2001 4. Sitzung vom 15.05.2001 Wahrscheinlichkeitstheorie in den Sozialwissenschaften: Stichprobenziehung: Aussagen über Stichprobenzusammensetzung
MehrP (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.
2 Wahrscheinlichkeitstheorie Beispiel. Wie wahrscheinlich ist es, eine Zwei oder eine Drei gewürfelt zu haben, wenn wir schon wissen, dass wir eine ungerade Zahl gewürfelt haben? Dann ist Ereignis A das
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
MehrEinführung in die Wahrscheinlichkeitsrechnung
Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 8. Übung SS 16: Woche vom
Übungsaufgaben 8. Übung SS 16: Woche vom 30. 5. 3.6. 2016 Stochastik II: Klassische Wkt.-Berechnung; Unabhängigkeit Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
MehrKombinatorik & Stochastik Übung im Sommersemester 2018
Kombinatorik & Stochastik Übung im Sommersemester 2018 Kombinatorik Formeln & Begriffe Begrifflichkeiten Permutation = Anordnung in einer bestimmten Reihenfolge Kombination = Anordnung ohne bestimmte Reihenfolge
MehrDiskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier
Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre
MehrMathematische und statistische Methoden II
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de
Mehr15 Wahrscheinlichkeitsrechnung und Statistik
5 Wahrscheinlichkeitsrechnung und Statistik Alles, was lediglich wahrscheinlich ist, ist wahrscheinlich falsch. ( Descartes ) Trau keiner Statistik, die du nicht selbst gefälscht hast. ( Churchill zugeschrieben
MehrSplitting. Impurity. c 1. c 2. c 3. c 4
Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision
MehrKapitel II - Wahrscheinlichkeitsraum
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel II - Wahrscheinlichkeitsraum Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
MehrZufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen
Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/
MehrKapitel MK:V. V. Diagnoseansätze
Kapitel MK:V V. Diagnoseansätze Diagnoseproblemstellung Diagnose mit Bayes Evidenztheorie von Dempster/Shafer Diagnose mit Dempster/Shafer Truth Maintenance Assumption-Based TMS Diagnosis Setting Diagnosis
MehrGründe für die Behandlung von stochastischen Problemen (nach KÜTTING)
Vorlesung 03.01.09 Stochastik Gründe für die Behandlung von stochastischen Problemen (nach KÜTTING) Der Mathematikunterricht der Schule hat die Aufgabe, eine Grundbildung zu vermitteln, die auf ein mathematisches
Mehr1.3 Stochastische Unabhängigkeit und bedingte
1.3 Stochastische Unabhängigkeit und bedingte Wahrscheinlichkeiten Ziel: komplexere Modelle aus Verkettung ( Koppelung ) von Zufallsexperimenten bauen, insbesondere Ziehung von n-personen aus n-maliger
MehrWie hoch ist das Risiko, dass ein System, das aus mehreren Komponenten besteht, ausfällt?
In diesem Kapitel werden wir den egriff Wahrscheinlichkeit und die Grundlagen der Wahrscheinlichkeitsrechnung kennenlernen, um z.. folgende Fragestellungen zu beantworten. Wie hoch ist das Risiko, dass
Mehrhtw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT Hans-Peter Hafner WS 2016/2017
htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT htw saar 2 Gliederung 25.01. Bedingte Wahrscheinlichkeit: Motivation und Definition Multiplikationssatz Stochastische Unabhängigkeit:
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr