Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung
|
|
- Nicole Kirchner
- vor 7 Jahren
- Abrufe
Transkript
1 Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Kursfolien Karin Haenelt 1
2 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln abhängige und unabhängige Ereignisse Test zweier Ereignisse auf Abhängigkeit Beispiel Retrieval Beispiel Tagging Schätzwerte Evaluierung 2
3 1 Wahrscheinlichkeit Wahrscheinlichkeitsfunktion P Weist jedem möglichen Wert einer Zufallsvariablen eine Wahrscheinlichkeit zu PROB(e i ) 0 für alle i PROB(e i ) 1 für alle i Σ i=1,n PROB(e i ) = 1 PROB(Race=Win) = 0.2 PROB(Race=Lose) = Σ i=1,n PROB(RACE i ) = 1.0 3
4 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln abhängige und unabhängige Ereignisse Test zweier Ereignisse auf Abhängigkeit Beispiel Retrieval Beispiel Tagging Schätzwerte Evaluierung 4
5 2 Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit P(A) Wahrscheinlichkeit (a priori Wahrscheinlichkeit) Gesamtmenge - Wahrscheinlichkeit, dass Ereignis A eintritt A A B B - betrachtet eine Teilmenge aus der Gesamtmenge - P(A) / P(Gesamtmenge) = P(A) / 1 = P(A) P(A B) Bedingte Wahrscheinlichkeit (a posteriori Wahrscheinlichkeit) Gesamtmenge - Wahrscheinlichkeit - dass Ereignis A eintritt, - wenn Ereignis B eingetreten ist A A B B - betrachtet eine Teilmenge aus einer Teilmenge - P(A B) = P(AB) / P(B) 5 Manning/Schütze,2000,42
6 2 Bedingte Wahrscheinlichkeit Das Pferd Harry und das Wetter Rennen Gesamt bei Regen gewonnen verloren gelaufen Einfache Wahrscheinlichkeit P(A) betrachtet Teilmengen aus der Gesamtmenge, Beispiele P ( win) =.2 P( win) / P( gesamt) P ( win rain) =.15 P( win rain) / P( gesamt) Bedingte Wahrscheinlichkeit P(A B) betrachtet Teilmengen aus einer Teilmenge, Beispiel P ( win rain) =.5 P( win rain) / P( rain) 6
7 2 Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit Definition P(A B) = P(A B) P(B) P(Win Rain) = P(Win Rain) P(Rain) Schreibvarianten P(A B) = P(A, B) P(B).15 P(Win Rain) = =.5.30 P(A B) = 65 P(A & B) / P(B) 5 A A B B P(A B) P(B A) P(Rain Win) P(Rain Win) = P(Win).15 P(Rain Win) = =
8 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln abhängige und unabhängige Ereignisse Test zweier Ereignisse auf Abhängigkeit Beispiel Retrieval Beispiel Tagging Schätzwerte Evaluierung 8
9 P(A B) P(A B) = P(B) Theorem von Bayes ermöglicht Berechnung von P(B A) aus P(A B) Regel von Bayes P(A B) = P(B) P(A B) / P(B) = P(B) P(A B) / 0.3 = = 0.15 = P(A) P(A B) / P(A) = P(A) P(B A) / 0.2 = = 0.15 Theorem von Bayes P(A B )= P(A B) / P(B) = P(B) P(A B) / P(B) / 0.3 = 0.50 = P(A) P(B A) / P(B) / 0.3 = 0.50 Herleitung durch Umformung 9
10 65 5 A:win A B 15 B:rain 15 Theorem von Bayes ermöglicht Berechnung von P(B A) aus P(A B) Regel von Bayes P(A B) = P(B) P(A B) / P(B) = P(B) P(A B) / 0.3 = = 0.15 = P(A) P(A B) / P(A) = P(A) P(B A) / 0.2 = = 0.15 Theorem von Bayes P(A B )= P(A B) / P(B) = P(B) P(A B) / P(B) / 0.3 = 0.50 = P(A) P(B A) / P(B) Herleitung durch Umformung / 0.3 =
11 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln abhängige und unabhängige Ereignisse Test zweier Ereignisse auf Abhängigkeit Beispiel Retrieval Beispiel Tagging Schätzwerte Evaluierung 11
12 unabhängige Ereignisse Zwei Ereignisse sind voneinander unabhängig, wenn gilt: P(A B) P(A B) = P(A) = P(A) P(B) Typisches Beispiel: Es werden zwei Würfel geworfen. Sei A das Ereignis: der 1. Wurf ist eine 1: P(A) = 1/6 Sei B das Ereignis: der 2. Wurf ist eine 6: P(B) = 1/6 Wahrscheinlichkeit A und B: P(A B) = 1/6 1/6 = 1/36 12
13 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln abhängige und unabhängige Ereignisse Test zweier Ereignisse auf Abhängigkeit Beispiel Retrieval Beispiel Tagging Schätzwerte Evaluierung 13
14 Test zweier Ereignisse auf Unabhängigkeit Rennen alle Rennen bei Regen (Beispiel 1) bei Regen (Beispiel 2) gewonnen verloren Gesamt Beispiel 1 P(win rain).50 P(win).20 Ergebnis: die Ereignisse win und rain sind abhängig Beispiel 2.20 =.20 unabhängig Beispiel 1 Beispiel 2 P(win rain) = P(win) P(rain).2.3 = =.10 abhängig unabhängig Ergebnis: die Ereignisse win und rain sind 14
15 abhängige und unabhängige Ereignisse diese Formeln gelten in beiden Fällen, da die rechte und die linke Seite formal äquivalent sind P(A B) = P(A) P(B A) = P(B) P(A B) P(A B) = P(A B) / P(B) P(win rain) = P(win rain) P(rain) = P(rain win) P(win) Beispiel 1.15 =.5.3 =.75.2 Beispiel 2.10 =.2.5 =.5.2 P(win rain) = P(win rain) / P(rain) Beispiel /.3 Beispiel /. 5 15
16 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln abhängige und unabhängige Ereignisse Test zweier Ereignisse auf Abhängigkeit Beispiel Retrieval Beispiel Tagging Schätzwerte Evaluierung 16
17 4 Beispiel 4 Beispiel Retrieval Dokumente Gesamt relevante Dokumente mit Term i ohne Term i R R P(wi = 1 R).15 P(wi = 1 R) = = =.5 P(R).30 17
18 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln abhängige und unabhängige Ereignisse Test zweier Ereignisse auf Abhängigkeit Beispiel Retrieval Beispiel Tagging Schätzwerte Evaluierung 18
19 4 Beispiel 5 Beispiel Tagging Vereinfachter Fall des Part-of-Speech Tagging bzw. der Wortartdisambiguierung: Es ist zu bestimmen, Ob flies ein Nomen (N) oder ein Verb (V) ist Allen, 1995, S. 191/192 19
20 4 Beispiel Beispiel Zu lösende Aufgabe P( N flies) = P( flies N) / P( flies) P( V flies) = P( flies V ) / P( flies) Schätzwerte aus Beispieldaten P( flies) / = P( flies N) 400 / = ( flies V ) 600 / = a... flies flies z... Beispiel-. Corpus. N 400 V P vgl. Allen, 1995, S. 191/192 Ergebnis P( V flies) = P( flies V ) / P( flies) = / =.6 20
21 4 Beispiel Beispiel Anwendung des Ergebnisses Ein Algorithmus, der flies immer die Kategorie V zuweist, - arbeitet im Beispielfall in 60% aller Fälle korrekt Zur Verbesserung der Methode ist die Betrachtung von Kontext erforderlich Allen, 1995, S
22 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln abhängige und unabhängige Ereignisse Test zweier Ereignisse auf Abhängigkeit Beispiel Retrieval Beispiel Tagging Schätzwerte Evaluierung 22
23 5 Schätzwerte Schätzwerte Tatsächliche Wahrscheinlichkeit Geschätzte Wahrscheinlichkeit Berechnung für vorliegende Daten Verwendung bekannter Daten für Vorhersage zukünftiger Fälle Sprachtechnologische Anwendungen arbeiten mit geschätzten Wahrscheinlichkeiten Allen, 1995, S
24 5 Schätzwerte Schätzwerte Verwendung der Werte von n beobachteten Fällen zur Lösung der Fälle n+1... n+m Zuverlässig bei großen Beispielmengen Problematisch bei kleinen Beispielmengen Allen, 1995, S
25 Berechnung Maximum Likelihood Estimator (MLE) Einfache Verhältnisschätzung Beispiel X x i H i flies N 4 flies V 6 Zufallsvariable Wert der Zufallsvariablen Häufigkeitswert des Ereignisses X=x i MLE: H i = x i P(X=x i ) H i / Σ i H i 5 Schätzwerte P(Categ=V) V / N + V = 6 / 10 =.6 vgl. Allen, 1995, S
26 Expected Likelihood Estimator (ELE) 5 Schätzwerte Einfache Verhältnisschätzung + kleiner Korrekturwert Berechnung X x i H i P(X=x i ) H i / Σ i H i Zufallsvariable Wert der Zufallsvariablen Häufigkeitswert des Ereignisses X=x i ELE: H i = x i Zur Vermeidung von Null-Werten Allen, 1995, S
27 Expected Likelihood Estimator (ELE) 5 Schätzwerte Beispiel 1 Wort w P(X=x i ) H i / Σ i H i erscheint nicht im Corpus Schätzung der Wahrscheinlichkeit, dass w in einer von 40 Wortklassen erscheint: P(Categ=V w) V / Σ i H i = / 40 (0+0.5) =.5/20 =.025 Kleiner Wert reflektiert die Tatsache, dass zu w keine Information vorhanden ist Allen, 1995, S
28 Expected Likelihood Estimator (ELE) 5 Schätzwerte Beispiel 2 P ( Categ = V flies) H i / Σ ihi Klasse Categ Freq 1 N V = x (0+0.5) H 2 = 6.5 / = H = i i 1 ergibt sehr kleinen Wert im Vergleich zur Intuition bei geringen Datenmengen schlagen nicht belegte Klassen stark auf das Ergebnis durch vgl. Allen, 1995, S
29 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln abhängige und unabhängige Ereignisse Test zweier Ereignisse auf Abhängigkeit Beispiel Retrieval Beispiel Tagging Schätzwerte Evaluierung 29
30 6 Evaluierung Evaluierung Erfordert Aufteilung des Corpus in - Trainingsmenge Zur Gewinnung der Schätzwerte - Testmenge Zur Evaluierung der Algorithmen Typische Trainingsmenge: 10-20% des Corpus Cross-Validation: Iteratives Testen mit Auswahl verschiedener Teile des Corpus Als Trainings- und Testmenge Allen, 1995, S
31 Literatur Allen, James (1995): Natural Language Understanding. 2nd edition. Addison-Wesley Publishing Co. Manning, Christopher D.; Schütze, Hinrich (1999): Foundations of Statistical Natural Language Processing. Cambridge, Mass., London: The MIT Press. (vgl.: Schüler DUDEN Mathematik I, Mannheim; Leipzig; Wien; Zürich: Dudenverlag,
32 Versionen V 5.0: V 4.2: , V 4.1: , V 4.0: , V 3.0: , V 2.0: V 1.0:
Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt
Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum
MehrElementare Grundlagen der Wahrscheinlichkeitstheorie
Kursfolien Karin Haenelt Oktober 2000 Inhalt Ereignisraum Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeiten Theorem von Bayes 2 Ereignisraum W Ergebnismenge (sample space) Menge der möglichen W = {nom,gen,dat,acc}
MehrElementare Grundlagen der Wahrscheinlichkeitstheorie
Kursfolien Karin Haenelt Oktober 2000 Inhalt Ereignisraum Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeiten Theorem von Bayes 2 Ereignisraum W Ergebnismenge (sample space) Menge der möglichen W = {nom,gen,dat,acc
MehrHidden Markov Models
Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung
MehrDer Viterbi-Algorithmus im Part-of-Speech Tagging
Der Viterbi-Algorithmus im Part-of-Speech Tagging Kursfolien Karin Haenelt 1 Themen Zweck des Viterbi-Algorithmus Hidden Markov Model Formale Spezifikation Beispiel Arc Emission Model State Emission Model
MehrDer Viterbi Algorithmus
M. 23.Juli.2007 Gliederung 1 2 3 Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes entwickelt Auf Basis von entwickelt Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes
MehrHidden Markov Models (HMM)
Hidden Markov Models (HMM) Kursfolien Karin Haenelt 1 Themen Definitionen Stochastischer Prozess Markow Kette (Visible) Markov Model Hidden Markov Model Aufgaben, die mit HMMs bearbeitet werden Algorithmen
MehrEinführung in die Computerlinguistik Statistische Grundlagen
Diskrete Wahrscheinlichkeitsräume (1) Einführung in die Computerlinguistik Statistische Grundlagen Laura Heinrich-Heine-Universität Düsseldorf Wintersemester 2011/2012 In vielen Bereichen der CL kommt
MehrHidden Markov Models Erläuterung der Bestimmung der Wahrscheinlichkeit einer Beobachtung
Hidden Markov Models Erläuterung der estimmung der Wahrscheinlichkeit einer eobachtung Kursfolien Karin Haenelt Karin Haenelt Hidden Markov-Modelle 9.66 2.64 Hidden Markov Model HMM: eschreibung Ein Hidden
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Statistische Grundlagen Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2016 1 / 21 Diskrete Wahrscheinlichkeitsräume (1) Carstensen et al. (2010), Abschnitt
MehrDer VITERBI-Algorithmus
Der VITERBI-Algorithmus Hauptseminar Parsing Sommersemester 2002 Lehrstuhl für Computerlinguistik Universität Heidelberg Thorsten Beinhorn http://janus.cl.uni-heidelberg.de/~beinhorn 2 Inhalt Ziel des
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrKapitel 5 Stochastische Unabhängigkeit
Kapitel 5 Stochastische Unabhängigkeit Vorlesung Wahrscheinlichkeitsrechnung I vom SoSe 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 5.1 Das Konzept der stochastischen Unabhängigkeit. 1 Herleitung anhand
MehrWahrscheinlichkeitstheorie und Naive Bayes
Wahrscheinlichkeitstheorie und Naive Bayes Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 12.05.2011 Caroline Sporleder Naive Bayes (1) Elementare Wahrscheinlichkeitstheorie
MehrKapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 2. Wahrscheinlichkeit
Teil I: Wahrscheinlichkeitstheorie 1 Kapitel 2. Wahrscheinlichkeit (wird heute behandelt) Kapitel 3: Bedingte Wahrscheinlichkeit Kapitel 4: Zufallsvariablen Kapitel 5: Erwartungswerte, Varianz, Kovarianz
MehrSEMINAR KLASSIFIKATION & CLUSTERING STATISTISCHE GRUNDLAGEN. Stefan Langer WINTERSEMESTER 2014/15.
SEMINAR KLASSIFIKATION & CLUSTERING WINTERSEMESTER 2014/15 STATISTISCHE GRUNDLAGEN Stefan Langer stefan.langer@cis.uni-muenchen.de Frequenz & Häufigkeit: Übersicht Absolute Häufigkeit Relative Häufigkeit
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.
MehrBoole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen
Rückblick Boole sches Retrieval als frühes, aber immer noch verbreitetes IR-Modell mit zahlreichen Erweiterungen Vektorraummodell stellt Anfrage und Dokumente als Vektoren in gemeinsamen Vektorraum dar
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)
MehrFriedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong
Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem
MehrPart-Of-Speech-Tagging mit Viterbi Algorithmus
Part-Of-Speech-Tagging mit Viterbi Algorithmus HS Endliche Automaten Inna Nickel, Julia Konstantinova 19.07.2010 1 / 21 Gliederung 1 Motivation 2 Theoretische Grundlagen Hidden Markov Model Viterbi Algorithmus
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer, Tom Vanck, Paul Prasse
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer, Tom Vanck, Paul Prasse Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Termin: Montags,
Mehrhtw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT Hans-Peter Hafner WS 2016/2017
htw saar 1 KAPITEL 4 BEDINGTE WAHRSCHEINLICHKEIT UND STOCHASTISCHE UNABHÄNGIGKEIT htw saar 2 Gliederung 25.01. Bedingte Wahrscheinlichkeit: Motivation und Definition Multiplikationssatz Stochastische Unabhängigkeit:
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
MehrUnabhängigkeit von Zufallsvariablen
Unabhängigkeit von Zufallsvariablen Seminar Gegenbeispiele in der Wahrscheinlichkeitstheorie Pascal Beckedorf 12. November 2012 Pascal Beckedorf Unabhängigkeit von Zufallsvariablen 12. November 2012 1
Mehr7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.
7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 2
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/14 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie svorschläge
MehrTagging mit Hidden Markov Models und Viterbi-Algorithmus
Tagging mit Hidden Markov Models und Viterbi-Algorithmus Annelen Brunner, Stephanie Schuldes, Nicola Kaiser, Olga Mordvinova HS Parsing SoSe 2003 PD Dr. Karin Haenelt Inhalt Ziel des Seminarprojekts Theorie:
MehrEinführung in die Computerlinguistik Statistische Grundlagen
Statistik 1 Sommer 2015 Einführung in die Computerlinguistik Statistische Grundlagen Laura Heinrich-Heine-Universität Düsseldorf Sommersemester 2015 Statistik 2 Sommer 2015 Überblick 1. Diskrete Wahrscheinlichkeitsräume
MehrHypothesenbewertungen: Übersicht
Hypothesenbewertungen: Übersicht Wie kann man Fehler einer Hypothese abschätzen? Wie kann man einschätzen, ob ein Algorithmus besser ist als ein anderer? Trainingsfehler, wirklicher Fehler Kreuzvalidierung
MehrElementare Wahrscheinlichkeitslehre
Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 1
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/ Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie svorschläge zu
MehrÜbungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression
Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Unabhängigkeit von Ereignissen A, B unabhängig:
MehrStatistik I für Betriebswirte Vorlesung 2
Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen. Bsp (3-maliges Werfen einer Münze) Menge der Elementarereignisse:
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen Bsp. 1.19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz, zzw,zwz,wzz,zww,wzw,wwz,www}. Dabei gilt: Ω 2 3 8 N. Wir definieren
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 08.01.2009 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 32 Einführung Wahrscheinlichkeit Verteilungen
MehrDiskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier
Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre
MehrMathematische Grundlagen (Bayes sches Lernen)
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Mathematische Grundlagen (Bayes sches Lernen) Tobias Scheffer Michael Großhans Paul Prasse Uwe Dick Anwendungsbeispiel 1: Diagnostik
MehrStochastik für Ingenieure
Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:
MehrWelche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?
2. Übung: Wahrscheinlichkeitsrechnung Aufgabe 1 Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? a) P ist nichtnegativ. b) P ist additiv. c) P ist multiplikativ.
MehrBayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L
Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Inhalt Grundlagen aus der Wahrscheinlichkeitsrechnung Hypothesenwahl Optimale Bayes Klassifikator Naiver Bayes Klassifikator
MehrSatz von der totalen Wahrscheinlichkeit
htw saar 1 Satz von der totalen Wahrscheinlichkeit Sei (Ω, P) ein Wahrscheinlichkeitsraum, und B 1,, B n seien paarweise disjunkte Ereignisse mit B i = Ω. Für jedes Ereignis A gilt dann: P(A) = P(A B 1
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 29. Oktober 2007 1. Statistik 1.1 Wahrscheinlichkeit Pragmatisch: p(e) = n(e) N für N sehr groß Kombination von Wahrscheinlichkeiten p(a oder B) =
MehrBayes sche und probabilistische Netze
Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
MehrSplitting. Impurity. c 1. c 2. c 3. c 4
Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision
MehrMustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10
Mustererkennung: Wahrscheinlichkeitstheorie D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10 Definitionen (axiomatisch) Wahrscheinlichkeitsraum (Ω, σ, P), mit Ω Die Grundmenge, die Menge der elementaren
MehrSatz 18 (Satz von der totalen Wahrscheinlichkeit)
Ausgehend von der Darstellung der bedingten Wahrscheinlichkeit in Gleichung 1 zeigen wir: Satz 18 (Satz von der totalen Wahrscheinlichkeit) Die Ereignisse A 1,..., A n seien paarweise disjunkt und es gelte
MehrFaire Spiele, bedingte Wahrscheinlichkeit und Unabhängigkeit
Faire Spiele, bedingte Wahrscheinlichkeit und Unabhängigkeit Dr. Elke Warmuth Sommersemester 2018 1 / 66 Faires Spiel Bedingte Wahrscheinlichkeit Verstehen des Konzepts Definition und Multiplikationsformel
MehrKorrektur des Bias Feldes in MR Aufnahmen
Sebastian Brandt Korrektur des Bias Feldes in MR Aufnahmen Folie 1 Korrektur des Bias Feldes in MR Aufnahmen Seminar Medizinische Bildverarbeitung Sebastian Brandt sbrandt@uni-koblenz.de Universität Koblenz-Landau
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Paul Prasse Michael Großhans
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Paul Prasse Michael Großhans Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. 6 Leistungspunkte
Mehr1.5 Erwartungswert und Varianz
Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr4. Grundzüge der Wahrscheinlichkeitsrechnung
4. Grundzüge der Wahrscheinlichkeitsrechnung Dr. Antje Kiesel Institut für angewandte Mathematik WS 2010/2011 In der beschreibenden Statistik haben wir verschiedene Kennzahlen (Statistiken) für Stichproben
Mehr1 Grundlagen Wahrscheinlichkeitsrechung
1 Grundlagen Wahrscheinlichkeitsrechung 1.1 Grundbegriffe Alle möglichen Ereignisse eines Zufallsexperiments fassen wir in einer Ereignismenge Ω zusammen. Ereignisse sind Teilmengen von Ω. Umfasst das
MehrWahrscheinlichkeitstheorie 2
Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):
MehrSatz 16 (Multiplikationssatz)
Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.
MehrZiegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem
Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Wahrscheinlichkeitsrechnung Theorie Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem Ziegenproblem,
MehrIn einem mathematischen Modell wird dies beschrieben durch einen funktionalen Zusammenhang: x = f (t).
Aktueller Überblick 0 Einführende Worte ( ) 1 Geschichtlicher Überblick ( ) 2 Zufall 3 Perfekte Sicherheit und ihre Grenzen 4 Angriffsszenarien 5 Der komplexitätstheoretische Ansatz 6 Pseudozufallsgeneratoren
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen 3.1 Einführung Bsp. 19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz,zzw,zwz,wzz,zww,wzw,wwz,www}. Ω 2 3 8 N Wir definieren
MehrBerechnen und Darstellen von Wahrscheinlichkeiten
Schule Bundesgymnasiu um für Berufstätige Salzburg Modul Thema Mathematik 8 Arbeitsblatt A 8-: Berechnen und Darstellen von Wahrscheinlichkeiten & Binomialverteilung Berechnen und Darstellen von Wahrscheinlichkeiten
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Unabhängigkeit Prof. Dr. Achim Klenke http://www.aklenke.de 6. Vorlesung: 02.12.2011 1/30 Inhalt 1 Wahrscheinlichkeit 2 2/30 Wahrscheinlichkeit
MehrVorlesung Statistik, H&A Mathe, Master M
Beispiel: Die Wahrscheinlichkeit dafür, dass ein Bewerber von Firma A angenommen wird ist P(A) = 0,2. Die Wahrscheinlichkeit von Firma B angenommen zu werden beträgt P(B) = 0,3. Von mindestens einer der
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Review)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c
MehrMathematische Grundlagen der Computerlinguistik Wahrscheinlichkeit
Mathematische Grundlagen der Computerlinguistik Wahrscheinlichkeit Dozentin: Wiebke Petersen 8. Foliensatz Wiebke Petersen math. Grundlagen 1 Motivation Bsp.: In vielen Bereichen der CL kommt Wahrscheinlichkeitstheorie
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
MehrVorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie
Kapitel 4 Christoph Hindermann Vorkurs Mathematik 1 4.0 Motivation Wenn 100 Münzen geworfen werden, wie ist dann die Wahrscheinlichkeit, dass genau 50 davon Kopf zeigen? Angenommen, es befinden sich 300
MehrWahrscheinlichkeitstheorie
Kapitel 2 Wahrscheinlichkeitstheorie Josef Leydold c 2006 Mathematische Methoden II Wahrscheinlichkeitstheorie 1 / 24 Lernziele Experimente, Ereignisse und Ereignisraum Wahrscheinlichkeit Rechnen mit Wahrscheinlichkeiten
MehrNatürlichsprachliche Systeme I Materialien zur Vorlesung
Natürlichsprachliche Systeme I Materialien zur Vorlesung D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität Magdeburg WS 2010/11, 19. Oktober 2010,
MehrStochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)
Prof. Dr. M. Maathuis ETH Zürich Winter 2010 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Aufgabe
MehrHidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
MehrStatistik I für Betriebswirte Vorlesung 2
Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. April 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 11.
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 10. November 2010 1 Bedingte Wahrscheinlichkeit Satz von der totalen Wahrscheinlichkeit Bayessche Formel 2 Grundprinzipien
MehrEinführung in die Wahrscheinlichkeitsrechnung
Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung
MehrBayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)
Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine Universität Düsseldorf 29. Oktober 2009 Mengensprechweise Die Menge aller Elementarereignisse ist der Ereignisraum. Seine Teilmengen heißen
MehrAufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /
Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =
MehrKapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen
Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,
MehrKonversatorium -Vorbereitung für die erste Diplomprüfung - Stochas0k. -Wahrscheinlichkeitstheorie-
Konversatorium -Vorbereitung für die erste Diplomprüfung - Stochas0k -Wahrscheinlichkeitstheorie- Begriffsdefini=on Stochas=k altgriechisch stochas=kē technē, lateinisch ars conjectandi, Die Kunst des
MehrMaschinelle Sprachverarbeitung: N-Gramm-Modelle
HUMBOLD-UNIVERSIÄ ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: N-Gramm-Modelle obias Scheffer, Ulf Brefeld Statistische Sprachmodelle Welche Sätze sind
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
MehrBayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur
MehrHidden Markov Models (HMM) Karin Haenelt
Hidden Markov Models (HMM) Karin Haenelt 16.5.2009 1 Inhalt Einführung Theoretische Basis Elementares Zufallsereignis Stochastischer Prozess (Folge von elementaren Zufallsereignissen) Markow-Kette (Stochastischer
MehrLehrstuhl für Empirische Wirtschaftsforschung und Ökonometrie Dr. Roland Füss Statistik II: Schließende Statistik SS 2007
. Grundlagen der Wahrscheinlichkeitstheorie. Zufallsereignisse, Ereignisraum und Ereignismenge Zufallsexperiment: nach einer bestimmten Vorschrift ausgeführter, unter gleichen edingungen beliebig oft wiederholbarer
MehrBedingte Wahrscheinlichkeiten
Bedingte Wahrscheinlichkeiten Bei der Betrachtung der Ereignisse A und B eines Zufallsexperiments muss man die beiden im folgendem beschrieben zwei Situationen unterscheiden. 1. Das Ereignis A und B tritt
Mehr4 Diskrete Wahrscheinlichkeitsverteilungen
4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder
Mehr3. Grundbegriffe der Wahrscheinlichkeitstheorie
03. JULI 2006: BLATT 17 3. Grundbegriffe der Wahrscheinlichkeitstheorie (v.a. nach Manning/Schütze: 40ff und Fahrmeir /Künstler/Pigeot/Tutz: 171ff) Übersicht Um entscheiden zu können, ob eine statistische
MehrÜbungsblätter zu Methoden der Empirischen Sozialforschung III: Inferenzstatistik. Lösungsblatt zu Nr. 2
Martin-Luther-Universität Halle-Wittenberg Institut für Soziologie Dr. Wolfgang Langer 1 Übungsblätter zu Methoden der Empirischen Sozialforschung III: Inferenzstatistik Lösungsblatt zu Nr. 2 1. Für die
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel
MehrSemester-Fahrplan 1 / 17
Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD
MehrAufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen
Ü b u n g 1 Aufgabe 1 Die Ereignisse A, B und C erfüllen die Bedingungen P(A) = 0. 7, P(B) = 0. 6, P(C) = 0. 5 P(A B) = 0. 4, P(A C) = 0. 3, P(B C) = 0. 2, P(A B C) = 0. 1 Bestimmen Sie P(A B), P(A C),
MehrBeispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal
Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.
MehrProgramm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung
Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
Mehr