Roman Firstein. Maximum Entropy Markov Models for Information Extraction and Segmentation

Größe: px
Ab Seite anzeigen:

Download "Roman Firstein. Maximum Entropy Markov Models for Information Extraction and Segmentation"

Transkript

1 Maximum Entropy Markov Models (MEMM) for Information Extraction and Segmentation Roman Firstein Maximum Entropy Markov Models for Information Extraction and Segmentation

2 Vortrag - Vorwort - Modell - (Maximale) Entropie am Beispiel der Urne - Binäres Feature - Bedingte Entropie - Maximale Entropie für unseres Modell Maximum Entropy Markov Models for Information Extraction and Segmentation 1

3 Vorwort (1) Worum geht es überhaupt?! Gegeben: - Menge O und S von Objekten (disjunkt) - W keitsraum als Teilmenge der Relationen s 1,...,s j,o 1,...,o j j - Stichprobe O S o 1,...,o n s 1,...,s n Gesucht: - Wahrscheinlichkeitsfunktion P s i,o i, 1 i j, so dass s 1,...,s j,o 1,...,o j maximal ist Maximum Entropy Markov Models for Information Extraction and Segmentation 2

4 Vorwort (2) Beispiele S 1. Rolle Erkennung: Person Organisation 0,9 0,1 Roman O 2. Übersetzung aus dem englischen: an bis mit S Zahlen sind die Wahscheinlickeiten P s,o 0,3 0,2 0,5 by O Maximum Entropy Markov Models for Information Extraction and Segmentation 3

5 Das NEUE Modell (MEMM) Zustand hängt jetzt von der Beobachtung und von dem vorherigen Zustand ab Vorteil: bei der Übersetzung kann man auch gucken wie das vorherige Wort übersetzt wurde Maximum Entropy Markov Models for Information Extraction and Segmentation 22 4

6 Das NEUE Modell (MEMM) Zustand- Beobachtung Übergangsfunktion s s o P s s,o P s s,o unterteilen wir in S Funktionen P s s o Maximum Entropy Markov Models for Information Extraction and Segmentation 22 5

7 Entropie Frage: Wenn man die Verteilungen in der Urne nicht kennt, bei welcher der beiden Urnen wird die Überraschung größer? Entropie H einer Wahrscheinlichkeitsverteilung X: Maß für die Unvorhersagbarkeit eines Ereignisses. H X = {rot,blau} i=1 p i log 2 p i H X = 0,6log 2 0,6 0,4log 2 0,4 0,97 H X = log 2 1 =0 Bei der (möglichst) Gleichverteilung wird die maximale Entropie erreicht!!! Maximum Entropy Markov Models for Information Extraction and Segmentation 22 6

8 Maximale Entropie Gegeben: Die Urne enthält 5 Kugeln (rote und blaue). Die Anzahl der Kugeln sei bekannt, aber der jeweiligen Farben nicht. Ziel: nach 2 Ziehungen die Verteilung der Kugeln abzuschätzen. Stichprobe Beobachtung: die Urne enthält mindestens eine rote und eine blaue Kugel Maximum Entropy Markov Models for Information Extraction and Segmentation 22 7

9 Maximale Entropie Über diese drei Kandidaten keine Information H X 0,72 Verteilungen, die mit der Stichprobe vereinbart sind H X 0,72 H X 0,97 H X 0,97 H X = {rot,blau} i =1 p i log 2 p i Maximum Entropy Markov Models for Information Extraction and Segmentation 22 8

10 Maximale Entropie Über diese drei Kandidaten keine Information Schätzen wir die Verteilung in der Urne so ab, dass die Entropie H maximal wird. (möglichst) Gleichverteilung oder Verteilungen mit der maximalen Entropie Maximum Entropy Markov Models for Information Extraction and Segmentation 22 9

11 Maximale Entropie Wie sieht die Verteilung aus, wenn 2 roten Kugeln gezogen wurden Wieder (möglichst) Gleichverteilung oder Verteilungen mit der maximalen Entropie Maximum Entropy Markov Models for Information Extraction and Segmentation 22 10

12 Maximale Entropie Wie sieht die Verteilung aus, wenn 4 roten Kugeln gezogen wurden Wieder (möglichst) Gleichverteilung H X 0,72 H X =0 maximale Entropie keine maximale Entropie Maximum Entropy Markov Models for Information Extraction and Segmentation 22 11

13 Analogie mit der Urne und zurück zum MEMM Die Urne enthält Relationen der Form s j, o j j STICHPROBE Zuordnung per Hand ausgeführt s 1,...,s n s 1,...,s m s 1,...,s k, o 1,...,o n, o 1,...,o m, o 1,...,o k da man hier eine s -Folge und eine o -Folge hat, geht es hier um eine bedingte Entropie Maximum Entropy Markov Models for Information Extraction and Segmentation 12

14 Das binäre Feature Stichprobe durch Charakteristische Funktion f kodieren, die einer Beobachtung 1 oder 0 zuordnet: b,s =a f b, s o t,s t = { 1, falls b o t ist true und s=s t 0, sonst } Binäres Features b Gewollter Zustand s Aktuelle Beobachtung o t Möglicher aktueller Zustand s t Maximum Entropy Markov Models for Information Extraction and Segmentation 13

15 Beispiel O={she,is,by,me}und S={sie,ist,bei,mit,mir } Stichprobe:...she is by me......sie ist mit mir......she is by me......sie ist bei mir......she is by me......sie ist bei mir......she is by me......sie ist mit mir......she is by me......sie ist bei mir... f b=das Wort ist by, s=mit o t,s t = { 1, falls o t =by und die Übersetzung von s t ist mit 0, sonst } f b=das Wort ist by, s=bei o t,s t = { 1, falls o t =by und die Übersetzung von s t ist bei 0, sonst } f b=das Wort ist she, s=sie o t,s t = { 1, falls o t =she und die Übersetzung von s t ist sie 0, sonst } Maximum Entropy Markov Models for Information Extraction and Segmentation 14

16 Bedingte Entropie H s X = S P s s o log 2 P s s o bei gegebenem o Ziel: Maximierung dieser Funktion unter den Nebenbedienungen: 1= S P s s o s, bei gegebenem o f a o,s k = S f a o, s P s s o s,s k,a bei gegebenem o Vollständig bzgl. P Vollständig bzgl. f a LAGRANGE Maximum Entropy Markov Models for Information Extraction and Segmentation 15

17 Lagrangesche Multiplikatorenmethode zur Maximierung einer Funktion unter Nebenbedingungen L s,p s = S P s s o log 2 P s s o a a S f a o,s P s s o f a o,s k H s 0 Erste Ableitung nach P bilden und gleich Null setzen: L s,p s = P s s o 1 log 2P s s o a f a o, s P s s o =0 S Ohne Zwischenschritte P s s o = s exp a 1 a f a o,s exp a a f a o,s Maximum Entropy Markov Models for Information Extraction and Segmentation 16

18 Verteilung mit der maximalen Entropie (Ohne Beweis): P s s o = 1 Z o,s exp a a f a o,s Exponentielle Darstellung der W keit Normalisierung, damit die Summe gleich 1 wird Lagrange - Multiplikator, der mit dem GIS Verfahren berechnet wird Z o, s = s exp a a f a o, s Maximum Entropy Markov Models for Information Extraction and Segmentation 17

19 Die Abschätzung der Zustandsfolge aus der Beobauchtungsfolge(1) Läuft analog wie bei einem HMM: t 1 s = max s S { t s P s s o t 1 } wobei t s : Wahrscheinlichste Zustandsfolge bis zum o t endet im s Maximum Entropy Markov Models for Information Extraction and Segmentation 18

20 Die Abschätzung der Zustandsfolge aus der Beobauchtungsfolge(2) t 1 s = max s S { t s P s s o t 1 } s s s o t o t 1 Viterbi Algorithmus für die Abschätzung der wahrscheinlichsten Zustandsfolge aus der Beobauchtungsfolge Maximum Entropy Markov Models for Information Extraction and Segmentation 19

21 Viterbi Algorithmus t 1 s = max s S { t s P s s o t 1 } s 3 s 2 s 1 Zeitachse Maximum Entropy Markov Models for Information Extraction and Segmentation 20

22 Viterbi Algorithmus t 1 s = max s S { t s P s s o t 1 } s 3 s 2 s 1 1 s 1 = max s S { 0 s P s s 1 o 1 } Zeitachse Maximum Entropy Markov Models for Information Extraction and Segmentation 22 21

23 Viterbi Algorithmus t 1 s = max s S { t s P s s o t 1 } s 3 s 2 s 1 1 s 2 = max s S { 0 s P s s 2 o 1 } Zeitachse Maximum Entropy Markov Models for Information Extraction and Segmentation 22

24 Viterbi Algorithmus t 1 s = max s S { t s P s s o t 1 } s 3 s 2 s 1 1 s 3 = max s S { 0 s P s s 3 o 1 } Zeitachse Maximum Entropy Markov Models for Information Extraction and Segmentation 22 23

25 Viterbi Algorithmus t 1 s = max s S { t s P s s o t 1 } s 3 s 2 s 1 3 s 2 = max s S { 2 s P s s 2 o 3 } Zeitachse Maximum Entropy Markov Models for Information Extraction and Segmentation 22 24

26 Viterbi Algorithmus t 1 s = max s S { t s P s s o t 1 } s 3 s 2 s 1 Zeitachse Maximum Entropy Markov Models for Information Extraction and Segmentation 22 25

27 Viterbi Algorithmus t 1 s = max s S { t s P s s o t 1 } s 3 s 2 s 1 Zeitachse Maximum Entropy Markov Models for Information Extraction and Segmentation 22 26

28 Wie gut ist MEMM? Ist schon viel besser als das HMM. Mögliche Verbesserung vom MEMM: - jedes Element in der Zustandsfolge sollte von der kompletten Beobachtungsfolge abhängen. Conditional Random Fields (nächster Vortrag) Maximum Entropy Markov Models for Information Extraction and Segmentation 27

Projektgruppe. Text Labeling mit Sequenzmodellen

Projektgruppe. Text Labeling mit Sequenzmodellen Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:

Mehr

HMMs und der Viterbi-Algorithmus

HMMs und der Viterbi-Algorithmus July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Strukturelle Modelle Conditional Random Fields Katharina Morik LS 8 Informatik Technische Universität Dortmund 17.12. 2013 1 von 27 Gliederung 1 Einführung 2 HMM 3 CRF Strukturen

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

für eine rote Kugel denn von auf den 100% (da rot, rot rot, blau blau, rot blau, blau

für eine rote Kugel denn von auf den 100% (da rot, rot rot, blau blau, rot blau, blau Berechnung von Wahrscheinlichkeiten beim Ziehen mit und ohne Zurücklegenn Ziehen mit Zurücklegenn Wir betrachten folgendes Beispiel: In einer Urne sind 2 rote und 3 blaue Kugeln.. Wenn man hier eine Kugel

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Diskrete Strukturen I

Diskrete Strukturen I Universität Kassel Fachbereich 10/1 PD Dr. Sebastian Petersen 14.09.2017 Klausur zur Vorlesung Diskrete Strukturen I Es können maximal 40 Punkte erreicht werden. Version mit Lösungsskizze Zur Notation:

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

15. September 2010 Prof. Dr. W. Bley. Universität Kassel Klausur SS 2010 Diskrete Strukturen I (Informatik) Name:... Matr.-Nr.:... Viel Erfolg!

15. September 2010 Prof. Dr. W. Bley. Universität Kassel Klausur SS 2010 Diskrete Strukturen I (Informatik) Name:... Matr.-Nr.:... Viel Erfolg! 15. September 010 Prof. Dr. W. Bley Universität Kassel Klausur SS 010 Diskrete Strukturen I (Informatik) 1 3 4 5 6 Name:................................................ Matr.-Nr.:............................................

Mehr

Klausur: Diskrete Strukturen I

Klausur: Diskrete Strukturen I Universität Kassel Fachbereich 0/ 5.03.0 Dr. Sebastian Petersen Klausur: Diskrete Strukturen I Aufgabe. (8 Punkte) a) Sei X = {0, }. Geben Sie die Potenzmenge P (X) (durch Auflisten ihrer Elemente) an.

Mehr

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen Ü b u n g 1 Aufgabe 1 Die Ereignisse A, B und C erfüllen die Bedingungen P(A) = 0. 7, P(B) = 0. 6, P(C) = 0. 5 P(A B) = 0. 4, P(A C) = 0. 3, P(B C) = 0. 2, P(A B C) = 0. 1 Bestimmen Sie P(A B), P(A C),

Mehr

Stochastische Lernalgorithmen

Stochastische Lernalgorithmen Stochastische Lernalgorithmen Gerhard Jäger 14. Mai 2003 Das Maximum-Entropy-Prinzip Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kommt ursprünglich aus der Physik:

Mehr

Klausur: Diskrete Strukturen I

Klausur: Diskrete Strukturen I Universität Kassel Fachbereich 10/1 13.03.2013 Klausur: Diskrete Strukturen I Name: Vorname: Matrikelnummer: Versuch: Unterschrift: Bitte fangen Sie für jede Aufgabe ein neues Blatt an. Beschreiben Sie

Mehr

Klausur: Diskrete Strukturen I

Klausur: Diskrete Strukturen I Universität Kassel Fachbereich 10/16 13.09.01 Klausur: Diskrete Strukturen I Name: Vorname: Matrikelnummer: Versuch: Unterschrift: Bitte fangen Sie für jede Aufgabe ein neues Blatt an. Beschreiben Sie

Mehr

UE Statistik 1, SS 2015, letztes Update am 5. März Übungsbeispiele

UE Statistik 1, SS 2015, letztes Update am 5. März Übungsbeispiele UE Statistik, SS 05, letztes Update am 5. März 05 Übungsbeispiele Beispiele mit Musterlösungen finden Sie auch in dem Buch Brannath, W., Futschik, A., Krall, C., (00) Statistik im Studium der Wirtschaftswissenschaften..

Mehr

Hidden Markov Modelle

Hidden Markov Modelle Hidden Markov Modelle (Vorabversion begleitend zur Vorlesung Spracherkennung und integrierte Dialogsysteme am Lehrstuhl Medieninformatik am Inst. f. Informatik der LMU München, Sommer 2005) Prof. Marcus

Mehr

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/

Mehr

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik

STATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik Kapitel 11 Diskrete Zufallsvariablen 11.1. Wahrscheinlichkeits- und diskret Wahrscheinlichkeitsverteilungen Wahrscheinlichkeitsfunktion von X Nimmt abzählbare Anzahl von Ausprägungen an (z.b. Zählvariablen)

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Elemente der Stochastik (SoSe 2016) 3. Übungsblatt

Elemente der Stochastik (SoSe 2016) 3. Übungsblatt Dr. M. Weimar 18.04.016 Elemente der Stochastik (SoSe 016) 3. Übungsblatt Aufgabe 1 (1++=5 Punkte) Das nachfolgende Glücksrad wird einmal gedreht. Ferner bezeichne P eine Abbildung mit den Eigenschaften

Mehr

zu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6

zu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6 zu ufgabe 6: a) 3 5 6 7 p( ) p( ) p( 3 ) p( ) p( 5 ) p( 6 ) p( 7 ) = p( 3 ) = p( 3 ) = p( 3 ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = 8 p( ) = p( ) = p( ) = p( ) Lösung: b) binär 8 p(

Mehr

Grundlegende Eigenschaften von Punktschätzern

Grundlegende Eigenschaften von Punktschätzern Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur

Mehr

Orientierungshilfe zum 7. Hausaufgabenblatt

Orientierungshilfe zum 7. Hausaufgabenblatt Orientierungshilfe zum 7. Hausaufgabenblatt 25. Januar 2013 Aufgabe 38 a Urnenmodell: Ziehen mit Zurücklegen. Man stelle sich eine Urne mit zwei Kugeln, die eine weiÿ, die andere schwarz, vor. Für jedes

Mehr

Maschinelle Sprachverarbeitung: N-Gramm-Modelle

Maschinelle Sprachverarbeitung: N-Gramm-Modelle HUMBOLD-UNIVERSIÄ ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: N-Gramm-Modelle obias Scheffer, Ulf Brefeld Statistische Sprachmodelle Welche Sätze sind

Mehr

Zusammenfassung Stochastik

Zusammenfassung Stochastik Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl

Mehr

How To Find Out If A Ball Is In An Urn

How To Find Out If A Ball Is In An Urn Prof. Dr. P. Embrechts ETH Zürich Sommer 2012 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Aufgabe

Mehr

DEMO für Wahrscheinlichkeitsrechnung Erwartungswert u.a. 1. Erwartungswert INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK

DEMO für  Wahrscheinlichkeitsrechnung Erwartungswert u.a. 1. Erwartungswert INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK Wahrscheinlichkeitsrechnung Erwartungswert u.a.. Erwartungswert. Varianz und Standardabweichung. Spiele bewerten Datei Nr. Stand. April 0 Friedrich W. Buckel DEMO für INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK

Mehr

Definition der Entropie unter Verwendung von supp(p XY )

Definition der Entropie unter Verwendung von supp(p XY ) Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion

Mehr

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre

Mehr

Diskrete Strukturen. Sebastian Thomas RWTH Aachen https://www2.math.rwth-aachen.de/ds16/ 1. Februar 2017 Vorlesung 21

Diskrete Strukturen. Sebastian Thomas RWTH Aachen https://www2.math.rwth-aachen.de/ds16/ 1. Februar 2017 Vorlesung 21 Diskrete Strukturen Sebastian Thomas RWTH Aachen https://www2.math.rwth-aachen.de/ds16/ 1. Februar 2017 Vorlesung 21 Quasiendliche Wahrscheinlichkeitsräume Definition quasiendlicher Wahrscheinlichkeitsraum

Mehr

Lösungen der Aufgaben zur Vorbereitung auf die Klausur Mathematik für Informatiker II

Lösungen der Aufgaben zur Vorbereitung auf die Klausur Mathematik für Informatiker II Universität des Saarlandes Fakultät für Mathematik und Informatik Sommersemester 2004 Prof. Dr. Joachim Weickert Dr. Bernhard Burgeth Lösungen der Aufgaben zur Vorbereitung auf die Klausur Mathematik für

Mehr

Splitting. Impurity. c 1. c 2. c 3. c 4

Splitting. Impurity. c 1. c 2. c 3. c 4 Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision

Mehr

Maximum Likelihood Modellierung von Zähldaten

Maximum Likelihood Modellierung von Zähldaten Student's Jour Fixe Lst. WI2, Uni Passau Student's Jour Fixe, 23. Juni 2008 Gliederung Maximum Likelihood Schätzung 1 Maximum Likelihood Schätzung Einfache diskrete Wahrscheinlichkeitsverteilung Herleitung

Mehr

Level 1 Grundlagen Blatt 1. Dokument mit 19 Aufgaben

Level 1 Grundlagen Blatt 1. Dokument mit 19 Aufgaben Level 1 Grundlagen Blatt 1 Dokument mit 19 Aufgaben Aufgabe A1 Ein Glücksrad hat drei Sektoren mit den Farben Rot, Gelb und Grün. Das Rad bleibt mit einer Wahrscheinlichkeit von 0,1 so stehen, dass der

Mehr

4. Schularbeit/7C/2-stündig Schularbeit. 7C am

4. Schularbeit/7C/2-stündig Schularbeit. 7C am 4. Schularbeit 7C am 24.5.2017 Name: Note: Beispiel-Nr. 1 2 3 4 5 6 7 8 9 10 11 12 AP Teil 1: Teil 2: Punkte Teil 1 (inkl. AP) Punkte Teil 2 Gesamtpunkte Notenschlüssel: 0 7 P von Teil 1 (inkl. Anrechnungspunkte

Mehr

Wie hoch ist das Risiko, dass ein System, das aus mehreren Komponenten besteht, ausfällt?

Wie hoch ist das Risiko, dass ein System, das aus mehreren Komponenten besteht, ausfällt? In diesem Kapitel werden wir den egriff Wahrscheinlichkeit und die Grundlagen der Wahrscheinlichkeitsrechnung kennenlernen, um z.. folgende Fragestellungen zu beantworten. Wie hoch ist das Risiko, dass

Mehr

Elemente der Stochastik (SoSe 2016) 6. Übungsblatt

Elemente der Stochastik (SoSe 2016) 6. Übungsblatt Dr. M. Weimar 19.05.2016 Elemente der Stochastik (SoSe 2016 6. Übungsblatt Aufgabe 1 ( Punkte Eine Klausur, die insgesamt von zwölf Kursteilnehmern geschrieben wurde, soll von drei Gutachtern bewertet

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 08.01.2009 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 32 Einführung Wahrscheinlichkeit Verteilungen

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

Hidden Markov Modelle

Hidden Markov Modelle Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten

Mehr

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der

Mehr

Multivariate Zufallsvariablen

Multivariate Zufallsvariablen Kapitel 7 Multivariate Zufallsvariablen 7.1 Diskrete Zufallsvariablen Bisher haben wir immer nur eine Zufallsvariable betrachtet. Bei vielen Anwendungen sind aber mehrere Zufallsvariablen von Interesse.

Mehr

Grundlagen zu neuronalen Netzen. Kristina Tesch

Grundlagen zu neuronalen Netzen. Kristina Tesch Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen

Mehr

1. Grundlagen der Wahrscheinlichkeitsrechnung

1. Grundlagen der Wahrscheinlichkeitsrechnung 1. Grundlagen der Wahrscheinlichkeitsrechnung Ereignisse und Wahrscheinlichkeiten Zufälliger Versuch: Vorgang, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang innerhalb einer

Mehr

Klausurvorbereitung für die Semesterferien - 20 Aufgaben -

Klausurvorbereitung für die Semesterferien - 20 Aufgaben - Klausurvorbereitung für die Semesterferien - 20 Aufgaben - Sebastian Heger B.Sc. - SoSe 2010 Mathematik für Informatiker II bei Prof. Dr. J. Baumeister Aufgabe 1. (Mengenbeweise) Seien ABC beliebige Mengen.

Mehr

Ein sortiertes Feld kann in O(log n) durchsucht werden, z.b. mit Binärsuche. Der Algorithmus 1 gibt den Pseudocode der binären Suche an.

Ein sortiertes Feld kann in O(log n) durchsucht werden, z.b. mit Binärsuche. Der Algorithmus 1 gibt den Pseudocode der binären Suche an. 2.5 Suchen Eine Menge S will nach einem Element durchsucht werden. Die Menge S ist statisch und S = n. S ist Teilmenge eines Universums auf dem eine lineare Ordnung definiert ist und soll so gespeichert

Mehr

Population und Stichprobe Wahrscheinlichkeitstheorie II

Population und Stichprobe Wahrscheinlichkeitstheorie II Population und Stichprobe Wahrscheinlichkeitstheorie II 5. Sitzung 1 S. Peter Schmidt 2003 1 Stichprobenziehung als Zufallsexperiment Definition Stichprobe: Teilmenge der Elemente der Grundgesamtheit bzw.

Mehr

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Spracherkennung und Hidden Markov Modelle Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Einführung in die Computerlinguistik WS 04/05 Spracherkennung Merkmalsextraktion

Mehr

Hypergeometrische Verteilung

Hypergeometrische Verteilung Hypergeometrische Verteilung Aufgaben Aufgabe 1 Eine Firma produziert insgesamt 30 elektronische Bauteile des gleichen Typs. Aus langjähriger Erfahrung weiß man das davon jedes 70te defekt ist. Um die

Mehr

Übungen Abgabetermin: Freitag, , 10 Uhr

Übungen Abgabetermin: Freitag, , 10 Uhr Universität Münster Institut für Mathematische Statistik Stochastik für Lehramtskandidaten SoSe 015, Blatt 1 Löwe/Heusel Übungen Abgabetermin: Freitag, 10.7.015, 10 Uhr Hinweis: Dies ist nur eine Beispiellösung.

Mehr

Lernalgorithmen SoSe 2010 in Trier. Henning Fernau Universität Trier

Lernalgorithmen SoSe 2010 in Trier. Henning Fernau Universität Trier Lernalgorithmen SoSe 2010 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Lernalgorithmen Gesamtübersicht 0. Einführung 1. Identifikation (aus positiven Beispielen) 2. Zur Identifikation

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen

Mehr

P A P( A B) Definition Wahrscheinlichkeit

P A P( A B) Definition Wahrscheinlichkeit Unabhaengige Ereignisse edingte Wahrscheinlichkeit Definition Wahrscheinlichkeit Die Wahrscheinlichkeit eines Ereignisses ist das Verhältnis der günstigen Ergebnisse zur Gesamtmenge der Ergebnisse nzahl

Mehr

Prüfung. Wahrscheinlichkeit und Statistik. ETH Zürich SS 2016 Prof. Dr. P. Embrechts August BSc INFK. Nachname. Vorname.

Prüfung. Wahrscheinlichkeit und Statistik. ETH Zürich SS 2016 Prof. Dr. P. Embrechts August BSc INFK. Nachname. Vorname. ETH Zürich SS 2016 Prof. Dr. P. Embrechts August 2016 Prüfung Wahrscheinlichkeit und Statistik BSc INFK Nachname Vorname Legi Nummer Das Folgende bitte nicht ausfüllen! Aufgabe Max. Punkte Summe Kontrolle

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 3. Vorlesung - 21.10.2016 Bedingte Wahrscheinlichkeit In einer Urne sind 2 grüne und 3 blaue Kugeln. 2 Kugeln werden ohne Zürücklegen gezogen. Welches ist die Wahrscheinlichkeit, dass : a) man eine grüne

Mehr

Strukturelle SVM zum Graph-labelling

Strukturelle SVM zum Graph-labelling 23. Juni 2009 1 Was wir gerne hätten...... und der Weg dorthin Erinnerung: strukturelle SVM 2 Junction Tree Algorithmus Loopy Belief Propagation Gibbs Sampling 3 Umfang Qualität der Algorithmen Schlussfolgerungen

Mehr

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1 Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:

Mehr

Level 1 Grundlagen Blatt 2

Level 1 Grundlagen Blatt 2 Level 1 Grundlagen Blatt 2 Dokument mit 1 Aufgaben Aufgabe A9 Ein Glücksrad besteht aus 3 Feldern, die folgendermaßen beschriftet sind: 1.Feld: 2,00 2. Feld: 5,00 3. Feld: 0,00 Das 1. Feld hat einen Mittelpunktswinkel

Mehr

Active Hidden Markov Models for Information Extraction

Active Hidden Markov Models for Information Extraction HMMs in der IE p.1/28 Active Hidden Markov Models for Information Extraction Seminar Informationsextraktion im WiSe 2002/2003 Madeleine Theile HMMs in der IE p.2/28 Inhaltsübersicht Ziel formalere Aufgabenbeschreibung

Mehr

Einführung in die medizinische Bildverarbeitung WS 12/13

Einführung in die medizinische Bildverarbeitung WS 12/13 Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Haug verwendet man die Denition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A \ B] = Pr[BjA] Pr[A] = Pr[AjB] Pr[B] : (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1 ; : : : ; A n

Mehr

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis Stochastische Prozesse: Grundlegende Begriffe bei zufälligen Prozessen In diesem Abschnitt beschäftigen wir uns mit den grundlegenden Begriffen und Definitionen von Zufallsexperimenten, also Prozessen,

Mehr

Definition Information I(p)

Definition Information I(p) Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung

Mehr

Kombinatorik & Stochastik Übung im Sommersemester 2018

Kombinatorik & Stochastik Übung im Sommersemester 2018 Kombinatorik & Stochastik Übung im Sommersemester 2018 Kombinatorik Formeln & Begriffe Begrifflichkeiten Permutation = Anordnung in einer bestimmten Reihenfolge Kombination = Anordnung ohne bestimmte Reihenfolge

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung

Mehr

2.2 Ereignisse und deren Wahrscheinlichkeit

2.2 Ereignisse und deren Wahrscheinlichkeit 2.2 Ereignisse und deren Wahrscheinlichkeit Literatur: [Papula Bd., Kap. II.2 und II.], [Benning, Kap. ], [Bronstein et al., Kap. 1.2.1] Def 1 [Benning] Ein Zufallsexperiment ist ein beliebig oft wiederholbarer,

Mehr

Sammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien

Sammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien Sammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien Prof. F. Merkl 23. Mai 2016 Zu Ihrer Information und als zusätzliches Übungsmaterial sind hier die Aufgaben

Mehr

Vorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie

Vorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie Kapitel 4 Christoph Hindermann Vorkurs Mathematik 1 4.0 Motivation Wenn 100 Münzen geworfen werden, wie ist dann die Wahrscheinlichkeit, dass genau 50 davon Kopf zeigen? Angenommen, es befinden sich 300

Mehr

Segmentierung. Vorlesung FH-Hagenberg SEM

Segmentierung. Vorlesung FH-Hagenberg SEM Segmentierung Vorlesung FH-Hagenberg SEM Segmentierung: Definition Die Pixel eines Bildes A={a i }, i=1:n, mit N der Anzahl der Pixel, werden in Teilmengen S i unterteilt. Die Teilmengen sind disjunkt

Mehr

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen 0. Diskrete reellwertige Zufallsvariable X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) oder

Mehr

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem

Mehr

,,Schäferhunde sind gefährlich! Denn,,Jeder dritte Biss geht auf das Konto dieser Rasse.

,,Schäferhunde sind gefährlich! Denn,,Jeder dritte Biss geht auf das Konto dieser Rasse. Wirtschaftswissenschaftliches Zentrum 7 Universität Basel Statistik Dr. Thomas Zehrt Bedingte Wahrscheinlichkeit Motivation Die bedingte Wahrscheinlichkeit eines Ereignisses A bei einem gegebenen Ereignis

Mehr

Kombinatorik kompakt. Stochastik WS 2016/17 1

Kombinatorik kompakt. Stochastik WS 2016/17 1 Kombinatorik kompakt Stochastik WS 2016/17 1 Übersicht Auswahl/Kombinationen von N aus m Elementen Statistische unterscheidbare ununterscheidbare Physik Objekte (gleiche) Objekte ( ohne m N m+n 1 ) N mit

Mehr

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine diskrete reellwertige Zufallsvariable, d.h. eine ZV e mit Wertebereich R (oder einer Teilmenge davon), sodass eine

Mehr

1 Wahrscheinlichkeitsrechnung und Zufallsvariablen

1 Wahrscheinlichkeitsrechnung und Zufallsvariablen 1 Wahrscheinlichkeitsrechnung und Zufallsvariablen Zoltán Zomotor Versionsstand: 18. Mai 2015, 09:29 Die nummerierten Felder bitte während der Vorlesung ausfüllen. This work is licensed under the Creative

Mehr

Partitionen natürlicher Zahlen

Partitionen natürlicher Zahlen Partitionen natürlicher Zahlen wgnedin@math.uni-koeln.de 9. Oktober 03 In dieser Notiz wird der Beweis des Satzes über die Anzahl der Partitionen einer natürlichen Zahl vorgestellt. Die Darstellung folgt

Mehr

Gemeinsame Wahrscheinlichkeitsverteilungen

Gemeinsame Wahrscheinlichkeitsverteilungen Gemeinsame Wahrscheinlichkeitsverteilungen Worum geht es in diesem Modul? Gemeinsame Wahrscheinlichkeits-Funktion zweier Zufallsvariablen Randverteilungen Bedingte Verteilungen Unabhängigkeit von Zufallsvariablen

Mehr

Prof. Dr. Christoph Karg Hochschule Aalen. Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik. Wintersemester 2017/2018

Prof. Dr. Christoph Karg Hochschule Aalen. Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik. Wintersemester 2017/2018 Prof. Dr. Christoph Karg 31.1.2018 Hochschule Aalen Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik Wintersemester 2017/2018 Unterschrift: Klausurergebnis Aufgabe 1 (10 Punkte) Aufgabe 3

Mehr

Vorlesung 3. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Vorlesung 3. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen Vorlesung 3 Der Erwartungswert von diskreten reellwertigen Zufallsvariablen 0. Diskrete reellwertige Zufallsvariable X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) oder

Mehr

Übungen zur Wahrscheinlichkeitstheorie und Statistik

Übungen zur Wahrscheinlichkeitstheorie und Statistik Übungen zur Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank Blatt 0 vom 16. April 2012 Aufgabe 1 (Wahrscheinlichkeitsräume). Welche der folgenden Aussagen sind wahr? Begründen Sie jeweils

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Mathematik I für Studierende der Informatik und Wirtschaftsinformatik (Diskrete Mathematik) im Wintersemester 2015/16

Mathematik I für Studierende der Informatik und Wirtschaftsinformatik (Diskrete Mathematik) im Wintersemester 2015/16 Mathematik I für Studierende der Informatik und Wirtschaftsinformatik (Diskrete Mathematik) im Wintersemester 2015/16 12. November 2015 Satz 3.16 (Binomischer Lehrsatz) Seien a, b R. Dann gilt für alle

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Diskrete Strukturen. Sebastian Thomas RWTH Aachen https://www2.math.rwth-aachen.de/ds17/ Wahrscheinlichkeitstheorie

Diskrete Strukturen. Sebastian Thomas RWTH Aachen https://www2.math.rwth-aachen.de/ds17/ Wahrscheinlichkeitstheorie Diskrete Strukturen Sebastian Thomas RWTH Aachen https://www2.math.rwth-aachen.de/ds17/ Wahrscheinlichkeitstheorie Quasiendliche Wahrscheinlichkeitsräume Definition quasiendlicher Wahrscheinlichkeitsraum

Mehr

M13 Übungsaufgaben / pl

M13 Übungsaufgaben / pl Die Histogramme von Binomialverteilungen werden bei wachsendem Stichprobenumfang n immer flacher und breiter. Dem Maximum einer solchen Verteilung kommt daher keine allzu große Wahrscheinlichkeit zu. Vielmehr

Mehr

STATISTISCHE METHODEN UND IHRE ANWENDUNGEN

STATISTISCHE METHODEN UND IHRE ANWENDUNGEN STATISTISCHE METHODEN UND IHRE ANWENDUNGEN Von Dr. rer. nat. Erwin Kreyszig o. Professor für Statistik an der Universität Karlsruhe mit 82 Abbildungen und zahlreichen Tabellen Vierter, unveränderter Nachdruck

Mehr

) (1 BE) 1 2 ln 2. und somit

) (1 BE) 1 2 ln 2. und somit 1 Aufgaben aus dem Aufgabenpool 1 1.1 Analysis A1_1 Eine Funktion f ist durch 1 x f(x) e 1, x IR, gegeben. Ermitteln Sie die Nullstelle der Funktion f. ( ) b) Die Tangente an den Graphen von f im Punkt

Mehr

Vorlesung 2a. Diskret uniform verteilte Zufallsvariable

Vorlesung 2a. Diskret uniform verteilte Zufallsvariable Vorlesung 2a Diskret uniform verteilte Zufallsvariable 1 Eine Zufallsvariable X heißt diskret uniform verteilt, wenn ihr Zielbereich S endlich ist und P(X = a) = 1 #S für alle a S. Damit beschreibt X eine

Mehr

Mathematik I für Studierende der Informatik und Wirtschaftsinformatik (Diskrete Mathematik) im Wintersemester 2017/18

Mathematik I für Studierende der Informatik und Wirtschaftsinformatik (Diskrete Mathematik) im Wintersemester 2017/18 Mathematik I für Studierende der Informatik und Wirtschaftsinformatik (Diskrete Mathematik) im Wintersemester 2017/18 16. November 2017 1/35 Modulare Arithmetik Modulare Arithmetik Definition 3.33 Es sei

Mehr

( ) ( ) ( ) Mehrstufige Zufallsversuche

( ) ( ) ( ) Mehrstufige Zufallsversuche R. Brinkmann http://brinkmann-du.de Seite 1 19.11.2009 Mehrstufige Zufallsversuche Häufig müssen Zufallsversuche untersucht werden, die aus mehr als einem einzigen Experiment bestehen. Diese Versuche setzen

Mehr

80 7 MARKOV-KETTEN. 7.1 Definition und Eigenschaften von Markov-Ketten

80 7 MARKOV-KETTEN. 7.1 Definition und Eigenschaften von Markov-Ketten 80 7 MARKOV-KETTEN 7 Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Sei X = (X 0, X, X 2,...) eine Folge von diskreten Zufallsvariablen, die alle Ausprägungen in einer endlichen bzw. abzählbaren

Mehr

Dr. Jürgen Senger INDUKTIVE STATISTIK. Wahrscheinlichkeitstheorie, Schätz- und Testverfahren

Dr. Jürgen Senger INDUKTIVE STATISTIK. Wahrscheinlichkeitstheorie, Schätz- und Testverfahren Dr. Jürgen Senger INDUKTIVE STATISTIK Wahrscheinlichkeitstheorie, Schätz- und Testverfahren ÜBUNG 7.2 - LÖSUNGEN POISSONVERTEILUNG. Fahrzeuge, die eine Brücke passieren Zufallsexperiment: Zeitpunkt des

Mehr

3.2 Maximum-Likelihood-Schätzung

3.2 Maximum-Likelihood-Schätzung 291 Die Maximum-Likelihood-Schätzung ist die populärste Methode zur Konstruktion von Punktschätzern bei rein parametrischen Problemstellungen. 292 3.2.1 Schätzkonzept Maximum-Likelihood-Prinzip: Finde

Mehr

Einführung in die medizinische Bildverarbeitung WS 12/13

Einführung in die medizinische Bildverarbeitung WS 12/13 Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von

Mehr

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus

Mehr

Ergebnis Ergebnisraum Ω. Ereignis. Elementarereignis

Ergebnis Ergebnisraum Ω. Ereignis. Elementarereignis Stochastik Die Stochastik besteht aus zwei Teilgebieten, der Statistik und der Wahrscheinlichkeitsrechnung. Die Statistik beschreibt die Vergangenheit und verwendet Informationen, die (in realen Versuchen)

Mehr