Roman Firstein. Maximum Entropy Markov Models for Information Extraction and Segmentation
|
|
- Edith Schulz
- vor 5 Jahren
- Abrufe
Transkript
1 Maximum Entropy Markov Models (MEMM) for Information Extraction and Segmentation Roman Firstein Maximum Entropy Markov Models for Information Extraction and Segmentation
2 Vortrag - Vorwort - Modell - (Maximale) Entropie am Beispiel der Urne - Binäres Feature - Bedingte Entropie - Maximale Entropie für unseres Modell Maximum Entropy Markov Models for Information Extraction and Segmentation 1
3 Vorwort (1) Worum geht es überhaupt?! Gegeben: - Menge O und S von Objekten (disjunkt) - W keitsraum als Teilmenge der Relationen s 1,...,s j,o 1,...,o j j - Stichprobe O S o 1,...,o n s 1,...,s n Gesucht: - Wahrscheinlichkeitsfunktion P s i,o i, 1 i j, so dass s 1,...,s j,o 1,...,o j maximal ist Maximum Entropy Markov Models for Information Extraction and Segmentation 2
4 Vorwort (2) Beispiele S 1. Rolle Erkennung: Person Organisation 0,9 0,1 Roman O 2. Übersetzung aus dem englischen: an bis mit S Zahlen sind die Wahscheinlickeiten P s,o 0,3 0,2 0,5 by O Maximum Entropy Markov Models for Information Extraction and Segmentation 3
5 Das NEUE Modell (MEMM) Zustand hängt jetzt von der Beobachtung und von dem vorherigen Zustand ab Vorteil: bei der Übersetzung kann man auch gucken wie das vorherige Wort übersetzt wurde Maximum Entropy Markov Models for Information Extraction and Segmentation 22 4
6 Das NEUE Modell (MEMM) Zustand- Beobachtung Übergangsfunktion s s o P s s,o P s s,o unterteilen wir in S Funktionen P s s o Maximum Entropy Markov Models for Information Extraction and Segmentation 22 5
7 Entropie Frage: Wenn man die Verteilungen in der Urne nicht kennt, bei welcher der beiden Urnen wird die Überraschung größer? Entropie H einer Wahrscheinlichkeitsverteilung X: Maß für die Unvorhersagbarkeit eines Ereignisses. H X = {rot,blau} i=1 p i log 2 p i H X = 0,6log 2 0,6 0,4log 2 0,4 0,97 H X = log 2 1 =0 Bei der (möglichst) Gleichverteilung wird die maximale Entropie erreicht!!! Maximum Entropy Markov Models for Information Extraction and Segmentation 22 6
8 Maximale Entropie Gegeben: Die Urne enthält 5 Kugeln (rote und blaue). Die Anzahl der Kugeln sei bekannt, aber der jeweiligen Farben nicht. Ziel: nach 2 Ziehungen die Verteilung der Kugeln abzuschätzen. Stichprobe Beobachtung: die Urne enthält mindestens eine rote und eine blaue Kugel Maximum Entropy Markov Models for Information Extraction and Segmentation 22 7
9 Maximale Entropie Über diese drei Kandidaten keine Information H X 0,72 Verteilungen, die mit der Stichprobe vereinbart sind H X 0,72 H X 0,97 H X 0,97 H X = {rot,blau} i =1 p i log 2 p i Maximum Entropy Markov Models for Information Extraction and Segmentation 22 8
10 Maximale Entropie Über diese drei Kandidaten keine Information Schätzen wir die Verteilung in der Urne so ab, dass die Entropie H maximal wird. (möglichst) Gleichverteilung oder Verteilungen mit der maximalen Entropie Maximum Entropy Markov Models for Information Extraction and Segmentation 22 9
11 Maximale Entropie Wie sieht die Verteilung aus, wenn 2 roten Kugeln gezogen wurden Wieder (möglichst) Gleichverteilung oder Verteilungen mit der maximalen Entropie Maximum Entropy Markov Models for Information Extraction and Segmentation 22 10
12 Maximale Entropie Wie sieht die Verteilung aus, wenn 4 roten Kugeln gezogen wurden Wieder (möglichst) Gleichverteilung H X 0,72 H X =0 maximale Entropie keine maximale Entropie Maximum Entropy Markov Models for Information Extraction and Segmentation 22 11
13 Analogie mit der Urne und zurück zum MEMM Die Urne enthält Relationen der Form s j, o j j STICHPROBE Zuordnung per Hand ausgeführt s 1,...,s n s 1,...,s m s 1,...,s k, o 1,...,o n, o 1,...,o m, o 1,...,o k da man hier eine s -Folge und eine o -Folge hat, geht es hier um eine bedingte Entropie Maximum Entropy Markov Models for Information Extraction and Segmentation 12
14 Das binäre Feature Stichprobe durch Charakteristische Funktion f kodieren, die einer Beobachtung 1 oder 0 zuordnet: b,s =a f b, s o t,s t = { 1, falls b o t ist true und s=s t 0, sonst } Binäres Features b Gewollter Zustand s Aktuelle Beobachtung o t Möglicher aktueller Zustand s t Maximum Entropy Markov Models for Information Extraction and Segmentation 13
15 Beispiel O={she,is,by,me}und S={sie,ist,bei,mit,mir } Stichprobe:...she is by me......sie ist mit mir......she is by me......sie ist bei mir......she is by me......sie ist bei mir......she is by me......sie ist mit mir......she is by me......sie ist bei mir... f b=das Wort ist by, s=mit o t,s t = { 1, falls o t =by und die Übersetzung von s t ist mit 0, sonst } f b=das Wort ist by, s=bei o t,s t = { 1, falls o t =by und die Übersetzung von s t ist bei 0, sonst } f b=das Wort ist she, s=sie o t,s t = { 1, falls o t =she und die Übersetzung von s t ist sie 0, sonst } Maximum Entropy Markov Models for Information Extraction and Segmentation 14
16 Bedingte Entropie H s X = S P s s o log 2 P s s o bei gegebenem o Ziel: Maximierung dieser Funktion unter den Nebenbedienungen: 1= S P s s o s, bei gegebenem o f a o,s k = S f a o, s P s s o s,s k,a bei gegebenem o Vollständig bzgl. P Vollständig bzgl. f a LAGRANGE Maximum Entropy Markov Models for Information Extraction and Segmentation 15
17 Lagrangesche Multiplikatorenmethode zur Maximierung einer Funktion unter Nebenbedingungen L s,p s = S P s s o log 2 P s s o a a S f a o,s P s s o f a o,s k H s 0 Erste Ableitung nach P bilden und gleich Null setzen: L s,p s = P s s o 1 log 2P s s o a f a o, s P s s o =0 S Ohne Zwischenschritte P s s o = s exp a 1 a f a o,s exp a a f a o,s Maximum Entropy Markov Models for Information Extraction and Segmentation 16
18 Verteilung mit der maximalen Entropie (Ohne Beweis): P s s o = 1 Z o,s exp a a f a o,s Exponentielle Darstellung der W keit Normalisierung, damit die Summe gleich 1 wird Lagrange - Multiplikator, der mit dem GIS Verfahren berechnet wird Z o, s = s exp a a f a o, s Maximum Entropy Markov Models for Information Extraction and Segmentation 17
19 Die Abschätzung der Zustandsfolge aus der Beobauchtungsfolge(1) Läuft analog wie bei einem HMM: t 1 s = max s S { t s P s s o t 1 } wobei t s : Wahrscheinlichste Zustandsfolge bis zum o t endet im s Maximum Entropy Markov Models for Information Extraction and Segmentation 18
20 Die Abschätzung der Zustandsfolge aus der Beobauchtungsfolge(2) t 1 s = max s S { t s P s s o t 1 } s s s o t o t 1 Viterbi Algorithmus für die Abschätzung der wahrscheinlichsten Zustandsfolge aus der Beobauchtungsfolge Maximum Entropy Markov Models for Information Extraction and Segmentation 19
21 Viterbi Algorithmus t 1 s = max s S { t s P s s o t 1 } s 3 s 2 s 1 Zeitachse Maximum Entropy Markov Models for Information Extraction and Segmentation 20
22 Viterbi Algorithmus t 1 s = max s S { t s P s s o t 1 } s 3 s 2 s 1 1 s 1 = max s S { 0 s P s s 1 o 1 } Zeitachse Maximum Entropy Markov Models for Information Extraction and Segmentation 22 21
23 Viterbi Algorithmus t 1 s = max s S { t s P s s o t 1 } s 3 s 2 s 1 1 s 2 = max s S { 0 s P s s 2 o 1 } Zeitachse Maximum Entropy Markov Models for Information Extraction and Segmentation 22
24 Viterbi Algorithmus t 1 s = max s S { t s P s s o t 1 } s 3 s 2 s 1 1 s 3 = max s S { 0 s P s s 3 o 1 } Zeitachse Maximum Entropy Markov Models for Information Extraction and Segmentation 22 23
25 Viterbi Algorithmus t 1 s = max s S { t s P s s o t 1 } s 3 s 2 s 1 3 s 2 = max s S { 2 s P s s 2 o 3 } Zeitachse Maximum Entropy Markov Models for Information Extraction and Segmentation 22 24
26 Viterbi Algorithmus t 1 s = max s S { t s P s s o t 1 } s 3 s 2 s 1 Zeitachse Maximum Entropy Markov Models for Information Extraction and Segmentation 22 25
27 Viterbi Algorithmus t 1 s = max s S { t s P s s o t 1 } s 3 s 2 s 1 Zeitachse Maximum Entropy Markov Models for Information Extraction and Segmentation 22 26
28 Wie gut ist MEMM? Ist schon viel besser als das HMM. Mögliche Verbesserung vom MEMM: - jedes Element in der Zustandsfolge sollte von der kompletten Beobachtungsfolge abhängen. Conditional Random Fields (nächster Vortrag) Maximum Entropy Markov Models for Information Extraction and Segmentation 27
Projektgruppe. Text Labeling mit Sequenzmodellen
Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:
MehrHMMs und der Viterbi-Algorithmus
July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,
MehrHidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Strukturelle Modelle Conditional Random Fields Katharina Morik LS 8 Informatik Technische Universität Dortmund 17.12. 2013 1 von 27 Gliederung 1 Einführung 2 HMM 3 CRF Strukturen
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
Mehrfür eine rote Kugel denn von auf den 100% (da rot, rot rot, blau blau, rot blau, blau
Berechnung von Wahrscheinlichkeiten beim Ziehen mit und ohne Zurücklegenn Ziehen mit Zurücklegenn Wir betrachten folgendes Beispiel: In einer Urne sind 2 rote und 3 blaue Kugeln.. Wenn man hier eine Kugel
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
MehrDiskrete Strukturen I
Universität Kassel Fachbereich 10/1 PD Dr. Sebastian Petersen 14.09.2017 Klausur zur Vorlesung Diskrete Strukturen I Es können maximal 40 Punkte erreicht werden. Version mit Lösungsskizze Zur Notation:
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge
Mehr15. September 2010 Prof. Dr. W. Bley. Universität Kassel Klausur SS 2010 Diskrete Strukturen I (Informatik) Name:... Matr.-Nr.:... Viel Erfolg!
15. September 010 Prof. Dr. W. Bley Universität Kassel Klausur SS 010 Diskrete Strukturen I (Informatik) 1 3 4 5 6 Name:................................................ Matr.-Nr.:............................................
MehrKlausur: Diskrete Strukturen I
Universität Kassel Fachbereich 0/ 5.03.0 Dr. Sebastian Petersen Klausur: Diskrete Strukturen I Aufgabe. (8 Punkte) a) Sei X = {0, }. Geben Sie die Potenzmenge P (X) (durch Auflisten ihrer Elemente) an.
MehrAufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen
Ü b u n g 1 Aufgabe 1 Die Ereignisse A, B und C erfüllen die Bedingungen P(A) = 0. 7, P(B) = 0. 6, P(C) = 0. 5 P(A B) = 0. 4, P(A C) = 0. 3, P(B C) = 0. 2, P(A B C) = 0. 1 Bestimmen Sie P(A B), P(A C),
MehrStochastische Lernalgorithmen
Stochastische Lernalgorithmen Gerhard Jäger 14. Mai 2003 Das Maximum-Entropy-Prinzip Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kommt ursprünglich aus der Physik:
MehrKlausur: Diskrete Strukturen I
Universität Kassel Fachbereich 10/1 13.03.2013 Klausur: Diskrete Strukturen I Name: Vorname: Matrikelnummer: Versuch: Unterschrift: Bitte fangen Sie für jede Aufgabe ein neues Blatt an. Beschreiben Sie
MehrKlausur: Diskrete Strukturen I
Universität Kassel Fachbereich 10/16 13.09.01 Klausur: Diskrete Strukturen I Name: Vorname: Matrikelnummer: Versuch: Unterschrift: Bitte fangen Sie für jede Aufgabe ein neues Blatt an. Beschreiben Sie
MehrUE Statistik 1, SS 2015, letztes Update am 5. März Übungsbeispiele
UE Statistik, SS 05, letztes Update am 5. März 05 Übungsbeispiele Beispiele mit Musterlösungen finden Sie auch in dem Buch Brannath, W., Futschik, A., Krall, C., (00) Statistik im Studium der Wirtschaftswissenschaften..
MehrHidden Markov Modelle
Hidden Markov Modelle (Vorabversion begleitend zur Vorlesung Spracherkennung und integrierte Dialogsysteme am Lehrstuhl Medieninformatik am Inst. f. Informatik der LMU München, Sommer 2005) Prof. Marcus
MehrZufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen
Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/
MehrSTATISTIK Teil 2 Wahrscheinlichkeitsrechnung und schließende Statistik
Kapitel 11 Diskrete Zufallsvariablen 11.1. Wahrscheinlichkeits- und diskret Wahrscheinlichkeitsverteilungen Wahrscheinlichkeitsfunktion von X Nimmt abzählbare Anzahl von Ausprägungen an (z.b. Zählvariablen)
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
MehrElemente der Stochastik (SoSe 2016) 3. Übungsblatt
Dr. M. Weimar 18.04.016 Elemente der Stochastik (SoSe 016) 3. Übungsblatt Aufgabe 1 (1++=5 Punkte) Das nachfolgende Glücksrad wird einmal gedreht. Ferner bezeichne P eine Abbildung mit den Eigenschaften
Mehrzu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6
zu ufgabe 6: a) 3 5 6 7 p( ) p( ) p( 3 ) p( ) p( 5 ) p( 6 ) p( 7 ) = p( 3 ) = p( 3 ) = p( 3 ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = 8 p( ) = p( ) = p( ) = p( ) Lösung: b) binär 8 p(
MehrGrundlegende Eigenschaften von Punktschätzern
Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur
MehrOrientierungshilfe zum 7. Hausaufgabenblatt
Orientierungshilfe zum 7. Hausaufgabenblatt 25. Januar 2013 Aufgabe 38 a Urnenmodell: Ziehen mit Zurücklegen. Man stelle sich eine Urne mit zwei Kugeln, die eine weiÿ, die andere schwarz, vor. Für jedes
MehrMaschinelle Sprachverarbeitung: N-Gramm-Modelle
HUMBOLD-UNIVERSIÄ ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: N-Gramm-Modelle obias Scheffer, Ulf Brefeld Statistische Sprachmodelle Welche Sätze sind
MehrZusammenfassung Stochastik
Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl
MehrHow To Find Out If A Ball Is In An Urn
Prof. Dr. P. Embrechts ETH Zürich Sommer 2012 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Aufgabe
MehrDEMO für Wahrscheinlichkeitsrechnung Erwartungswert u.a. 1. Erwartungswert INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK
Wahrscheinlichkeitsrechnung Erwartungswert u.a.. Erwartungswert. Varianz und Standardabweichung. Spiele bewerten Datei Nr. Stand. April 0 Friedrich W. Buckel DEMO für INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK
MehrDefinition der Entropie unter Verwendung von supp(p XY )
Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion
MehrDiskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier
Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre
MehrDiskrete Strukturen. Sebastian Thomas RWTH Aachen https://www2.math.rwth-aachen.de/ds16/ 1. Februar 2017 Vorlesung 21
Diskrete Strukturen Sebastian Thomas RWTH Aachen https://www2.math.rwth-aachen.de/ds16/ 1. Februar 2017 Vorlesung 21 Quasiendliche Wahrscheinlichkeitsräume Definition quasiendlicher Wahrscheinlichkeitsraum
MehrLösungen der Aufgaben zur Vorbereitung auf die Klausur Mathematik für Informatiker II
Universität des Saarlandes Fakultät für Mathematik und Informatik Sommersemester 2004 Prof. Dr. Joachim Weickert Dr. Bernhard Burgeth Lösungen der Aufgaben zur Vorbereitung auf die Klausur Mathematik für
MehrSplitting. Impurity. c 1. c 2. c 3. c 4
Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision
MehrMaximum Likelihood Modellierung von Zähldaten
Student's Jour Fixe Lst. WI2, Uni Passau Student's Jour Fixe, 23. Juni 2008 Gliederung Maximum Likelihood Schätzung 1 Maximum Likelihood Schätzung Einfache diskrete Wahrscheinlichkeitsverteilung Herleitung
MehrLevel 1 Grundlagen Blatt 1. Dokument mit 19 Aufgaben
Level 1 Grundlagen Blatt 1 Dokument mit 19 Aufgaben Aufgabe A1 Ein Glücksrad hat drei Sektoren mit den Farben Rot, Gelb und Grün. Das Rad bleibt mit einer Wahrscheinlichkeit von 0,1 so stehen, dass der
Mehr4. Schularbeit/7C/2-stündig Schularbeit. 7C am
4. Schularbeit 7C am 24.5.2017 Name: Note: Beispiel-Nr. 1 2 3 4 5 6 7 8 9 10 11 12 AP Teil 1: Teil 2: Punkte Teil 1 (inkl. AP) Punkte Teil 2 Gesamtpunkte Notenschlüssel: 0 7 P von Teil 1 (inkl. Anrechnungspunkte
MehrWie hoch ist das Risiko, dass ein System, das aus mehreren Komponenten besteht, ausfällt?
In diesem Kapitel werden wir den egriff Wahrscheinlichkeit und die Grundlagen der Wahrscheinlichkeitsrechnung kennenlernen, um z.. folgende Fragestellungen zu beantworten. Wie hoch ist das Risiko, dass
MehrElemente der Stochastik (SoSe 2016) 6. Übungsblatt
Dr. M. Weimar 19.05.2016 Elemente der Stochastik (SoSe 2016 6. Übungsblatt Aufgabe 1 ( Punkte Eine Klausur, die insgesamt von zwölf Kursteilnehmern geschrieben wurde, soll von drei Gutachtern bewertet
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 08.01.2009 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 32 Einführung Wahrscheinlichkeit Verteilungen
MehrSatz 16 (Multiplikationssatz)
Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.
MehrHidden Markov Modelle
Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten
MehrKapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente
Mehrstufige Zufallsexperimente Inhalt 6.1 6.1 Mehrstufige Experimente 6.2 6.2 Bedingte Wahrscheinlichkeiten Seite 2 6.1 Mehrstufige Experimente Grundvorstellung: Viele Viele Experimente werden der der
MehrMultivariate Zufallsvariablen
Kapitel 7 Multivariate Zufallsvariablen 7.1 Diskrete Zufallsvariablen Bisher haben wir immer nur eine Zufallsvariable betrachtet. Bei vielen Anwendungen sind aber mehrere Zufallsvariablen von Interesse.
MehrGrundlagen zu neuronalen Netzen. Kristina Tesch
Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen
Mehr1. Grundlagen der Wahrscheinlichkeitsrechnung
1. Grundlagen der Wahrscheinlichkeitsrechnung Ereignisse und Wahrscheinlichkeiten Zufälliger Versuch: Vorgang, der (zumindest gedanklich) beliebig oft wiederholbar ist und dessen Ausgang innerhalb einer
MehrKlausurvorbereitung für die Semesterferien - 20 Aufgaben -
Klausurvorbereitung für die Semesterferien - 20 Aufgaben - Sebastian Heger B.Sc. - SoSe 2010 Mathematik für Informatiker II bei Prof. Dr. J. Baumeister Aufgabe 1. (Mengenbeweise) Seien ABC beliebige Mengen.
MehrEin sortiertes Feld kann in O(log n) durchsucht werden, z.b. mit Binärsuche. Der Algorithmus 1 gibt den Pseudocode der binären Suche an.
2.5 Suchen Eine Menge S will nach einem Element durchsucht werden. Die Menge S ist statisch und S = n. S ist Teilmenge eines Universums auf dem eine lineare Ordnung definiert ist und soll so gespeichert
MehrPopulation und Stichprobe Wahrscheinlichkeitstheorie II
Population und Stichprobe Wahrscheinlichkeitstheorie II 5. Sitzung 1 S. Peter Schmidt 2003 1 Stichprobenziehung als Zufallsexperiment Definition Stichprobe: Teilmenge der Elemente der Grundgesamtheit bzw.
MehrVertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Spracherkennung und Hidden Markov Modelle Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Einführung in die Computerlinguistik WS 04/05 Spracherkennung Merkmalsextraktion
MehrHypergeometrische Verteilung
Hypergeometrische Verteilung Aufgaben Aufgabe 1 Eine Firma produziert insgesamt 30 elektronische Bauteile des gleichen Typs. Aus langjähriger Erfahrung weiß man das davon jedes 70te defekt ist. Um die
MehrÜbungen Abgabetermin: Freitag, , 10 Uhr
Universität Münster Institut für Mathematische Statistik Stochastik für Lehramtskandidaten SoSe 015, Blatt 1 Löwe/Heusel Übungen Abgabetermin: Freitag, 10.7.015, 10 Uhr Hinweis: Dies ist nur eine Beispiellösung.
MehrLernalgorithmen SoSe 2010 in Trier. Henning Fernau Universität Trier
Lernalgorithmen SoSe 2010 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Lernalgorithmen Gesamtübersicht 0. Einführung 1. Identifikation (aus positiven Beispielen) 2. Zur Identifikation
Mehr2 Extrema unter Nebenbedingungen
$Id: lagrange.tex,v 1.6 2012/11/06 14:26:21 hk Exp hk $ 2 Extrema unter Nebenbedingungen 2.1 Restringierte Optimierungsaufgaben Nachdem wir jetzt die bereits bekannten Techniken zur Bestimmung der lokalen
MehrP A P( A B) Definition Wahrscheinlichkeit
Unabhaengige Ereignisse edingte Wahrscheinlichkeit Definition Wahrscheinlichkeit Die Wahrscheinlichkeit eines Ereignisses ist das Verhältnis der günstigen Ergebnisse zur Gesamtmenge der Ergebnisse nzahl
MehrPrüfung. Wahrscheinlichkeit und Statistik. ETH Zürich SS 2016 Prof. Dr. P. Embrechts August BSc INFK. Nachname. Vorname.
ETH Zürich SS 2016 Prof. Dr. P. Embrechts August 2016 Prüfung Wahrscheinlichkeit und Statistik BSc INFK Nachname Vorname Legi Nummer Das Folgende bitte nicht ausfüllen! Aufgabe Max. Punkte Summe Kontrolle
MehrWahrscheinlichkeitsrechnung und Statistik
3. Vorlesung - 21.10.2016 Bedingte Wahrscheinlichkeit In einer Urne sind 2 grüne und 3 blaue Kugeln. 2 Kugeln werden ohne Zürücklegen gezogen. Welches ist die Wahrscheinlichkeit, dass : a) man eine grüne
MehrStrukturelle SVM zum Graph-labelling
23. Juni 2009 1 Was wir gerne hätten...... und der Weg dorthin Erinnerung: strukturelle SVM 2 Junction Tree Algorithmus Loopy Belief Propagation Gibbs Sampling 3 Umfang Qualität der Algorithmen Schlussfolgerungen
MehrMathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1
Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:
MehrLevel 1 Grundlagen Blatt 2
Level 1 Grundlagen Blatt 2 Dokument mit 1 Aufgaben Aufgabe A9 Ein Glücksrad besteht aus 3 Feldern, die folgendermaßen beschriftet sind: 1.Feld: 2,00 2. Feld: 5,00 3. Feld: 0,00 Das 1. Feld hat einen Mittelpunktswinkel
MehrActive Hidden Markov Models for Information Extraction
HMMs in der IE p.1/28 Active Hidden Markov Models for Information Extraction Seminar Informationsextraktion im WiSe 2002/2003 Madeleine Theile HMMs in der IE p.2/28 Inhaltsübersicht Ziel formalere Aufgabenbeschreibung
MehrEinführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von
MehrSatz 16 (Multiplikationssatz)
Haug verwendet man die Denition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A \ B] = Pr[BjA] Pr[A] = Pr[AjB] Pr[B] : (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1 ; : : : ; A n
MehrDefinition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis
Stochastische Prozesse: Grundlegende Begriffe bei zufälligen Prozessen In diesem Abschnitt beschäftigen wir uns mit den grundlegenden Begriffen und Definitionen von Zufallsexperimenten, also Prozessen,
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung
MehrKombinatorik & Stochastik Übung im Sommersemester 2018
Kombinatorik & Stochastik Übung im Sommersemester 2018 Kombinatorik Formeln & Begriffe Begrifflichkeiten Permutation = Anordnung in einer bestimmten Reihenfolge Kombination = Anordnung ohne bestimmte Reihenfolge
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
Mehr2.2 Ereignisse und deren Wahrscheinlichkeit
2.2 Ereignisse und deren Wahrscheinlichkeit Literatur: [Papula Bd., Kap. II.2 und II.], [Benning, Kap. ], [Bronstein et al., Kap. 1.2.1] Def 1 [Benning] Ein Zufallsexperiment ist ein beliebig oft wiederholbarer,
MehrSammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien
Sammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien Prof. F. Merkl 23. Mai 2016 Zu Ihrer Information und als zusätzliches Übungsmaterial sind hier die Aufgaben
MehrVorkurs Mathematik. Christoph Hindermann. Wahrscheinlichkeitstheorie
Kapitel 4 Christoph Hindermann Vorkurs Mathematik 1 4.0 Motivation Wenn 100 Münzen geworfen werden, wie ist dann die Wahrscheinlichkeit, dass genau 50 davon Kopf zeigen? Angenommen, es befinden sich 300
MehrSegmentierung. Vorlesung FH-Hagenberg SEM
Segmentierung Vorlesung FH-Hagenberg SEM Segmentierung: Definition Die Pixel eines Bildes A={a i }, i=1:n, mit N der Anzahl der Pixel, werden in Teilmengen S i unterteilt. Die Teilmengen sind disjunkt
MehrVorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen 0. Diskrete reellwertige Zufallsvariable X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) oder
MehrFriedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong
Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem
Mehr,,Schäferhunde sind gefährlich! Denn,,Jeder dritte Biss geht auf das Konto dieser Rasse.
Wirtschaftswissenschaftliches Zentrum 7 Universität Basel Statistik Dr. Thomas Zehrt Bedingte Wahrscheinlichkeit Motivation Die bedingte Wahrscheinlichkeit eines Ereignisses A bei einem gegebenen Ereignis
MehrKombinatorik kompakt. Stochastik WS 2016/17 1
Kombinatorik kompakt Stochastik WS 2016/17 1 Übersicht Auswahl/Kombinationen von N aus m Elementen Statistische unterscheidbare ununterscheidbare Physik Objekte (gleiche) Objekte ( ohne m N m+n 1 ) N mit
MehrVorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine diskrete reellwertige Zufallsvariable, d.h. eine ZV e mit Wertebereich R (oder einer Teilmenge davon), sodass eine
Mehr1 Wahrscheinlichkeitsrechnung und Zufallsvariablen
1 Wahrscheinlichkeitsrechnung und Zufallsvariablen Zoltán Zomotor Versionsstand: 18. Mai 2015, 09:29 Die nummerierten Felder bitte während der Vorlesung ausfüllen. This work is licensed under the Creative
MehrPartitionen natürlicher Zahlen
Partitionen natürlicher Zahlen wgnedin@math.uni-koeln.de 9. Oktober 03 In dieser Notiz wird der Beweis des Satzes über die Anzahl der Partitionen einer natürlichen Zahl vorgestellt. Die Darstellung folgt
MehrGemeinsame Wahrscheinlichkeitsverteilungen
Gemeinsame Wahrscheinlichkeitsverteilungen Worum geht es in diesem Modul? Gemeinsame Wahrscheinlichkeits-Funktion zweier Zufallsvariablen Randverteilungen Bedingte Verteilungen Unabhängigkeit von Zufallsvariablen
MehrProf. Dr. Christoph Karg Hochschule Aalen. Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik. Wintersemester 2017/2018
Prof. Dr. Christoph Karg 31.1.2018 Hochschule Aalen Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik Wintersemester 2017/2018 Unterschrift: Klausurergebnis Aufgabe 1 (10 Punkte) Aufgabe 3
MehrVorlesung 3. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3 Der Erwartungswert von diskreten reellwertigen Zufallsvariablen 0. Diskrete reellwertige Zufallsvariable X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) oder
MehrÜbungen zur Wahrscheinlichkeitstheorie und Statistik
Übungen zur Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank Blatt 0 vom 16. April 2012 Aufgabe 1 (Wahrscheinlichkeitsräume). Welche der folgenden Aussagen sind wahr? Begründen Sie jeweils
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrMathematik I für Studierende der Informatik und Wirtschaftsinformatik (Diskrete Mathematik) im Wintersemester 2015/16
Mathematik I für Studierende der Informatik und Wirtschaftsinformatik (Diskrete Mathematik) im Wintersemester 2015/16 12. November 2015 Satz 3.16 (Binomischer Lehrsatz) Seien a, b R. Dann gilt für alle
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrDiskrete Strukturen. Sebastian Thomas RWTH Aachen https://www2.math.rwth-aachen.de/ds17/ Wahrscheinlichkeitstheorie
Diskrete Strukturen Sebastian Thomas RWTH Aachen https://www2.math.rwth-aachen.de/ds17/ Wahrscheinlichkeitstheorie Quasiendliche Wahrscheinlichkeitsräume Definition quasiendlicher Wahrscheinlichkeitsraum
MehrM13 Übungsaufgaben / pl
Die Histogramme von Binomialverteilungen werden bei wachsendem Stichprobenumfang n immer flacher und breiter. Dem Maximum einer solchen Verteilung kommt daher keine allzu große Wahrscheinlichkeit zu. Vielmehr
MehrSTATISTISCHE METHODEN UND IHRE ANWENDUNGEN
STATISTISCHE METHODEN UND IHRE ANWENDUNGEN Von Dr. rer. nat. Erwin Kreyszig o. Professor für Statistik an der Universität Karlsruhe mit 82 Abbildungen und zahlreichen Tabellen Vierter, unveränderter Nachdruck
Mehr) (1 BE) 1 2 ln 2. und somit
1 Aufgaben aus dem Aufgabenpool 1 1.1 Analysis A1_1 Eine Funktion f ist durch 1 x f(x) e 1, x IR, gegeben. Ermitteln Sie die Nullstelle der Funktion f. ( ) b) Die Tangente an den Graphen von f im Punkt
MehrVorlesung 2a. Diskret uniform verteilte Zufallsvariable
Vorlesung 2a Diskret uniform verteilte Zufallsvariable 1 Eine Zufallsvariable X heißt diskret uniform verteilt, wenn ihr Zielbereich S endlich ist und P(X = a) = 1 #S für alle a S. Damit beschreibt X eine
MehrMathematik I für Studierende der Informatik und Wirtschaftsinformatik (Diskrete Mathematik) im Wintersemester 2017/18
Mathematik I für Studierende der Informatik und Wirtschaftsinformatik (Diskrete Mathematik) im Wintersemester 2017/18 16. November 2017 1/35 Modulare Arithmetik Modulare Arithmetik Definition 3.33 Es sei
Mehr( ) ( ) ( ) Mehrstufige Zufallsversuche
R. Brinkmann http://brinkmann-du.de Seite 1 19.11.2009 Mehrstufige Zufallsversuche Häufig müssen Zufallsversuche untersucht werden, die aus mehr als einem einzigen Experiment bestehen. Diese Versuche setzen
Mehr80 7 MARKOV-KETTEN. 7.1 Definition und Eigenschaften von Markov-Ketten
80 7 MARKOV-KETTEN 7 Markov-Ketten 7. Definition und Eigenschaften von Markov-Ketten Sei X = (X 0, X, X 2,...) eine Folge von diskreten Zufallsvariablen, die alle Ausprägungen in einer endlichen bzw. abzählbaren
MehrDr. Jürgen Senger INDUKTIVE STATISTIK. Wahrscheinlichkeitstheorie, Schätz- und Testverfahren
Dr. Jürgen Senger INDUKTIVE STATISTIK Wahrscheinlichkeitstheorie, Schätz- und Testverfahren ÜBUNG 7.2 - LÖSUNGEN POISSONVERTEILUNG. Fahrzeuge, die eine Brücke passieren Zufallsexperiment: Zeitpunkt des
Mehr3.2 Maximum-Likelihood-Schätzung
291 Die Maximum-Likelihood-Schätzung ist die populärste Methode zur Konstruktion von Punktschätzern bei rein parametrischen Problemstellungen. 292 3.2.1 Schätzkonzept Maximum-Likelihood-Prinzip: Finde
MehrEinführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von
MehrProgramm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung
Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus
MehrErgebnis Ergebnisraum Ω. Ereignis. Elementarereignis
Stochastik Die Stochastik besteht aus zwei Teilgebieten, der Statistik und der Wahrscheinlichkeitsrechnung. Die Statistik beschreibt die Vergangenheit und verwendet Informationen, die (in realen Versuchen)
Mehr