Maschinelle Sprachverarbeitung: N-Gramm-Modelle

Größe: px
Ab Seite anzeigen:

Download "Maschinelle Sprachverarbeitung: N-Gramm-Modelle"

Transkript

1 HUMBOLD-UNIVERSIÄ ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: N-Gramm-Modelle obias Scheffer, Ulf Brefeld Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch Grammatik einer Sprache beschrieben. Wie wahrscheinlich ist ein bestimmter Satz in einem Kontext ich pflücke Beeren = 0.000, ich pflücke Bären = 0 (oder vielleicht 0-5. Statistische Sprachmodelle: N-Gramme, probabilistische kontextfreie Grammatiken, Hidden-Markov-Modelle.

2 Statistische Sprachmodelle: wozu? Spracherkennung: Akustisches Modell + Sprachmodell. Handschrifterkennung: Schreibmodell + Sprachmodell. Rechtschreibkorrektur: Fehler- / Vertippmodell + Sprachmodell. Übersetzung: Übersetzungsmodell + Sprachmodell der Zielsprache. PDA-astatureingabe : Normalverteilte Stiftposition + Sprachmodell. 3 Statistische Sprachmodelle: wozu? Bayes Formel ( DIE Formel : arg max w,..., w signal w,..., w = arg max w,..., w signal w,..., w Pw (,..., w 443 Spracherkennung: Akustikmodell (HMM Sprachmodell auf Wortebene Handschrifterkennung: Schriftmodell Sprachmodell auf Wortebene Rechtschreibkorrektur: Vertipp-/Fehlermodell Sprachmodell auf Wortebene Übersetzung: PDA-astatureingabe: Übersetzungsmodell Stiftpositionsmodell Sprachmodell auf Wortebene Sprachmodell auf Buchstabenebene 9 Buchst.-astenzuordnung Sprachmodell auf Buchstabenebene 4

3 N-Gramm-Modelle ich pflücke Beeren = ich x pflücke ich x Beeren ich pflücke. Markov-Annahme N. Ordnung (bsp: 3. Ordnung: Wald ich pflücke Beeren im = Wald Beeren im. Modell speichert Wahrscheinlichkeiten für Wortfolgen der Länge maximal N. N=: Bigramm (richtig wäre eigentlich Digramm, N=3: rigramm, N=4: etragramm. 5 N-Gramme Vorhersage des nächsten Wortes: Bestimme w n w n-,..., w. Die meisten Wortfolgen w,..., w n tauchen in einem Korpus nur einmal auf, wie können wir dafür Wahrscheinlichkeiten schätzen? Markov-Annahme (n--ter Ordnung: Nur die letzten n- Wörter sind entscheidend für das nächste (n-te Wort. w t+n w t+n-,..., w = w t+n w t+n-,..., w t+ 6 3

4 Markov-Annahme (n--ter Ordnung Wahrscheinlichkeit für Wort t+n ergibt sich aus Wörtern t+ bis t+n-. ich pflücke heute nachmittag wieder... [Beeren], ich jage heute nachmittag wieder... [Bären] n 4: gleiche Wahrscheinlichkeit für nächstes Wort; n 5: unterschiedliche Wahrscheinlichkeiten. Großes n: Wenige Beispiele für jedes N-Gramm, schätzen der Wahrscheinlichkeiten schwierig. Kleines n: Viele Beispiele, aber Vorhersage ungenau da verschiedene Wortfolgen als gleich behandelt werden. 7 Markov-Annahme (n--ter Ordnung Wie viele Wahrscheinlichkeiten müssen wir kennen? N= (nullte Ordnung: ca. 0,000 verschiedene Wortfolgen der Länge, N= (erste Ordnung: ca. 400,000,000, N=3 (zweite Ordnung: ca 8 x 0. N=4 (dritte Ordnung: ca.6 x 0 7. N-Gramme über Wortstämme, statt über Wörter. Etwas Information geht verloren, aber Deutlich weniger Wahrscheinlichkeiten. 8 4

5 Lernen von N-Gram-Modellen Schätzen aller Wahrscheinlichkeiten w n w n-,..., w aus dem Korpus. Wie viele Wahrscheinlichkeiten sind das? wn, wn,..., w wn wn,..., w = w,..., w Messbar ist nur n count( w,..., w n 9 Schätzen von Wortfolgewahrscheinlichkeiten Maximum-Likelihood-Schätzer: arg max p count p count p = Binomial [p,m](count Maximum: count/m. (m: Stichprobengröße. count( w,..., wn PML ( wn,..., w = m count( w,..., wn PML ( wn wn,..., w = count( w,..., w n Problem: die meisten Wortfolgen tauchen im Korpus überhaupt nicht auf. rotzdem ist ihre Wahrscheinlichkeit > 0. Vorwissen, dass fast keine Wortfolge völlig ausgeschlossen ist, muss in den Schätzer einfließen. 0 5

6 Schätzen von Wortfolgewahrscheinlichkeiten Vorwissen als A-Priori-Wahrscheinlichkeit: p: Gleichverteilung über alle Ereignisse. Maximum-A-Posteripri-Schätzer: arg max p count arg max count p p p = Ergibt: count( w,..., wn + PMAP ( wn,..., w = n m+ V Problem: Wenn Korpus klein ist, wird die Wahrscheinlichkeit nie gesehener Ereignisse überschätzt. p Schätzen von Wortfolgewahrscheinlichkeiten Lidstone-Schätzer: Interpolation zwischen Maximum-Likelihood- und Maximum-A-Posteriori- Schätzer: arg max p µ count p + ( µ p count Ergibt: count( w,..., wn PLID ( wn,..., w = µ + ( µ n m V count( w,..., wn + λ = n m+ V λ Häufig verwendet: λ = 6

7 Schätzen von Wortfolgewahrscheinlichkeiten Wie viel Wahrscheinlichkeitsmasse entfällt tatsächlich auf ungesehene Wortfolgen? Lässt sich bestimmen durch Cross-Validation: eile Korpus zufällig in rainingsmenge S und Holdout-Menge S, Schätze N-Gramm-Wahrscheinlichkeiten auf S, Zähle, welcher Anteil der N-Gramme in S unbekannt ist. λ = Anteil unbekannter N-Gramme / V n. Problem: In S tauchen mehr N-Gramme nicht auf als in S +S. 3 Schätzen von Wortfolgewahrscheinlichkeiten n-fold Cross-Validation eile S zufällig in S,..., S n. For i =... n Schätze N-Gramm-Wahrscheinlichkeiten auf S \ S i. Zähle, welcher Anteil der N-Gramme in S i unbekannt ist. λ = Durchschnittlicher Anteil unbekannter N- Gramme / V N. Anschließend können die N-Gramm- Wahrscheinlichkeiten auf S geschätzt werden, mit Parametereinstellung λ. 4 7

8 Wahrscheinlichkeit eines Satzes Wahrscheinlichkeit des Satzes w,, w bei gegebenem N-Gramm-Modell: Pw (,..., w = Pw ( Pw ( w... Pw ( w,..., w = Pw ( Pw ( w... Pw ( w, w N+ N Pwi wi w Pwi wi wi N+ i= i= N = (,..., (,.. Beispiel: 3-Gramm-Modell w,..., w = w w w... w w,..., w = Pw ( Pw ( w... Pw ( w, w = Pw ( Pw ( w Pw ( i wi, wi i= 3 5 Evaluation von N-Gramm-Modellen N-Gramm auf rainingskorpus gelernt. Wie gut ist es? Bewertung auf estkorpus. Wie sehr überrascht mich jedes neue Wort des estkorpus? Gutes Modell weniger Überraschung. Entropie H: Wie viele Bit brauche ich um nächstes Wort zu kodieren? Perplexität ( mittlerer Verzweigungsfaktor : H. Minimum der Entropie = Minimum der Perplexität wenn gelerntes Modell gleich echtem Modell ist. 6 8

9 Evaluation von N-Gramm-Modellen N-Gramm-Modell und ein langer ext W. Kreuzentropie des extes gegeben das Modell: HW ( m = log Pm ( W W = log Pm( w... wn = log Pm( wi wi,..., w i W W Perplexität des Modells (durchschnittlicher Verzweigungsfaktor: PP ( W = H ( W 7 Anzahl der Parameter Interpolation P w w ( n,..., w n = w,..., w n wn,..., w Problem mit kleinen n: ungenau (gleiche Wahrscheinlichkeit für viele Folgen. Problem mit großen n: wenige Beispiele für viele Wahrscheinlichkeiten. IBM angora: Korpus mit 365 Mio Wörtern, ( Verschiedene 6.8*0 0 -Gramme, 4 Mio davon tauchen auf, 8 Mio nur einmal;.% aller neuen -Gramme sind unbekannt..8*0 6 3-Gramme, 75 Mio tauchen auf, 53 Mio einmal, 4.7% aller neuen 3-Gramme sind unbekannt. 8 9

10 Interpolation von N-Gramm-Modellen Wie Parameter N einstellen? Zu klein: Abhängigkeiten über mehrere Wörter hinweg werden nicht erfasst, Zu groß: nur wenige der möglichen Kombinationen kommen in rainingsdaten vor. Idee: Interpolation. -Gramm-,, N-Gramm-Modelle überlagern. Jedes Modell bekommt ein Gewicht. Gewichte müssen aus Daten geschätzt werden. 9 Interpolation Idee: Interpolation verschiedener N. Pw ( n wn,..., w = (,..., j λ jpj wn w n n wn j+ Parameter λ j müssen eingestellt werden, verschiedene Verfahren möglich. EM-Algorithmus: Starte mit beliebiger Aufteilung λ j = Wiederhole folgende Schritte abwechselnd. Schätze N-Gramm-Modell mit festen λ j Schätze Parameter λ j mit festem N-Gramm-Modell. Einstellung der λ j auf estkorpus: rainiere alle N-Gramm-Modelle auf rainingskorpus. Stelle so ein, dass estkorpus maximiert wird. λ j 0 0

11 N-Gramm-Klassenmodelle Manche Wörter haben denselben Kontext. Wir sehen uns [Montag Dienstag...] Nachmittag. Idee: Wortklassen. π(w=c. Ein N-Gramm-Modell ist ein Klassenmodell gdw. wn wn,..., w = wn cn cn cn,..., c Klassenmodell hat weniger Parameter (wenn C < V. N-Gramm-Klassenmodell = N-Gramm-Modell, wenn jedes Wort eine eigene Klasse hat. N-Gramm-Klassenmodell mit einem Wort pro Klasse wird normal aus rainingskorpus gelernt. Dann werden Klassen zusammen gelegt. N-Gramm-Klassenmodelle HW m = P W W = log Pm( w... wn = log Pm( wi w,..., i i wi n+ W W = log Pm( wi ci Pm( ci ci,..., i n i c + W = log Pm( wi ci Pm( ci π( wi,..., π( wi n i + W ( log m( Greedy-Algorithmus zum Lernen von π: Initialisierung von π: Eine Klasse pro Wort Vereinige diejenigen beiden Klassen, deren Vereinigung H(W m minimal vergrößert. Wiederhole den letzten Schritt.

12 N-Gramm-Klassenmodelle Beispiel-Dendrogramme 3 Beispielaufteilung in 000 Klassen Beispielklassen 4

13 Sticky Pairs Mutual Information zweier Wörter: w, w I ( w, w = log w w Wenn w häufiger auf w folgt als es bei unabhängigen Wörtern vorkäme, ist I positiv. Beispiele mit hoher mutual information: 5 Semantische Klassen und Sticky Pairs Mutual Information nahegelegener Wörter: Gemeinsames Auftauchen in Fenster von 5 Wörtern. Pnear ( w, w I near ( w, w = log P ( w P ( w Beispiele: near near 6 3

14 Anwendung von N-Gramm-Modellen Gegeben: Wortlikelihood eines Signals s w Gegeben: N-Gramm-Modell wn wn,..., w Gesucht: Ursache arg maxw (,...,,...,,..., w P w w s s Viterbi-Algorithmus findet wahrscheinlichste Ursache (Wortfolge für Beobachtung (Signal. arg max = arg max = arg max ( w,..., w ( w,..., w ( w,..., w w,..., w s,..., s s s,..., s w,..., w w... s w w,..., w w,..., w Viterbi-Algorithmus findet wahrscheinlichste Wortfolge schnell mit dynamischer Programmierung. Viterbi kommt noch ausführlich. 7 4

Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging

Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging HUMBOLDT-UNIVERSITÄT ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging Tobias Scheffer Ulf Brefeld POS-Tagging Zuordnung der Wortart von

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer, Tom Vanck, Paul Prasse

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer, Tom Vanck, Paul Prasse Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer, Tom Vanck, Paul Prasse Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Termin: Montags,

Mehr

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008 Bayes sche Klassifikatoren Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 16. Juli 2008 Inhalt Einleitung Grundlagen der Wahrscheinlichkeitsrechnung Noisy-Channel-Modell Bayes sche Klassifikation

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe

Mehr

Aufgabe 1 Probabilistische Inferenz

Aufgabe 1 Probabilistische Inferenz Seite 1 von 8 Aufgabe 1 Probabilistische Inferenz (28 Punkte) Die BVG will besser auf Ausfälle im S-Bahn-Verkehr eingestellt sein. Sie geht dabei von folgenden Annahmen aus: An 20% der Tage ist es besonders

Mehr

3. Übung zur Vorlesung NLP Analyse des Wissensrohstoffes Text im Sommersemester 2008 mit Musterlösungen

3. Übung zur Vorlesung NLP Analyse des Wissensrohstoffes Text im Sommersemester 2008 mit Musterlösungen 3. Übung zur Vorlesung NLP Analyse des Wissensrohstoffes Text im Sommersemester 2008 mit Musterlösungen Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 14. Mai 2008 1 Kollokationen

Mehr

Einführung in das Maschinelle Lernen I

Einführung in das Maschinelle Lernen I Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL

Mehr

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1 Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)

Mehr

Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung

Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Kursfolien Karin Haenelt 1 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Informationstheorie Vera Demberg Universität des Saarlandes 26. Juni 202 Vera Demberg (UdS) Mathe III 26. Juni 202 / 43 Informationstheorie Entropie (H) Wie viel Information

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart Institut für maschinelle Sprachverarbeitung Universität Stuttgart schmid@ims.uni-stuttgart.de Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle

Mehr

Maschinelle Übersetzung

Maschinelle Übersetzung HUMBOLDT-UNIVERSITÄT ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Übersetzung Tobias Scheffer Ulf Brefeld Übersetzung Sprache 1 (semantische Interpretation) Sprache 1 (syntaktisch

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

Hidden Markov Models in Anwendungen

Hidden Markov Models in Anwendungen Hidden Markov Models in Anwendungen Dr. Vera Demberg Universität des Saarlandes 31. Mai 2012 Vera Demberg (UdS) HMM Anwendungen 31. Mai 2012 1 / 26 Hidden Markov Modelle in der Computerlinguistik Table

Mehr

Das Bayes'sche Prinzip

Das Bayes'sche Prinzip Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem

Mehr

Wahrscheinlichkeitstheorie und Naive Bayes

Wahrscheinlichkeitstheorie und Naive Bayes Wahrscheinlichkeitstheorie und Naive Bayes Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 12.05.2011 Caroline Sporleder Naive Bayes (1) Elementare Wahrscheinlichkeitstheorie

Mehr

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Übersetzung. Tobias Scheffer Michael Großhans Paul Prasse Uwe Dick

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Übersetzung. Tobias Scheffer Michael Großhans Paul Prasse Uwe Dick Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Übersetzung Tobias Scheffer Michael Großhans Paul Prasse Uwe Dick Maschinelle Übersetzung 2 Maschinelle Übersetzung Gegeben Text

Mehr

12. Vorlesung. Statistische Sprachmodelle für Information Retrieval

12. Vorlesung. Statistische Sprachmodelle für Information Retrieval 12. Vorlesung Statistische Sprachmodelle für Information Retrieval Allgemeiner Ansatz Unigram Modell Beziehung zum Vektorraummodell mit TF-IDF Gewichten Statistische Spachmodelle zur Glättung Idee von

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Spracherkennung und Hidden Markov Modelle Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Einführung in die Computerlinguistik WS 04/05 Spracherkennung Merkmalsextraktion

Mehr

Stochastische Lernalgorithmen

Stochastische Lernalgorithmen Stochastische Lernalgorithmen Gerhard Jäger 14. Mai 2003 Das Maximum-Entropy-Prinzip Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kommt ursprünglich aus der Physik:

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Probabilistische kontextfreie Grammatiken

Probabilistische kontextfreie Grammatiken Mathematische Grundlagen III Probabilistische kontextfreie Grammatiken 14 Juni 2011 1/26 Ambiguität beim Parsing Wörter können verschiedene Bedeutungen haben und mehr als einer Wortkategorien angehören

Mehr

Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur

Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur Crocker/Demberg/Staudte Sommersemester 2014 17.07.2014 1. Sie haben 90 Minuten Zeit zur Bearbeitung der Aufgaben.

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

Aufgabe 1 Probabilistische Inferenz

Aufgabe 1 Probabilistische Inferenz Seite 1 von 9 Aufgabe 1 Probabilistische Inferenz (30 Punkte) In einer medizinischen Studie wurden die Auswirkungen von Metastasen bildenden Karzinomen untersucht. Dabei wurde folgendes festgestellt: Bei

Mehr

Information Retrieval, Vektorraummodell

Information Retrieval, Vektorraummodell Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Information Retrieval, Vektorraummodell Tobias Scheffer Paul Prasse Michael Großhans Uwe Dick Information Retrieval Konstruktion

Mehr

Hidden Markov Modelle

Hidden Markov Modelle Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Wahrscheinlichkeitstheorie 2

Wahrscheinlichkeitstheorie 2 Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Hidden Markov Model (HMM)

Hidden Markov Model (HMM) Hidden Markov Model (HMM) Kapitel 1 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung

Mehr

Dialogsysteme. Vortrag zum Thema n-gramm-modelle 2. Teil: Lösungsansätze für Ausfall-N-Gramme. 12. Januar 2006, Susanne O'Shaughnessy

Dialogsysteme. Vortrag zum Thema n-gramm-modelle 2. Teil: Lösungsansätze für Ausfall-N-Gramme. 12. Januar 2006, Susanne O'Shaughnessy Dialogsysteme Vortrag zum Thema n-gramm-modelle 2. Teil: Lösungsansätze für Ausfall-N-Gramme 12. Januar 2006, Susanne O'Shaughnessy Smoothing - Glättung Problem bei Standard- n-gramm-modellen: - kein Trainingskorpus

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Information Retrieval,

Information Retrieval, Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Information Retrieval, Vektorraummodell Tobias Scheffer Uwe Dick Peter Haider Paul Prasse Information Retrieval Konstruktion von

Mehr

Kapitel III Selektieren und Sortieren

Kapitel III Selektieren und Sortieren Kapitel III Selektieren und Sortieren 1. Einleitung Gegeben: Menge S von n Elementen aus einem total geordneten Universum U, i N, 1 i n. Gesucht: i-kleinstes Element in S. Die Fälle i = 1 bzw. i = n entsprechen

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 5. Übungsblatt Aufgabe 1: Covering-Algorithmus und Coverage-Space Visualisieren Sie den Ablauf des Covering-Algorithmus

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Kognitive Systeme. Übung 4

Kognitive Systeme. Übung 4 Kognitive Systeme Übung 4 Matthias Sperber Thai Son Nguyen 1 29.06.16 Wir bitten um Entschuldigung: Trotz anders lautender Ankündigung änderte sich die korrekte Lösung für Aufgabe 3e, sodass keine der

Mehr

Aufgabe Punkte

Aufgabe Punkte Institut für Mathematik Freie Universität Berlin Carsten Hartmann, Stefanie Winkelmann Musterlösung für die Nachklausur zur Vorlesung Stochastik I im WiSe 20/202 Name: Matr.-Nr.: Studiengang: Mathematik

Mehr

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2009 / 2010 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014

n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014 n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014 Wahrscheinlichkeit und Sprache Ausgangsfrage: Nächstes Wort vorhersagen. Sprache als Zufallsprozess: Für jede

Mehr

Diskrete Wa.verteilungen: Eine Zooführung. Statistik (Biol./Pharm./HST) FS 2015

Diskrete Wa.verteilungen: Eine Zooführung. Statistik (Biol./Pharm./HST) FS 2015 Diskrete Wa.verteilungen: Eine Zooführung Statistik (Biol./Pharm./HST) FS 2015 Admin: Übungsbetrieb & Quiz Gruppeneinteilung selbstständig via Webseite Eine e-mail mit Link für Einschreibung nur nach Belegung

Mehr

Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:

Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Aufgabe 1 (8=2+2+2+2 Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Die Zufallsvariable X bezeichne die Note. 1443533523253. a) Wie groß ist h(x 5)? Kreuzen

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten

Mehr

Tagging mit Hidden Markov Models und Viterbi-Algorithmus

Tagging mit Hidden Markov Models und Viterbi-Algorithmus Tagging mit Hidden Markov Models und Viterbi-Algorithmus Annelen Brunner, Stephanie Schuldes, Nicola Kaiser, Olga Mordvinova HS Parsing SoSe 2003 PD Dr. Karin Haenelt Inhalt Ziel des Seminarprojekts Theorie:

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Lösung Übungsblatt 5

Lösung Übungsblatt 5 Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von

Mehr

Einführung in die (induktive) Statistik

Einführung in die (induktive) Statistik Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung

Mehr

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Modellanpassung und Parameterschätzung. A: Übungsaufgaben 7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit

Mehr

Logistische Regression I. Odds, Logits, Odds Ratios, Log Odds Ratios

Logistische Regression I. Odds, Logits, Odds Ratios, Log Odds Ratios Logistische Regression I. Odds, Logits, Odds Ratios, Log Odds Ratios PD Dr.Gabriele Doblhammer, Fortgescrittene Methoden, SS2004 Logistische Regression Tabelle 2 Alter und Symptome von Herz-/Kreislauferkrankung(CD)

Mehr

Vorhersage von Protein-Funktionen. Patrick Pfeffer

Vorhersage von Protein-Funktionen. Patrick Pfeffer Vorhersage von Protein-Funktionen Patrick Pfeffer Überblick Motivation Einleitung Methode Markov Random Fields Der Gibbs Sampler Parameter-Schätzung Bayes sche Analyse Resultate Pfeffer 2 Motivation Es

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Überblick Bessere Modelle, die nicht nur den Mittelwert von Referenzvektoren sondern auch deren Varianz berücksichtigen Weniger Fehlklassifikationen Mahalanobis Abstand Besseres Abstandsmaß basierend

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl {peter,guta,schamper}@i6.informatik.rwth-aachen.de Vorbesprechung 3. Aufgabe 19. Mai 2017 Human Language

Mehr

11. Übung Knowledge Discovery

11. Übung Knowledge Discovery Prof. Dr. Gerd Stumme, Robert Jäsche Fachgebiet Wissensverarbeitung. Übung Knowledge Discovery.7.7 Sommersemester 7 Informationsgewinn Im folgenden betrachten wir die Menge von n rainingsobjeten, mit den

Mehr

Diskriminatives Training, Neue Wort Problem. Sebastian Stüker

Diskriminatives Training, Neue Wort Problem. Sebastian Stüker Institut für Anthropomatik Diskriminatives Training, Neue Wort Problem Sebastian Stüker 03.02.2010 Interactive Systems Labs EM findet gute Modellparameter,indem es maximiert: X T P(X λ) T: Menge der Trainingsäußerungen

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik HMM POS-Tagging Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2016 1 / 20 POS Tags (1) Jurafsky and Martin (2009) POS = part-of-speech Tags sind morphosyntaktische

Mehr

Statistisches Testen

Statistisches Testen Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

Zeitreihenanalyse. Seminar Finanzmathematik. Andreas Dienst SS Einleitung - Begrüßung - Motivation - Inhaltsangabe. 2.

Zeitreihenanalyse. Seminar Finanzmathematik. Andreas Dienst SS Einleitung - Begrüßung - Motivation - Inhaltsangabe. 2. Seminar Finanzmathematik - Begrüßung - Motivation - Inhaltsangabe 3. Zusammen - fassung Zeitreihenanalyse Andreas Dienst SS 2006 Zeitreihen: Definition und Motivation - Begrüßung - Motivation - Inhaltsangabe

Mehr

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität Volker Tresp 1 Einführung Bisher haben wir uns fast ausschließich mit überwachtem Lernen beschäftigt: Ziel war es, eine (oder mehr als eine)

Mehr

Übungsscheinklausur,

Übungsscheinklausur, Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 27 Prof. Dr. F. Liese Übungsscheinklausur, 3.7.27 Dipl.-Math. M. Helwich Name:...

Mehr

Punktschätzer Optimalitätskonzepte

Punktschätzer Optimalitätskonzepte Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra

Mehr

TD-Gammon. Michael Zilske

TD-Gammon. Michael Zilske TD-Gammon Michael Zilske zilske@inf.fu-berlin.de TD-Gammon Ein Backgammon-Spieler von Gerald Tesauro (Erste Version: 1991) TD-Gammon Ein Neuronales Netz, das immer wieder gegen sich selbst spielt und dadurch

Mehr

Frequentistische Statistik und Bayessche Statistik. Volker Tresp

Frequentistische Statistik und Bayessche Statistik. Volker Tresp Frequentistische Statistik und Bayessche Statistik Volker Tresp 1 Frequentistische Statistik 2 Herangehensweise Die Naturwissenschaft versucht es, der Natur Gesetzmäßigkeiten zu entringen: F = ma Gesetze

Mehr

Hypothesentests für Erwartungswert und Median. für D-UWIS, D-ERDW, D-USYS und D-HEST SS15

Hypothesentests für Erwartungswert und Median. für D-UWIS, D-ERDW, D-USYS und D-HEST SS15 Hypothesentests für Erwartungswert und Median für D-UWIS, D-ERDW, D-USYS und D-HEST SS15 Normalverteilung X N(μ, σ 2 ) : «X ist normalverteilt mit Erwartungswert μ und Varianz σ 2» pdf: f x = 1 2 x μ exp

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Einführung in die Computerlinguistik POS-Tagging

Einführung in die Computerlinguistik POS-Tagging Einführung in die Computerlinguistik POS-Tagging Laura Heinrich-Heine-Universität Düsseldorf Sommersemester 2013 POS Tags (1) POS = part-of-speech Tags sind morphosyntaktische Kategorien von Wortformen.

Mehr

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Von Kernkraftwerken zu Space Shuttles

Von Kernkraftwerken zu Space Shuttles Statistische Methoden in Forschung und Alltag Johannes Hain Lehrstuhl für Mathematik VIII Statistik Universität Würzburg 01.03.2011 Das erwartet einen Mathematik-Studenten auf der Uni... ... oder das hier:

Mehr

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Programmierkurs Python II

Programmierkurs Python II Programmierkurs Python II Michaela Regneri & tefan Thater FR 4.7 Allgemeine Linguistik (Computerlinguistik) Universität des aarlandes ommersemester 2010 (Charniak, 1997) the dog biscuits N V N V the dog

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Wissensrepräsentation

Wissensrepräsentation Wissensrepräsentation Vorlesung Sommersemester 2008 8. Sitzung Dozent Nino Simunic M.A. Computerlinguistik, Campus DU (Fortsetzung LC-/Chart-Parsing) Statistische Verfahren in der KI Impliziert Maschinelles

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

6.5 Statistische Spracherkennung

6.5 Statistische Spracherkennung 6.5 Statistische Spracherkennung 6.5.1 Spracherkennung mit MAP Regel MAP Regel (Maximum-a-posteriori-Regel Wˆ = argmax W V * P( W X) optimale Wortfolge Wˆ = w w K w i V 1 2 w K Wortfolge Merkmalssequenz

Mehr

Computergestützte Datenanalyse in der Kern- und Teilchenphysik

Computergestützte Datenanalyse in der Kern- und Teilchenphysik Computergestützte Datenanalysein der Kern- und Teilchenphysik p. 1/?? Computergestützte Datenanalyse in der Kern- und Teilchenphysik Vorlesung 4 Jan Friedrich Computergestützte Datenanalysein der Kern-

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Wahrscheinlichkeitstheorie (Klausuraufgaben) Marcel Bliem Marco Boßle Jörg Hörner Mathematik Online Herbst 2010 Bliem/Boßle/Hörner (MO) PV-Kurs HM 3 1 / 7

Mehr

Institut für Stochastik, SoSe K L A U S U R , 13:

Institut für Stochastik, SoSe K L A U S U R , 13: Institut für Stochastik, SoSe 2014 Mathematische Statistik Paravicini/Heusel 1. K L A U S U R 12.7.2014, 13:00-16.00 Name: Geburtsdatum: Vorname: Matrikelnummer: Übungsgruppe bei: Studiengang & angestrebter

Mehr

3 Statistische Schätzungen

3 Statistische Schätzungen 3 Statistische Schätzungen In der Wahrscheinlichkeitstheorie geht es darum, über Modelle Ereignisse zu bewerten bzw. Voraussagen über ihr Eintreten zu treffen. Sind nun umgekehrt Daten bekannt, und wollen

Mehr

Moderne IR / Language Models / Page Ranking

Moderne IR / Language Models / Page Ranking Moderne IR / Language Models / Page Ranking Paul Raab 10.11.2011 Paul Raab () Moderne IR / Language Models / Page Ranking 10.11.2011 1 / 14 Überblick Statistische Methoden auf Sprachmodelle angewandt sind

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische

Mehr

Zeigen Sie mittles vollständiger Induktion, dass für jede natürliche Zahl n 1 gilt: k = n (n + 1) 2

Zeigen Sie mittles vollständiger Induktion, dass für jede natürliche Zahl n 1 gilt: k = n (n + 1) 2 Aufgabe 1. (5 Punkte) Zeigen Sie mittles vollständiger Induktion, dass für jede natürliche Zahl n 1 gilt: n k = k=1 n (n + 1). 2 Aufgabe 2. (5 Punkte) Bestimmen Sie das folgende Integral mithilfe partieller

Mehr

Statistische Verfahren in der Computerlinguistik

Statistische Verfahren in der Computerlinguistik Statistische Verfahren in der Computerlinguistik Zweiter Teil Einführung in die Computerlinguistik Sommersemester 2009 Übersicht Statistische vs. symbolische Verfahren in der CL Statistik beschreibende

Mehr

Effiziente Methoden Für Die Berechnung Von Aminosäure Ersetzungsraten

Effiziente Methoden Für Die Berechnung Von Aminosäure Ersetzungsraten Seminar - Aktuelle Themen der Bioinformatik Tobias Gontermann Johann Wolfgang Goethe-Universität Frankfurt a. M. 12 Juli 2007 1/46 Worum geht es? Berechung von Ratenmatritzen Q Wofür ist das gut? Modellierung

Mehr

BZQ II: Stochastikpraktikum

BZQ II: Stochastikpraktikum BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden

Mehr