Schriftlicher Test Teilklausur 2

Ähnliche Dokumente
Aufgabe 1 Probabilistische Inferenz

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2

Aufgabe 1 Probabilistische Inferenz

Schriftlicher Test Teilklausur 2

Aufgabe 1 Probabilistische Inferenz

Aufgabe 1 Probabilistische Inferenz

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Technische Universität Berlin Fakultät IV - Elektrotechnik und Informatik. Schriftlicher Test - Teilklausur 1

Klausur Grundlagen der Künstlichen Intelligenz

Technische Universität Berlin Fakultät IV - Elektrotechnik und Informatik. Schriftlicher Test - Teilklausur

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Nachklausur zu Analysis und Wahrscheinlichkeitsrechnung AI 2

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Probeklausur Statistik II

Vorname: Nachname: Matrikel-Nr.: Klausur Statistik

Semestralklausur zur Vorlesung Mathematische Strukturen

Fachprüfung AI / TI / MI Mathematik 2 Prof. Dr. W. Konen, Dr. A. Schmitter FH Köln, Institut für Informatik

Satz von der totalen Wahrscheinlichkeit

Wahrscheinlichkeit und Statistik BSc D-INFK

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018

Modulklausur Multivariate Verfahren

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung

TU DORTMUND Sommersemester 2018

Aufgabe Punkte

2. Klausur zu,,algorithmische Mathematik II

Klausur Stochastik und Statistik 31. Juli 2012

Statistik I für Humanund Sozialwissenschaften

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze. Anna Wallner. 15. Mai 2007

Wahrscheinlichkeit und Statistik BSc D-INFK

Maschinelles Lernen: Symbolische Ansätze

SoSe 2015 Klausur zur LV 36654: Einführung in 28. Juli 2015 die Methoden empirischer Forschung. Name: Studiengang: B.A. M.A.

Abitur 2016 Mathematik Stochastik IV

Wahrscheinlichkeit und Statistik BSc D-INFK

Elementare Wahrscheinlichkeitslehre

1. Teilklausur zur Vorlesung Grundlagen der Theoretischen Informatik

Biomathematik für Mediziner, Klausur SS 2001 Seite 1

FernUniversität in Hagen März 2017 Fakultät für Wirtschaftswissenschaft

Technische Universität Berlin Fakultät IV - Elektrotechnik und Informatik. Klausur

Klausur zu,,einführung in die Wahrscheinlichkeitstheorie

Die ABSOLUTE HÄUFIGKEIT einer Merkmalsausprägung gibt an, wie oft diese in der Erhebung eingetreten ist.

Klausur zu Grundlagen der Programmierung in C

Einführung in die Statistik I BA VM, 45 Minuten, Probeklausur

Endklausur Entscheidungstheorie WS 2009/2010 (A) S. 1 von 10. W2263 Entscheidungstheorie Endklausur

Probeklausur Optimierung

Hidden-Markov-Modelle

Mathematik für Biologen

Wahrscheinlichkeit3 Binomialverteilung/Bernoulli-Formel

D-MATH Wahrscheinlichkeitsrechnung und Statistik FS18 Prof. J. Teichmann. Serie 12

Klausur. Universität Augsburg, Institut für Informatik Sommersemester 2007 Prof. Dr. Werner Kießling 21. Juli (Suchmaschinen) Hinweise:

Diskrete Strukturen. Name Vorname Studiengang Matrikelnummer. Hörsaal Reihe Sitzplatz Unterschrift ... Allgemeine Hinweise

Prüfungsklausur zur Stochastik (LMG)/ Elementare Wahrscheinlichkeitstheorie und Statistik

Stochastik Musterlösung 3

Kapitel 5: Einfaktorielle Varianzanalyse

Klausur Entscheidungstheorie WS 2010/2011 S. 1 von 11

Klausur Mikroökonomik

Name: 3. MATHEMATIKKLAUSUR

Klausur zur Mathematik für Biologen

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung

Deckblatt. Name der Kursleiterin/des Kursleiters, bei der Sie angemeldet sind: Annelie Gebert. Nur einen Studiengang ankreuzen!!!

Klausur Algorithmen und Datenstrukturen

Klausur Statistik Lösungshinweise

Makroökonomik I (SS 2008 Nachholtermin)

WS 2014/15. (d) Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. (e) Bestimmen Sie nun den Erwartungswert und die Varianz von X.

Empirische Methoden II

Klausur Modellbildung und Simulation (Prof. Bungartz) SS 2007 Seite 1/7

Klausur Mikroökonomik

Einführung in die automatische Spracherkennung

SoSe 2014 Klausur zur LV 36654: Einführung in 16. Juli 2014 die Methoden empirischer Forschung. Name: Studiengang: B.A. M.A.

Statistische Sprachmodelle

Hypothesentest. Ablehnungsbereich. Hypothese Annahme, unbewiesene Voraussetzung. Anzahl Kreise

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)

Der Hund, der Eier legt

Klausur Mikroökonomik

TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09

Kapitel 5: Einfaktorielle Varianzanalyse

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Prüfung. Wahrscheinlichkeit und Statistik. ETH Zürich SS 2016 Prof. Dr. P. Embrechts August BSc INFK. Nachname. Vorname.

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart

Planung von Handlungen bei unsicherer Information

Institut für Stochastik, SoSe K L A U S U R , 13:

Prof. Dr. Christoph Karg Hochschule Aalen. Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik. Wintersemester 2017/2018

Nachhol-Klausur - Schätzen und Testen - Wintersemester 2013/14

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Prof. Dr. Christoph Karg Hochschule Aalen. Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik. Sommersemester 2018

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

Theoretische Informatik 1

Univ.-Prof. Dr. J. Franke-Viebach 1. Fakultät III Univ.-Prof. Dr. Jan Franke-Viebach

5 Binomial- und Poissonverteilung

Nachklausur zur Vorlesung. Statistik für Studierende der Biologie

Name: SS Universität Kassel Prof. Dr. Hadrian Heil

Lineare Regression. Volker Tresp

Transkript:

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2009 / 2010 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher Test Teilklausur 2 Name, Vorname: Studiengang: Hinweise: Überprüfen Sie bitte, ob Sie alle 10 Seiten der Klausur erhalten haben. Bitte versehen Sie vor Bearbeitung der Klausur alle 10 Seiten mit Ihrer Matrikelnummer. Bitte nicht mit einem roten oder grünen Stift schreiben. Bitte keinen Bleistift, keinen Tintenkiller und kein Tipp-Ex benutzen. Die Vorder- und Rückseiten der Klausur dürfen verwendet werden. Den Anhang (Seite 10) dürfen Sie abtrennen. Sie müssen ihn nicht abgeben. Dieser Teil ist zur Auswertung bestimmt und soll von den Teilnehmerinnen und Teilnehmern der Klausur nicht ausgefüllt werden. Aufgabe 1 Aufgabe 2 Aufgabe 3 Aufgabe 4 Summe 32 Punkte 28 Punkte 22 Punkte 18 Punkte 100 Punkte

Seite 2 von 10 Aufgabe 1 Probabilistische Inferenz (32 Punkte) In einer medizinischen Studie werden zwei Tests zur Diagnose von Leberschäden verglichen. Dabei wurde folgendes festgestellt: Test 1 erkennt (T 1 = w) einen Leberschaden (L = w) nur mit 90% Wahrscheinlichkeit. Eine gesunde Leber (L = f) führt aber in 99% aller Untersuchungen zu einem negativen Testergebnis (T 1 = f). Test 2 ist mit 95% Wahrscheinlichkeit positiv (T 2 = w), wenn der jeweilige Proband tatsächlich einen Leberschaden hat (L = w). Mit derselben Wahrscheinlichkeit fällt der Test negativ (T 2 = f) aus, wenn die Leber in Ordnung ist (L = f). Die Genauigkeit beider Tests wird nicht dadurch beeinflusst, ob die Versuchsperson Alkohol konsumiert (A = w) oder nicht (A = f). In der untersuchten Gruppe lag das Risiko (Wahrscheinlichkeit) für einen Leberschaden bei 10 2 für Probanden mit Alkoholkonsum, sonst nur bei 10 4. Ein Anteil von 25% der Studienteilnehmer trinkt regelmäßig Alkohol (A = w). (a) Zeichnen Sie ein Bayes-Netz, das zu diesem Modell passt und eine Auswertung ohne zusätzliche Informationen erlaubt! (6 Punkte)

Seite 3 von 10 (b) Wie groß ist die Wahrscheinlichkeit, dass ein zufällig ausgewählter Proband einen Leberschaden hat? (8 Punkte) (c) Bei einem Alkoholkonsumenten fällt Test 1 positiv aus. Wie wahrscheinlich ist es, dass er tatsächlich einen Leberschaden hat? (9 Punkte) (d) Jetzt soll die Versuchsperson aus Teilaufgabe (c), bei der Test 1 bereits positiv ausgefallen ist, auch mit Test 2 untersucht werden. Welches Ergebnis ist am wahrscheinlichsten und wie sicher ist diese Vorhersage? (9 Punkte)

Seite 4 von 10 Aufgabe 2 Hidden-Markov-Modell (28 Punkte) Bei der Spracherkennung werden Wortmodelle eingesetzt, um die Wahrscheinlichkeit von Wortfolgen zu berechnen. Um die Grammatik besser berücksichtigen zu können, wird zwischen einer Folge von Wortarten x 1, x 2, x 3,... und der tatsächlich beobachteten Folge von Wörtern y 1, y 2, y 3,... unterschieden. Ein solches Modell für Nominalgruppen in der englischen Sprache ist in den folgenden zwei Tabellen (stark vereinfacht) angegeben: x i x i+1 P(x i+1 x i ) Start Artikel 1.0 Artikel Adjektiv 0.3 Artikel Substantiv(1) 0.4 Artikel Substantiv(2) 0.3 Adjektiv Adjektiv 0.5 Adjektiv Substantiv(2) 0.5 Substantiv(1) Substantiv(2) 1.0 Substantiv(2) Stop 1.0 x i y i P(y i x i ) Artikel the 0.8 Artikel a 0.2 Adjektiv small 0.5 Adjektiv green 0.5 Substantiv(1) village 0.6 Substantiv(1) green 0.4 Substantiv(2) village 0.6 Substantiv(2) green 0.4 Die Markovkette für die Nominalgruppe beginnt immer mit x 0 = Start und endet mit x k+1 = Stop. Diesen beiden Zuständen ist keine Ausgabe zugeordnet, da sie Verbindungen zu anderen Teilen des Sprachmodells darstellen. Alle nicht angegebenen Wahrscheinlichkeiten P(x i+1 x i ) und P(y i x i ) sind Null. (a) Stellen Sie das Modell für die Satzstruktur in einem Übergangsdiagramm graphisch dar! Sie brauchen keine Wahrscheinlichkeiten einzutragen. (6 Punkte)

Seite 5 von 10 (b) Mit welcher Wahrscheinlichkeit tritt die Nominalgruppe the village green in diesem Modell auf? (6 Punkte) (c) Das zweite Wort in der aus drei Wörtern bestehenden Nominalgruppe a...village wurde nicht erkannt. Wie lautet die wahrscheinlichste Ergänzung? (12 Punkte) (d) Geben Sie die Wahrscheinlichkeit an, eine Nominalgruppe zu beobachten, die aus genau k Wörtern (k = 0, 1, 2,...) besteht! (4 Punkte)

Seite 6 von 10 Aufgabe 3 Generatives Modell (22 Punkte) Ein Freund behauptet, das Ergebnis eines Münzwurfs (Kopf oder Zahl) mittels seiner magischen Kräfte beeinflussen zu können. Zum Beweis wirft er die Münze 10-mal und erzielt 8-mal das Ergebnis Zahl. Sie vermuten allerdings, dass dies ein Trick mit einer präparierten Münze ist. (a) Welche Wahrscheinlichkeitsverteilung hat die Zahl der Erfolge k (hier das Ergebnis Zahl) in einer Reihe von n unabhängigen Versuchen, wenn in jedem Versuch die Erfolgswahrscheinlichkeit p beträgt? (4 Punkte) (b) Wie viele Erfolge in 10 Versuchen erwarten Sie mit einer normalen Münze, bei der das Ergebnis Zahl mit der Wahrscheinlichkeit p = 0.5 auftritt? (2 Punkte) (c) Bei einem Versandhändler werden Zaubermünzen mit p = 0.7 angeboten. Wie wahrscheinlich ist das Resultat, das Ihr Freund erziehlt hat, wenn es sich um eine solche Münze handelt? (4 Punkte)

Seite 7 von 10 (d) Zeigen Sie, dass die Wahl p = k/n die Wahrscheinlichkeit maximiert, k Erfolge in n Versuchen zu beobachten! (6 Punkte) (e) Vergleichen Sie die beiden Hypothesen p = 0.5 und p = 0.7 für die Erfolgswahrscheinlichkeit. Wie wahrscheinlich sind diese nach der Beobachtung der 8 Erfolge in 10 Versuchen, wenn Sie beide vorher als gleichwahrscheinlich angesehen haben und andere Möglichkeiten ausschließen? (6 Punkte)

Seite 8 von 10 Aufgabe 4 Neuronales Netz (18 Punkte) Betrachten Sie ein Perzeptron mit zwei reellwertigen Eingabeneuronen e 1 und e 2, zwei Gewichten w 1 und w 2 sowie einem Bias w 0. Für das lokale Feld h gilt h = w 1 e 1 + w 2 e 2 w 0 und zur Berechnung der Ausgabe a wird die Aktivierungsfunktion { +1 für h > 0 a = sgn(h) = 1 für h 0 verwendet. Alle Gewichte und der Bias werden mit 1 initialisiert. Das Perzeptron soll nun die folgenden Beispiele (Soll-Ausgabe y) lernen: e 1 1 1 +2 +3 e 2 1 +3 +2 1 y 1 +1 1 +1 (a) Welche der vier Beispiele werden vom Perzeptron ohne eine Anpassung der Gewichte falsch klassifiziert? (4 Punkte) (b) Wie ändern sich die Gewichte, wenn das neuronale Netz gemäß der Perzeptron-Lernregel mit jedem Beispiel einmal trainiert wird? Verwenden Sie λ = 0.1 als Lernrate und passen Sie auch den Bias w 0 an. (4 Punkte)

Seite 9 von 10 (c) Stellen Sie das Klassifikationsproblem in der e 1 -e 2 -Ebene graphisch dar und lösen Sie es durch möglichst wenige lineare Entscheidungsgenzen! (6 Punkte) (d) Kann ein Perzeptron die Beispiele bei genügend langem Training exakt lernen? Begründen Sie Ihre Antwort! (2 Punkte) (e) Verändern Sie die Lernbarkeit der Trainingsmenge (für ein Perzeptron) durch Hinzufügen oder Weglassen eines Beispiels! (2 Punkte)

Seite 10 von 10 Anhang darf abgetrennt werden Aufgabe 1: Ergebnisse der Studie Test 1 erkennt (T 1 = w) einen Leberschaden (L = w) nur mit 90% Wahrscheinlichkeit. Eine gesunde Leber (L = f) führt aber in 99% aller Untersuchungen zu einem negativen Testergebnis (T 1 = f). Test 2 ist mit 95% Wahrscheinlichkeit positiv (T 2 = w), wenn der jeweilige Proband tatsächlich einen Leberschaden hat (L = w). Mit derselben Wahrscheinlichkeit fällt der Test negativ (T 2 = f) aus, wenn die Leber in Ordnung ist (L = f). Die Genauigkeit beider Tests wird nicht dadurch beeinflusst, ob die Versuchsperson Alkohol konsumiert (A = w) oder nicht (A = f). In der untersuchten Gruppe lag das Risiko (Wahrscheinlichkeit) für einen Leberschaden bei 10 2 für Probanden mit Alkoholkonsum, sonst nur bei 10 4. Ein Anteil von 25% der Studienteilnehmer trinkt regelmäßig Alkohol (A = w). Aufgabe 2: Sprachmodell x i x i+1 P(x i+1 x i ) Start Artikel 1.0 Artikel Adjektiv 0.3 Artikel Substantiv(1) 0.4 Artikel Substantiv(2) 0.3 Adjektiv Adjektiv 0.5 Adjektiv Substantiv(2) 0.5 Substantiv(1) Substantiv(2) 1.0 Substantiv(2) Stop 1.0 x i y i P(y i x i ) Artikel the 0.8 Artikel a 0.2 Adjektiv small 0.5 Adjektiv green 0.5 Substantiv(1) village 0.6 Substantiv(1) green 0.4 Substantiv(2) village 0.6 Substantiv(2) green 0.4 Aufgabe 3: Generatives Modell Ein Freund behauptet, das Ergebnis eines Münzwurfs (Kopf oder Zahl) mittels seiner magischen Kräfte beeinflussen zu können, wenn er die Münze selbst wirft. Zum Beweis wirft er die Münze 10-mal und erzielt 8-mal das Ergebnis Zahl. Sie vermuten, dass dies ein Trick mit einer präparierten Münze ist. Aufgabe 4: Trainingsmenge des Perzeptrons e 1 1 1 +2 +3 e 2 1 +3 +2 1 y 1 +1 1 +1