Methoden der KI in der Biomedizin Bayes Netze 2

Größe: px
Ab Seite anzeigen:

Download "Methoden der KI in der Biomedizin Bayes Netze 2"

Transkript

1 Methoden der KI in der Biomedizin Bayes Netze 2 Karl D. Fritscher

2 Exakte Inferenz in Bayesschen Netzwerken Nachteil von Enumeration-ASK: P(j a) P(m A) sind nicht von E abhängig, werden aber zweimal (für e und e) berechnet!

3 Exakte Inferenz in Bayesschen Netzwerken Steigerung der Effizienz des Algorithmus durch 1) Caching von mehrfach auftauchenden Teilergebnissen 2) Variableneliminierung: Theorem: Jede Variable, die kein Vorfahre einer Abfragevariablen oder Evidenzvariablen ist, ist für die Abfrage irrelevant! Beispiel: P(J b) P b P(E) P(a b, E)P(J A) P(M A) E A M P(J b) bleibt unverändert wenn MaryRuftAn aus dem Netwerk entfernt wird. =1

4 Komplexität exakter Inferenz Einfach verbundene Netzwerke (=Polybäume): Es gibt höchstens einen Pfad zwischen 2 Knoten Die Zeit und Speicherkomplexität exakter Inferenz in Polybäumen ist linear zur Größe des Netzwerks Mehrfach verbundene Netzwerke: Mehrere Pfade zwischen 2 Knoten Im schlechtesten Falls exponentielle Zeitund Speicherkomplexität.

5 Clustering-Algorithmen Mehrfach verbundene Netzwerke können in Polybäume übergeführt werden. Ansatz: Gruppen von mehrfach verbundenen Knoten werden zu Megaknoten zusammengefügt Errechne Verteilung der Megaknoten aus Verteilung der Einzelknoten

6 Approximative Inferenz in Bayes-Netzwerken Mit Hilfe von Algorithmen für zufällig angeordnete Stichproben (Monte-Carlo-Algorithmen) sollen (bedingte) Verteilungen durch Entnahme von Stichproben aus dem Bayes Netzwerk ermittelt werden. Bekanntestes Beispiel für die Verwendung von MC Methoden ist die Berechnung von π:

7 Sampling Methoden zur approximativen Inferenz Einfachster Fall: Generierung von Ereignissen für Netzwerke, denen keine Evidenz zugeordnet ist. Die Idee dabei ist, jede Variable nacheinander in topologischer Reihenfolge zu sampeln. Die Wahrscheinlichkeitsverteilung aus welcher der Wert gesampelt wird, ist von den Werten abhängig, die den Elternknoten der Variable bereits zugewiesen wurden.

8 Sampling Methoden zur approximativen Inferenz Wenn N s (x 1,, x n ) die Häufigkeit des spezifischen Ereignisses (x 1,, x n ) ist gilt für N Stichproben:

9 Sampling Methoden zur approximativen Inferenz Beispiel Rasenbewässerung Ergebnis aus Prior-Sample [true,false,true,true]. Die Wahrscheinlichkeit für dieses Ereignis beträgt D.h. bei sehr großem N kann man erwarten, dass 32,4% aller Stichproben diesem Ergebnis entsprechen. Der Standardfehler der Schätzung ist proportional zu 1/ N. Bei N=1000 ist das

10 Sampling Methoden zur approximativen Inferenz Grenzen von PRIOR-SAMPLE Vorhandene Evidenz wird nicht verwendet: P(X) wird approximiert, aber nicht ohne Weiteres P(X e) Lösung: Ablehnungs Sampling (Rejection Sampling) Wird verwendet um bedingte Wahrscheinlichkeiten der Form P(X e), zu ermitteln Algorithmus: Erzeuge Stichproben aus der unbedingten Verteilung, die durch das Netzwerk vorgegeben ist und lehne alle Stichproben ab, die nicht mit der Evidenz übereinstimmen.

11 Sampling Methoden zur approximativen Inferenz Ablehnungs Sampling (Rejection Sampling) Beispiel Rasenbewässerung: Abschätzung von P(Regen Sprinkler=true). Hypothetisches Ergebnis: Aus 100 Stichproben werden 73 zurückgewiesen (Sprinkler = false). Von den verbleibenden 27 ergeben 8 Regen=true und 19 Regen=false P(Regen Sprinkler=true) ~ Normalize(<8;19>)= (<0,296;0.704>) (tatsächlich: <0.3;0.7>) Problem: Der Bruchteil der Stichproben, der konsistent mit der Evidenz e ist, fällt exponentiell, mit steigender Anzahl der Evidenzvariablen. Für komplexe Netzwerke ist dieses Vorgehen daher selten sinnvoll.

12 Sampling Methoden zur approximativen Inferenz Wahrscheinlichkeits-Gewichtung (Likelihood-Weighting) Algorithmus: 1. Lege Werte für Evidenzvariable E fest und sample nur die verbleibenden Variablen Es werden nur Samples generiert, welche mit der Evidenz e konsistent sind 2. Gewichte jedes Sample anhand der Produkte der bedingten Wahrscheinlichkeiten für jede Evidenzvariable bei bekannten Eltern. Ereignisse in denen die tatsächliche Evidenz unwahrscheinlich erscheint sollen weniger Gewicht erhalten

13 Sampling Methoden zur approximativen Inferenz Wahrscheinlichkeits-Gewichtung (Likelihood-Weighting) Beispiel P(Regen Sprinkler = true, NassesGras = true) 1. Setze Gewichtungsvariable w auf Stichprobe aus P(Wolkig)=<0.5;0.5> Ergebnis-Annahme: true 3. Sprinkler ist Evidenzvariable mit Wert true Setze w w x (Sprinkler=true Wolkig=true) = Stichprobe aus P(Regen Wolkig=true) =<0.8;0.2> Ergebnis-Annahme: true 5. NassesGras ist Evidenzvariable mir dem Wert true w w x (NassesGras=true Sprinkler=true, Regen = true) = Ergebnis: [true, true, true, true] mit Gewichtung 0.099

14 Sampling Methoden zur approximativen Inferenz Nachteile von Likelihood-Weighting Bei vielen Evidenzvariablen haben die meisten Samples sehr kleine Gewichtung und wenige Samples mit hoher Gewichtung dominieren.

15 Sampling Methoden zur approximativen Inferenz Inferenz mit MCMC(Markov Chain Monte Carlo)- Algorithmus Ermittle P(X e) mittels MCMC Idee: 1. Starte mit einem zufälligen Ereignis, das die gegebene Evidenz spiegelt 2. Erzeuge neue Ereignisse durch lokale Änderung in Nicht- Evidenz-Variablen 3. Die lokalen Änderungen entsprechen der Wahrscheinlichkeitsverteilung abhängig von den unveränderten Variablen

16 Sampling Methoden zur approximativen Inferenz Inferenz mit MCMC(Markov Chain Monte Carlo)- Algorithmus Erinnerung: (Markov-Decke =Markov-Hülle)

17 Sampling Methoden zur approximativen Inferenz Inferenz mit MCMC(Markov Chain Monte Carlo)- Algorithmus Beispiel Bewässerung, Abfrage P(Regen Sprinkler=true, NassesGras = true): Sprinkler und NassesGras sind auf beobachtete Werte festgelegt. Verborgene Var. Regen und Wolkig sind zufällig initialisiert (Regen= true, Wolkig = false) Ausgangszustand [true, true, false, true] Führe die folgenden Schritte N mal aus: 1. Wolkig wird gesampelt, bei bekannten Werten seiner Markov-Decken- Variablen: P(Wolkig Sprinkler=true, Regen = false) (Details zur Berechnung in Kürze). Ergebnis: Wolkig=false 2. Regen wird gesampelt, bei bekannten Werten seiner Markov-Decken- Variablen: P(Regen Wolkig = false, Sprinkler = true, NassesGras = true) Neuer aktueller Zustand: [false,true,true,true]

18 Sampling Methoden zur approximativen Inferenz Inferenz mit MCMC(Markov Chain Monte Carlo)- Algorithmus Beispiel Bewässerung, Abfrage P(Regen Sprinkler=true, NassesGras = true): Jeder Zustand der im Zuge des oben angeführten Algorithmus besucht wird, ist eine Stichprobe, die zur Schätzung von P(Regen Sprinkler=true, NassesGras = true) beiträgt. Besucht der Algorithmus 20 mal Zustände in denen Regen true ist und 60 Zustände in denen Regen false ist lautet die Antwort auf die Abfrage: Normalize(<20;60>)=<0.25;0.75> Warum funktioniert MCMC??

19 Sampling Methoden zur approximativen Inferenz Ausblick Markov Ketten: Eine Folge diskreter ZufallsvariablenX 0, X 1, heißt Markov Kette mit Zustandsraum S wenn für alle x 0,,x n aus S. X n ist bei gegebenem X n-1 bedingt unabhängig von allen andere Variablen davor

20 Sampling Methoden zur approximativen Inferenz Ausblick Markov Ketten: Übergangswahrscheinlichkeiten werden in einer sog. Transitionsmatrix festgelegt

21 Sampling Methoden zur approximativen Inferenz Ausblick Markov Ketten: Markov Kette ist ein Markov-Prozess mit diskretem Zustandsraum Markov-Prozess: Ein Markov-Prozess ist ein stochastischer Prozess, dessen zukünftige Wahrscheinlichkeitsverteilung nur vom gegenwärtigen Zeitpunkt und vom gegenwärtigen Zustand des Prozesses abhängt und nicht davon, wie der gegenwärtige Zustand erreicht wurde.

22 Sampling Methoden zur approximativen Inferenz Wir wollen nun Samples aus einer vorgegebenen Verteilung P d (x) ziehen (für komplizierte Verteilungen - z. B. vorgegeben durch Bayes Netze - oft schwierig) Idee: Wir konstruieren eine Markov-Kettte, welche für eine beliebigen Zustand X 0, gegen eine stationäre Verteilung P d (X) (=Equilibrium) konvergiert. Anschließend werden Zustände x n, x n+1, gemäß der Verteilung P d gesampelt. Es ist schwierig zu beurteilen, wann das Equilibrium erreicht wurde, deshalb wird der Anfangsteil der Kette (=burn-in phase) verworfen

23 Beispiel: Sampling Methoden zur approximativen Inferenz S={1,2} mit der Transitionsmatrix Simuliere die Kette für 1000 Schritte und notiere N s (1)/N und N s (2)/N für N=1,2,..,1000 mit Initialzustand A (links) und B (rechts)

24 Sampling Methoden zur approximativen Inferenz Der Samplingprozess führt zu einem dynamischen Gleichgewicht, in dem der Zeitabschnitt, der in jedem Zusatand verbracht wurde, auf lange Sicht genau proportional zu seiner bedingten Wahrscheinlichkeit ist

25 Sampling Methoden zur approximativen Inferenz Zurück zu Bayes. Bei gegebener Evidenz e und Nicht-Evidenzvariablen X, können wir Markov-Ketten benutzen um von der Verteilung P(X e) zu sampeln. Dafür erzeugen wir eine Abfolge von Zuständen x 0, x 1,, und verwerfen den initialen Teil der Kette Bei Vorliegen des Equilibriums haben die Samples x k, x k+1, die gewünschte Verteilung P(X e)

26 Sampling Methoden zur approximativen Inferenz KONKRET: Beispiel Bewässerung, Abfrage P(Regen Sprinkler=true, NassesGras = true): Sprinkler und NassesGras sind auf beobachtete Werte festgelegt. Verborgene Var. Regen und Wolkig sind zufällig initialisiert (Regen= true, Wolkig = false) Ausgangszustand [true, true, false, true] Führe die folgenden Schritte N mal aus: 1. Wolkig wird gesampelt, bei bekannten Werten seiner Markov-Decken- Variablen: P(Wolkig Sprinkler=true, Regen = false) (Details zur Berechnung in Kürze). Ergebnis: Wolkig=false 2. Regen wird gesampelt, bei bekannten Werten seiner Markov-Decken- Variablen: P(Regen Wolkig = false, Sprinkler = true, NassesGras = true) Neuer aktueller Zustand: [false,true,true,true]

27 Gibbs Sampling Berechnung von P(X i MarkovDecke(X i )): P(x MarkovDecke(X )) i Das in der vorigen Folie beschriebene Grundkonzept zum Sampling, welches in wiederholender Weise eine Variable auswählt gemäß ihrer bedingten Verteilung einen Wert in Abhängigkeit von den Werten der anderen Variablen erzeugt und die Werte der anderen Variablen in diesem Iterationsschritt unverändert lässt wird als Gibbs-Sampling bezeichnet. i i P(x Eltern(X )) P(y Eltern(Y ) i i i i Y Kinder (X ) i

28 Gibbs Sampling Beispiel FamilyOut, Ermittle: P (F l, d) Starte mit beliebigen Werten für (f, b, h) 1. Sample F aus P(F l, d, b) false 2. Sample B aus P(B f, d) true 3. Sample H aus P(H d) true Wiederhole die Schritte mal, behalte die letzten Zustände. Resultat mittels Gibbs Sampling P (F l, d)~ (bei exakter Inferenz )

29 Vergleich der Inferenz Algorithmen Inferenz durch Aufzählung ist in der Praxis zu rechenintensiv Variableneliminierung entfernt alle irrelevanten Variablen Direktes Sampling aus der Wahrscheinlichkeitsverteilung ist einfach, wenn keine Evidenz berücksichtigt werden muss Rejection Sampling und Likelihood Weighting erhöhen die Effizienz der Berechnung und berücksichtigen Evidenzen MCMC Methoden sind bei großen Netzwerken die effizienteste Variante, Unabhängigkeit der Stichproben geht verloren

30 Beispiel Aus: (1) Lauritzen und Spiegelhalter, 1988 Expertenwissen zur Dyspnoe (Kurzatmigkeit) Die Dyspnoe kann verschiedene Ursachen mit unterschiedlicher Häufigkeit haben. Mögliche Ursachen Tuberkulose, Lungenkrebs, Bronchitis Es gibt auch andere Ursachen Eine Asienreise erhöht das Risiko für die Tuberkulose Rauchen erhöht das Risiko für Lungenkrebs und Bronchitis Mit einer Röntgenuntersuchen kann typischerweise nicht zwischen Lungenkrebs und Tuberkulose unterschieden werden Aus diesem noch schwach strukturierten Wissen müssen nun die Zufallsvariablen mit ihren möglichen Ausprägungen identifiziert werden...

31 Zufallsvariablen Zufallsvariable Variablensymbol Ausprägungen Asienreise A wahr, falsch Raucher Ra wahr, falsch Tuberkulose T wahr, falsch Lungenkrebs L wahr, falsch Bronchitis B wahr, falsch Röntgenbefund Rö wahr, falsch Dyspnoe D wahr, falsch

32 Netzkonstruktion Zunächst sind die Knoten entsprechend zu sortieren und die Richtung der Abhängigkeit zu definieren Wie bereits erwähnt ist die empfohlene Reihenfolge zum Einfügen von Knoten jene, welche der Richtung der Ursächlichkeit folgt: Reisen und Rauchen sind ursächlich für den Zustand der Lunge, dieser ist wiederum ursächlich für die Erkrankungen, die dann bestimmte Befunde zur Folge haben. Dieser Ansatz führt zu einem ersten Graphen:

33 Bayes-Netz 1 Asienreise A Raucher Ra Tuberkulose T Lungenkrebs L Bronchitis B P( Rö, L) Röntgenbefund Dyspnoe Rö D P( D T, L, B) T?

34 Vereinfachung Zufallsvariable Variablensymbol Ausprägungen Asienreise A wahr, falsch Raucher Ra wahr, falsch Tuberkulose T wahr, falsch Lungenkrebs L wahr, falsch Bronchitis B wahr, falsch Röntgenbefund Rö wahr, falsch Dyspnoe D wahr, falsch Tuberkulose oder Lungenkrebs TL wahr, falsch

35 Bayes-Netz 2 Asienreise 1:A P(A) Raucher 2:Ra P(Ra) Tuberkulose 3:T P( T A) Lungenkrebs 4:L P( L Ra) Bronchitis 5:B P( B Ra) P( Rö TL) Röntgenbefund 7:Rö Tub. od. Lu. 6:TL P( TL T, L) Dyspnoe 8:D P( D TL, B)

36 Füllen des Netzes Zur Repräsentation der Real-Domäne müssen nun die (bedingten) Wahrscheinlichkeiten für alle Knoten angegeben werden. Typischerweise ist dieses Wissen nur teilweise statistisch begründet fehlende Statistik wird durch sinnvolle Schätzungen ergänzt. Werte für Beispiel-Netz nach (1): Knoten P(...) Wert 1:A A 0,01 2:Ra Ra 0,50 3:T T A T -A 4:L L Ra L -Ra 5:B B Ra 6:TL 7:Rö B -Ra TL L,T TL L,-T TL -L,T TL -L,-T Rö TL Rö -TL 8:D D B,TL D B,-TL D -B,TL D -B,-TL 0,05 0,01 0,10 0,01 0,60 0,30 1,00 1,00 1,00 0,00 0,98 0,05 0,90 0,80 0,70 0,10

37 Anwendung Beispiel: Gesucht ist P(Rö A) P(Rö A,S) Möglichkeiten für Lösung: Berechnung zu Fuß Berechnung mittels HUGIN

38 HUGIN: HUGIN Bayes-Netz basiertes Expertensystem-Framework

39 Literatur Karl-Rudolf Koch, Einführung in die Bayes-Statistik, Springer, Berlin; Auflage: 1 (21. Januar 2000) Olivier Pourret, Patrick Naïm, Bruce Marcot, Bayesian Networks: A Practical Guide to Applications, John Wiley & Sons; Auflage: 1. Auflage (20. März 2008) Basilio Sierra, Iñaki Inza and Pedro Larrañaga, Medical Bayes Networks, Lecture Notes in Computer Science, Medical Data Analysis, Vol. 1933/2000, pp Andersen, S. K., Olesen, K. G., Jensen, F. V. and Jensen, F.: 1989, HUGIN A shell for building Bayesian belief universes for expert systems, in N. S. Sridharan (ed.), Proceedings of the 11th International Joint Conference on Artificial Intelligence, Morgan Kaufmann Publishers, San Mateo, CA, pp Also reprinted in Shafer and Pearl (1990). Lauritzen, S.L., Spiegelhalter, D.J.: Local Computations with Probalities on Graphical Structures and their Application to Expert Systems, J. R. Statist. Soc. B, 50(2):

Methoden der KI in der Biomedizin Bayes Netze

Methoden der KI in der Biomedizin Bayes Netze Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze

Mehr

Übungen zur Vorlesung Statistische Methoden Kapitel 1-2

Übungen zur Vorlesung Statistische Methoden Kapitel 1-2 TECHNISCHE UNIVERSITÄT DORTMUND Sommersemester 2011 FAKULTÄT STATISTIK Dr. M. Arnold Dipl.-Stat. R. Walter Übungen zur Vorlesung Statistische Methoden Kapitel 1-2 Aufgabe 1: Gegeben ist eine diskrete Zufallsvariable

Mehr

Bayes sche und probabilistische Netze

Bayes sche und probabilistische Netze Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung

Mehr

Markov-Ketten: Simulation von Gaspartikeln im Raum

Markov-Ketten: Simulation von Gaspartikeln im Raum Markov-Ketten: Simulation von Gaspartikeln im Raum Teilnehmer: Eduard Cristian Fedorca Fabian Georgi Lorenz Hufe John Huynh Alexander März Thanh Loc Nguyen Hoang Jonas Rösener David Todorov Herder-Gymnasium

Mehr

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren

Mehr

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger

Mehr

Elektrotechnik und Informationstechnik

Elektrotechnik und Informationstechnik Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes

Mehr

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Syntaktische und Statistische Mustererkennung. Bernhard Jung Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel

Mehr

Das Pagerank-Verfahren (und Markovketten) 16. Dezember 2013

Das Pagerank-Verfahren (und Markovketten) 16. Dezember 2013 Das Pagerank-Verfahren (und Markovketten) 16. Dezember 2013 Gegeben: Eine Sammlung von N Web-Seiten, die (teilweise) { untereinander verlinkt sind. 1 wenn Seite i auf Seite j verweist Sei L ij = 0 sonst

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Künstliche Intelligenz Unsicherheit Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Rückblick Agent in der Wumpuswelt konnte Entscheidungen

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Gambler s Ruin. B ist die Bank ) 4/40

Gambler s Ruin. B ist die Bank ) 4/40 Gambler s Ruin Zwei Spieler A und B spielen ein Spiel um m Franken. Spieler A hat a Franken, Spieler B hat b = m a Franken. In jeder Runde wird um 1 Franken gespielt. A gewinnt eine Runde mit W keit p,

Mehr

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

5. Kolmogorov-Smirnov-Test und χ 2 -Anpassungstest

5. Kolmogorov-Smirnov-Test und χ 2 -Anpassungstest Empirische Wirtschaftsforschung Prof. Dr. Ralf Runde 5. Kolmogorov-Smirnov-Test und χ 2 -Anpassungstest Ein wesentliches Merkmal nichtparametrischer Testverfahren ist, dass diese im Allgemeinen weniger

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

7 Markov-Ketten. 7.1 Grundlegendes zu Markov-Ketten

7 Markov-Ketten. 7.1 Grundlegendes zu Markov-Ketten 58 7 Markov-Ketten 7. Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.

Mehr

Algorithmen in der Sekundarstufe I

Algorithmen in der Sekundarstufe I Algorithmen in der Sekundarstufe I Am Ende der Primarstufe sollte Schüler/innen diese Grundkonzepte kennen und anwenden können: Abläufe planen und ausführen wenn Wand berührt, dann Spiel verloren Vom Problem

Mehr

METHODEN HÖHERER LÖSUNG Kapitel 6 Mareike Börsch Universität Trier

METHODEN HÖHERER LÖSUNG Kapitel 6 Mareike Börsch Universität Trier METHODEN HÖHERER LÖSUNG Kapitel 6 Mareike Börsch Universität Trier 02.12.2010 Überblick 1. Wiederholung 2. Lineare Methoden 3. Limiter und Slope Limiter Methoden 4. Fluss Limiter Funktionen 5. Harten Theorem

Mehr

() BEISPIELE: (.) Aus einer Urne mit mindestens zwei roten Kugeln und mindestens zwei schwarzen Kugeln werden nacheinander zwei Kugeln blind (= zuf ll

() BEISPIELE: (.) Aus einer Urne mit mindestens zwei roten Kugeln und mindestens zwei schwarzen Kugeln werden nacheinander zwei Kugeln blind (= zuf ll VIII WAHRSCHEINLICHKEITSTHEORIE VIII. Zufallsexperimente Ereignisse Wahrscheinlichkeit Zufallsvariable Ein Zufallsexperiment ist ein beliebig oft unter gleichen Bedingungen wiederholbares Experiment mit

Mehr

Bayessche Netzwerke und ihre Anwendungen

Bayessche Netzwerke und ihre Anwendungen Bayessche Netzwerke und ihre Anwendungen 1. Kapitel: Grundlagen Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863) Fakultät für Informatik

Mehr

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Inhalt Grundlagen aus der Wahrscheinlichkeitsrechnung Hypothesenwahl Optimale Bayes Klassifikator Naiver Bayes Klassifikator

Mehr

Graphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i])

Graphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i]) Seminar über Algorithmen 19. November 2013 Michael Brückner Graphische Spiele Wolfgang Mulzer, Yannik Stein 1 Einführung Da in Mehrspielerspielen mit einer hohen Anzahl n N an Spielern die Auszahlungsdarstellungen

Mehr

Aggregationsstrategien für ein Multilevel-Verfahren zur Lösung von Markov-Ketten

Aggregationsstrategien für ein Multilevel-Verfahren zur Lösung von Markov-Ketten Aggregationsstrategien für ein Multilevel-Verfahren zur Lösung von Markov-Ketten Diplomarbeit im Fach Informatik Autor: Claudia Isensee erstellt am: Institut für Simulation und Graphik Fakultät für Informatik,

Mehr

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1 Einführung in die Bayes-Statistik Helga Wagner Ludwig-Maximilians-Universität München WS 2010/11 Helga Wagner Bayes Statistik WS 2010/11 1 Organisatorisches Termine: Montag: 16.00-18.00 AU115 Dienstag:

Mehr

Computer Vision: Kalman Filter

Computer Vision: Kalman Filter Computer Vision: Kalman Filter D. Schlesinger TUD/INF/KI/IS D. Schlesinger () Computer Vision: Kalman Filter 1 / 8 Bayesscher Filter Ein Objekt kann sich in einem Zustand x X befinden. Zum Zeitpunkt i

Mehr

Statistics, Data Analysis, and Simulation SS 2015

Statistics, Data Analysis, and Simulation SS 2015 Mainz, May 12, 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler

Mehr

2. Kartenabfrage für eine Kleingruppenarbeit (3-6 Schülerinnen und Schüler):

2. Kartenabfrage für eine Kleingruppenarbeit (3-6 Schülerinnen und Schüler): A) Einführung 1. Notiere deine positiven Eigenschaften. 2. Kartenabfrage für eine Kleingruppenarbeit (3-6 Schülerinnen und Schüler): Schreibe für jede Mitschülerin/jeden Mitschüler eine positive Eigenschaft

Mehr

BZQ II: Stochastikpraktikum

BZQ II: Stochastikpraktikum BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden

Mehr

Monte Carlo Methoden in Kreditrisiko-Management

Monte Carlo Methoden in Kreditrisiko-Management Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen

Mehr

Schriftliche Anfrage Luca Urgese und Sarah Wyss betreffend «Tätigkeiten und Ausgabenwachstum des Jungen Rates»

Schriftliche Anfrage Luca Urgese und Sarah Wyss betreffend «Tätigkeiten und Ausgabenwachstum des Jungen Rates» An den Grossen Rat 17.5054.02 ED/ P175054 Basel, 26. April 2017 Regierungsratsbeschluss vom 25. April 2017 Schriftliche Anfrage Luca Urgese und Sarah Wyss betreffend «Tätigkeiten und Ausgabenwachstum des

Mehr

X (i) y c x; (ii) d 2 y (y i X? y) 2 c 2 d 2 x N c2 (x i? x) 2 ; N (iii) v y d y y v x d x x ; (iv) K H(y) K H (x) In unserem Fall ist x eine in DM un

X (i) y c x; (ii) d 2 y (y i X? y) 2 c 2 d 2 x N c2 (x i? x) 2 ; N (iii) v y d y y v x d x x ; (iv) K H(y) K H (x) In unserem Fall ist x eine in DM un Gek rzte Fassung erschienen in: das wirtschaftsstudium wisu 2/22 Euro-Eekte in der Statistik Olaf H bler Der Euro ist da und seit Beginn des Jahres 22 auch in Form von Geldscheinen und M nzen Der Umtausch

Mehr

Probabilistisches Tracking mit dem Condensation Algorithmus

Probabilistisches Tracking mit dem Condensation Algorithmus Probabilistisches Tracking mit dem Condensation Algorithmus Seminar Medizinische Bildverarbeitung Axel Janßen Condensation - Conditional Density Propagation for Visual Tracking Michael Isard, Andrew Blake

Mehr

Methoden der KI in der Biomedizin Unsicheres Schließen

Methoden der KI in der Biomedizin Unsicheres Schließen Methoden der KI in der Biomedizin Unsicheres Schließen Karl D. Fritscher Motivation Insofern sich die Gesetze der Mathematik auf die Wirklichkeit beziehen, sind sie nicht sicher. Und insofern sie sich

Mehr

Spickzettel zum Materialpaket: Anlautbilder für DaZ Seite 1 von 5

Spickzettel zum Materialpaket: Anlautbilder für DaZ Seite 1 von 5 Spickzettel zum Materialpaket: Anlautbilder für DaZ Seite 1 von 5 Spickzettel Anlautbilder für DaZ In diesem Spickzettel findet ihr zusätzliche Informationen zum Materialpaket Anlautbilder für DaZ. Insbesondere

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

mathematik und informatik

mathematik und informatik Prof. Dr. Christoph Beierle, Prof. Dr. Gabriele Kern-Isberner Kurs 01845 Methoden der Wissensrepräsentation und -verarbeitung LESEPROBE mathematik und informatik Das Werk ist urheberrechtlich geschützt.

Mehr

Woche 2: Übung Die "Strichliste" - oder: Wie viele Zigaretten rauche ich?

Woche 2: Übung Die Strichliste - oder: Wie viele Zigaretten rauche ich? Die "Strichliste" - oder: Wie viele Zigaretten rauche ich? In dieser Übung geht es darum herauszufinden, wie viele Zigaretten Sie am Tag rauchen oder bislang geraucht haben. Falls Sie noch rauchen, sollten

Mehr

EU-Datenschutz-Grundverordnung: Die Zeit wird knapp

EU-Datenschutz-Grundverordnung: Die Zeit wird knapp EU-Datenschutz-Grundverordnung: Die Zeit wird knapp Keyfacts über DSGVO - Datenschutz wird europaweit vereinheitlicht - Beweislastumkehr stärkt Verbraucher - Gesetz bietet Chancen für Unternehmen In weniger

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Informatik I Für eine feste Zahl. Informatik I Benutzereingaben Eine Funktion factorial Iteration von unten. 18.

Informatik I Für eine feste Zahl. Informatik I Benutzereingaben Eine Funktion factorial Iteration von unten. 18. Informatik I 25. Januar 2011 18. Schleifen und Iteration Informatik I 18. Schleifen und Iteration Jan-Georg Smaus Albert-Ludwigs-Universität Freiburg 25. Januar 2011 18.1 Für eine feste Zahl 18.2 Benutzereingaben

Mehr

Mit einem Touch zum Ticket

Mit einem Touch zum Ticket Mit einem Touch zum Ticket Das sich ständig ändernde Mobilitätsverhalten der Bevölkerung stellt Verkehrsunternehmen vielmals vor neue Herausforderungen. Gerade mit der Einführung des Mobile Ticketing,

Mehr

Die Biegelinie und deren Ableitungen

Die Biegelinie und deren Ableitungen Die Biegelinie und deren Ableitungen Dipl.- Ing. Björnstjerne Zindler, M.Sc. www.zenithpoint.de Erstellt: 28. November 2012 Letzte Revision: 4. April 2015 Inhaltsverzeichnis 1 Einleitung 2 2 Die Einheiten

Mehr

EINSTELLUNGEN UND VERHALTENSWEISEN ZUR GELDANLAGE IN DEUTSCHLAND UND DEN USA ANLEGER-STUDIE DER QUIRIN BANK KERNERGEBNISSE IN DER ÜBERSICHT -

EINSTELLUNGEN UND VERHALTENSWEISEN ZUR GELDANLAGE IN DEUTSCHLAND UND DEN USA ANLEGER-STUDIE DER QUIRIN BANK KERNERGEBNISSE IN DER ÜBERSICHT - Sperrfrist: 20102016, 1030 Uhr EINSTELLUNGEN UND VERHALTENSWEISEN ZUR GELDANLAGE IN DEUTSCHLAND UND DEN USA ANLEGER-STUDIE DER QUIRIN BANK 2016 - KERNERGEBNISSE IN DER ÜBERSICHT - Berlin, 20102016 Untersuchungsdaten:

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

GEODÄTISCHES INSTITUT HANNOVER

GEODÄTISCHES INSTITUT HANNOVER Alexander Dorndorf, M.Sc. GEODÄTISCHES INSTITUT HANNOVER Entwicklung eines robusten Bayesschen Ansatzes für klein-redundante Ausgleichungsmodelle Motivation Funktionaler Zusammenhang: h = β 0 + β 1 x +

Mehr

Graphentheorie (Teschl/Teschl 15-17)

Graphentheorie (Teschl/Teschl 15-17) Graphentheorie (Teschl/Teschl 15-17) Ein Graph besteht aus Knoten, die durch Kanten miteinander verbunden sind. graphen.pdf, Seite 1 Anwendungen Netzwerke (Verkehr, Daten,...) Datenstrukturen Suchbäume

Mehr

PROFILE FÜR ENDLOSE SUPER FLEX RIEMEN Konstruktionshinweise

PROFILE FÜR ENDLOSE SUPER FLEX RIEMEN Konstruktionshinweise SUPER FLEX SYNCHRONRIEMEN AUS POLYURETHAN PROFILE FÜR ENDLOSE SUPER FLEX RIEMEN Konstruktionshinweise SUPER FLEX RIEMEN UNBEGRENZTE MÖGLICHKEITEN Mit mehr als 3000 erhältlichen Profilen aus unserem Formen-Sortiment

Mehr

Nutzen Sie das Inhaltsmenü: Die Schnellübersicht führt Sie zu Ihrem Thema. Die Kapitelüberschriften führen Sie zur Lösung.

Nutzen Sie das Inhaltsmenü: Die Schnellübersicht führt Sie zu Ihrem Thema. Die Kapitelüberschriften führen Sie zur Lösung. Nutzen Sie das Inhaltsmenü: Die Schnellübersicht führt Sie zu Ihrem Thema. Die Kapitelüberschriften führen Sie zur Lösung. Richtig abgesichert... 7 Abkürzungen... 9 1 Wer ist hilfebedürftig... 11 2 3 4

Mehr

Grundlagen der Objektmodellierung

Grundlagen der Objektmodellierung Grundlagen der Objektmodellierung Daniel Göhring 30.10.2006 Gliederung Grundlagen der Wahrscheinlichkeitsrechnung Begriffe zur Umweltmodellierung Bayesfilter Zusammenfassung Grundlagen der Wahrscheinlichkeitsrechnung

Mehr

Schall / Akustik. Verfasser: unbekannt

Schall / Akustik. Verfasser: unbekannt Zitat: Auf dem Gebiet der Schalltechnik wurden so viele Misskonzeptionen, Halbwahrheiten und Irrtümer propagiert, dass man denken könnte, dass es die Alchemie als schwarze Kunst des 20. Jahrhunderts ersetzt

Mehr

Ergebnisbericht Kompetenztest 2012/2013 Deutsch, Klasse 3

Ergebnisbericht Kompetenztest 2012/2013 Deutsch, Klasse 3 Ergebnisbericht Kompetenztest 12/13 Deutsch, Klasse 3 Grundschule Gornau Sehr geehrte Lehrerin, sehr geehrter Lehrer, der vorliegende Ergebnisbericht enthält die Testergebnisse Ihrer Klasse 3 in zusammengefasster

Mehr

Grundlagen, Einführung, Begriffe

Grundlagen, Einführung, Begriffe Grundlagen, Einführung, Begriffe SysML Was ist ein System? Aufgaben des Systems Engineering Modellierung eines Systems Was ist SysML Astah SysML Tool Dr. Beatrice Amrhein Was ist ein System? 2 System EinSystem

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Klimawandel in Mittelgebirgsregionen eine wissenschaftliche Herausforderung

Klimawandel in Mittelgebirgsregionen eine wissenschaftliche Herausforderung Helmholtz Climate Initiative Regional Climate Change Klimawandel in Mittelgebirgsregionen eine wissenschaftliche Herausforderung CENTER FOR DISASTER MANAGEMENT AND RISK REDUCTION TECHNOLOGY Prof. Christoph

Mehr

Erzeugung zufälliger Graphen und Bayes-Netze

Erzeugung zufälliger Graphen und Bayes-Netze Erzeugung zufälliger Graphen und Bayes-Netze Proseminar Algorithmen auf Graphen Georg Lukas, IF2000 2002-07-09 E-Mail: georg@op-co.de Folien: http://op-co.de/bayes/ Gliederung 1. Einleitung 2. einfache

Mehr

Schwimmverein Zwickau von 1904 e.v. Zwickau, den S A T Z U N G. Schwimmverein Zwickau von 1904 e.v.

Schwimmverein Zwickau von 1904 e.v. Zwickau, den S A T Z U N G. Schwimmverein Zwickau von 1904 e.v. Schwimmverein Zwickau von 1904 e.v. Zwickau, den 04.05.2011 S A T Z U N G Schwimmverein Zwickau von 1904 e.v. I. Name und Sitz 1 Der Verein führt den Namen Schwimmverein Zwickau von 1904 e.v.. Die offizielle

Mehr

lyondellbasell.com Altern und präventive Gesundheit

lyondellbasell.com Altern und präventive Gesundheit Altern und präventive Gesundheit Altersbedingte Gesundsheitsprobleme Existieren altersbedingte Gesundheitsprobleme wirklich? Globale Studien zeigen, dass gewisse Erkrankungen oder Beschwerden in einem

Mehr

Aufgabe 1 Probabilistische Inferenz

Aufgabe 1 Probabilistische Inferenz Seite 1 von 8 Aufgabe 1 Probabilistische Inferenz (28 Punkte) Die BVG will besser auf Ausfälle im S-Bahn-Verkehr eingestellt sein. Sie geht dabei von folgenden Annahmen aus: An 20% der Tage ist es besonders

Mehr

Institut für Informatik

Institut für Informatik Technische Universität München Institut für Informatik Lehrstuhl für Computer Graphik & Visualisierung WS 2010 Praktikum: Grundlagen der Programmierung Lösungsblatt 2 Prof. R. Westermann, A. Lehmann, R.

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze

Mehr

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität Volker Tresp 1 Einführung Bisher haben wir uns fast ausschließich mit überwachtem Lernen beschäftigt: Ziel war es, eine (oder mehr als eine)

Mehr

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k

Mehr

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp Datenanalyse (PHY31) Herbstsemester 015 Olaf Steinkamp 36-J- olafs@physik.uzh.ch 044 63 55763 Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und

Mehr

Latente Dirichlet-Allokation

Latente Dirichlet-Allokation Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert

Mehr

Dritter Tarifvertrag

Dritter Tarifvertrag Dritter Tarifvertrag zur Änderung des Tarifvertrags für die Ärztinnen und Ärzte im Krankenhaus Märkisch-Oderland - 3. ÄndTV/TV-Ärzte/MOL - vom 21. Juni 2016 Zwischen der Krankenhaus Märkisch-Oderland GmbH

Mehr

Bundesrat zu (3) Drucksache 6/17 (Beschluss) (2) Unterrichtung durch die Europäische Kommission

Bundesrat zu (3) Drucksache 6/17 (Beschluss) (2) Unterrichtung durch die Europäische Kommission Bundesrat zu (3) Drucksache 6/17 (Beschluss) (2) 08.09.17 Unterrichtung durch die Europäische Kommission Stellungnahme der Europäischen Kommission zu dem Beschluss (2) des Bundesrates zum Vorschlag für

Mehr

Wahrscheinlichkeitstheorie 2

Wahrscheinlichkeitstheorie 2 Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):

Mehr

BSc Bioinformatik Wintersemester 2013/2014 Nachklausur zur Statistik I Freie Universität Berlin

BSc Bioinformatik Wintersemester 2013/2014 Nachklausur zur Statistik I Freie Universität Berlin Sc ioinformatik Wintersemester 013/014 Nachklausur zur Statistik I Freie Universität erlin 4. pril 014 Matrikelnummer Nachname Vorname Unterschrift ufgabe 1 (4 Punkte): Zu einem Wahrscheinlichkeitsraum

Mehr

Raum für Industrie, Mittelstand und Handwerk: modular, zukunftsorientiert

Raum für Industrie, Mittelstand und Handwerk: modular, zukunftsorientiert Raum für Industrie, Mittelstand und Handwerk: modular, zukunftsorientiert Unsere Schnellste zuerst: die TRANSFEREXPRESS Unsere vielseitigste Halle ist die TRANSFEREXPRESS, eine veritable Schnellbauhalle.

Mehr

Simulationsmethoden in der Bayes-Statistik

Simulationsmethoden in der Bayes-Statistik Simulationsmethoden in der Bayes-Statistik Hansruedi Künsch Seminar für Statistik, ETH Zürich 6. Juni 2012 Inhalt Warum Simulation? Modellspezifikation Markovketten Monte Carlo Simulation im Raum der Sprungfunktionen

Mehr

2.1 Importance sampling: Metropolis-Algorithmus

2.1 Importance sampling: Metropolis-Algorithmus Kapitel 2 Simulationstechniken 2.1 Importance sampling: Metropolis-Algorithmus Eine zentrale Fragestellung in der statistischen Physik ist die Bestimmung von Erwartungswerten einer Observablen O in einem

Mehr

Parametertests und Modellvergleiche in Strukturgleichungsmodellen

Parametertests und Modellvergleiche in Strukturgleichungsmodellen Parametertests und Modellvergleiche in Strukturgleichungsmodellen Um mit Strukturgleichungsmodellen inhaltliche Hypothesen zu prüfen, genügt es meist nicht, nur ein einziges, den Hypothesen entsprechendes

Mehr

Praktikum zu Einführung in die Informatik für LogWiIngs und WiMas Wintersemester 2016/17. Vorbereitende Aufgaben

Praktikum zu Einführung in die Informatik für LogWiIngs und WiMas Wintersemester 2016/17. Vorbereitende Aufgaben Praktikum zu Einführung in die Informatik für LogWiIngs und WiMas Wintersemester 2016/17 Fakultät für Informatik Lehrstuhl 14 Lars Hildebrand, Marcel Preuß, Iman Kamehkhosh, Alexander Lochmann Übungsblatt

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Mathematik. Zentrale schriftliche Abiturprüfung Leistungskurs mit CAS Aufgabenvorschlag. Aufgabenstellung 1. Aufgabenstellung 2

Mathematik. Zentrale schriftliche Abiturprüfung Leistungskurs mit CAS Aufgabenvorschlag. Aufgabenstellung 1. Aufgabenstellung 2 Ministerium für Bildung, Jugend und Sport Senatsverwaltung für Bildung, Jugend und Wissenschaft Zentrale schriftliche Abiturprüfung 2015 Aufgabenvorschlag Hilfsmittel: Gesamtbearbeitungszeit: Nachschlagewerk

Mehr

Vorhersage von Protein-Funktionen. Patrick Pfeffer

Vorhersage von Protein-Funktionen. Patrick Pfeffer Vorhersage von Protein-Funktionen Patrick Pfeffer Überblick Motivation Einleitung Methode Markov Random Fields Der Gibbs Sampler Parameter-Schätzung Bayes sche Analyse Resultate Pfeffer 2 Motivation Es

Mehr

3 Wahrscheinlichkeitstheorie

3 Wahrscheinlichkeitstheorie Einige mathematische Konzepte 3 Wahrscheinlichkeitstheorie 3.1 Wahrscheinlichkeit Die Wahrscheinlichkeitstheorie modelliert Situationen, in denen Unsicherheit über bestimmte Aspekte der Umwelt vorherrscht.

Mehr

Population und Stichprobe: Wahrscheinlichkeitstheorie

Population und Stichprobe: Wahrscheinlichkeitstheorie Population und Stichprobe: Wahrscheinlichkeitstheorie SS 2001 4. Sitzung vom 15.05.2001 Wahrscheinlichkeitstheorie in den Sozialwissenschaften: Stichprobenziehung: Aussagen über Stichprobenzusammensetzung

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Die Türen weit öffnen

Die Türen weit öffnen Informationen aus dem Institut der deutschen Wirtschaft Köln Ausländische Studenten 17.05.2012 Lesezeit 3 Min. Die Türen weit öffnen Obwohl sie der deutsche Arbeitsmarkt gut gebrauchen könnte, wollen viele

Mehr

Statistische Matching-Verfahren

Statistische Matching-Verfahren Statistische Matching-Verfahren Erste Statistik-Tage 2012 Bamberg Fürth 26./27. Juli 2012 in Bamberg Prof. Dr. Susanne Rässler Lehrstuhl für Statistik und Ökonometrie in den Sozial- und Wirtschaftswissenschaften

Mehr

Kompetenzmodell Informatik 5. Klasse (Version )

Kompetenzmodell Informatik 5. Klasse (Version ) Kompetenzmodell Informatik 5. Klasse (Version 29.5.2015) Informationstechnologie, Mensch und Gesellschaft Bedeutung von Informatik in der Gesellschaft Bereiche für den Einsatz von Informatiksystemen und

Mehr

Statistische Methoden der Datenanalyse

Statistische Methoden der Datenanalyse Statistische Methoden der Datenanalyse Vorlesung im Sommersemester 2008 H. Kolanoski Humboldt-Universität zu Berlin Inhaltsverzeichnis Literaturverzeichnis iii 1 Grundlagen der Statistik 3 1.1 Wahrscheinlichkeit............................

Mehr

3. Kapitel: Arbeiten mit Bayesschen Netzwerken. Fakultät für Informatik Universität der Bundeswehr München FT Dozent: Dr.

3. Kapitel: Arbeiten mit Bayesschen Netzwerken. Fakultät für Informatik Universität der Bundeswehr München FT Dozent: Dr. Bayessche Netzwerke und ihre Anwendungen 3. Kapitel: Arbeiten mit Bayesschen Netzwerken Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863)

Mehr

1.2. Ergänzende und abweichende Bestimmungen zu den FIDE-Regeln

1.2. Ergänzende und abweichende Bestimmungen zu den FIDE-Regeln Turnierordnung 1. Spielregeln 1.1. FIDE-Regeln Es wird nach den Regeln der FIDE gespielt, die zum Zeitpunkt der letzten Spielerversammlung gültig waren. Abweichungen gibt es nur, wenn die Turnierordnung

Mehr

Zulassungsordnung für den Masterstudiengang Betriebswirtschaftslehre

Zulassungsordnung für den Masterstudiengang Betriebswirtschaftslehre Zulassungsordnung für den Masterstudiengang Betriebswirtschaftslehre Vom 16. März 2015 Aufgrund von 59 Abs. 1 Satz 1 und 2 des Landeshochschulgesetzes vom 01. Januar 2005 (GBl. 2005, S. 1), zuletzt geändert

Mehr

Statistik II SoSe 2006 immer von 8:00-9:30 Uhr

Statistik II SoSe 2006 immer von 8:00-9:30 Uhr Statistik II SoSe 2006 immer von 8:00-9:30 Uhr Was machen wir in der Vorlesung? Testen und Lineares Modell Was machen wir zu Beginn: Wir wiederholen und vertiefen einige Teile aus der Statistik I: Konvergenzarten

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

HLW Graz. 2. Schularbeit 1HL[ Gc 2 ] 6. April Angewandte Mathematik

HLW Graz. 2. Schularbeit 1HL[ Gc 2 ] 6. April Angewandte Mathematik Sa 2 2. Schularbeit 1HL[ Gc 2 ] 6. April 2011 Md 2 A 1. Forme die Gleichung p V = R s T nach T um (Gesetz von Gay-Lussac, mit p = Druck, V = Volumen, R s ist die Gaskonstante und T die Temperatur in Kelvin)!

Mehr

Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 2011/2012

Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 2011/2012 Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 011/01 Sandra Uhlenbrock 03.11.011 Die folgende Ausarbeitung wird, basierend auf Branching Processes

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Das Bayes'sche Prinzip

Das Bayes'sche Prinzip Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de

Mehr

Fachbereich Elektrotechnik und Informatik, Fachbereich Mechatronik und Maschinenbau

Fachbereich Elektrotechnik und Informatik, Fachbereich Mechatronik und Maschinenbau Name, Matrikelnummer: Klausur Physik 1 (GPH1) am 9.7.07 Fachbereich Elektrotechnik und Informatik, Fachbereich Mechatronik und Maschinenbau Zugelassene Hilfsmittel: Beiblätter zur Vorlesung Physik 1 ab

Mehr

Christoph Pohl M.Sc. Prof. Dr. Peter Mandl Hochschule München & Isys Software GmbH

Christoph Pohl M.Sc. Prof. Dr. Peter Mandl Hochschule München & Isys Software GmbH Christoph Pohl M.Sc. Prof. Dr. Peter Mandl Hochschule München & Isys Software GmbH Überblick Hintergrund der Arbeit Herausforderungen Beschreibung des Testmodells Vorstellung MapReduce Logdatenanalyse

Mehr

Beurteilende Statistik

Beurteilende Statistik Beurteilende Statistik Wahrscheinlichkeitsrechnung und Beurteilende Statistik was ist der Unterschied zwischen den beiden Bereichen? In der Wahrscheinlichkeitstheorie werden aus gegebenen Wahrscheinlichkeiten

Mehr