Evidenzpropagation in Bayes-Netzen und Markov-Netzen
|
|
- Gotthilf Langenberg
- vor 5 Jahren
- Abrufe
Transkript
1 Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni /26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
2 Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation Einordnung der Begriffe 2 3 Bedingte Unabhängigkeit Markov-Netz Bayes-Netz 4 Ausblick und Literaturverzeichnis 2/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
3 Motivation Einleitung Motivation Einordnung der Begriffe In vielen Fällen ist unser Wissen: unvollständig Der Zeuge hat das Kennzeichen nicht gesehen. unscharf, unpräzise Das Auto war grün. unsicher Ich bin mir nicht sicher, ob es wirklich ein Audi war. Wir müssen trotzdem agieren! Schließen bei Unschärfe Fuzzy-Logik Schließen unter Unsicherheit Schließen über Eintretenswahrscheinlichkeiten 3/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
4 Einleitung Einordnung der Begriffe Motivation Einordnung der Begriffe Andrej Markov ( ) Markow-Netze (auch Markov Networks) probabilistische (auch graphische Modelle) Thomas Bayes ( ) Bayes-Netze (auch Bayessches-Netze oder Bayesian Networks) 4/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
5 Einleitung Mehrdimensionaler Raum Modellierung eines Weltausschnitts durch einen mehrdimensionalen Raum Beispiel: alle deutschen Autos Dimension Attribut Hersteller, Farbe,... Attribute: erschöpfend, sich gegenseitig ausschließend jedes Auto hat genau einen Hersteller Fahrzeug Punkt im mehrdimensionalen Raum mehrere Fahrzeuge ein Punkt alle Attribute sind gleich ein Punkt kein Fahrzeug Fahrzeug mit den Attributen wurde nicht verkauft 5/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
6 Einleitung Verteilung im mehrdimensionalen Raum wir betrachten nur Wahrscheinlichkeitsverteilungen ordnet jedem Punkt eine Zahl aus dem Intervall [0, 1] zu gibt die Wahrscheinlichkeit an, dass der entsprechende Zustand vorliegt Daten werden geschätzt oder gehen aus statistischen Analysen hervor z.b. relative Häufigkeit mit der Fahrzeuge verkauft wurden 6/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
7 Einleitung Zerlegung der Verteilung Eine Verteilung δ auf einem Raum R kann in Verteilungen φ 1,..., φ n auf niedrigdimensionalen Unterräumen von R (näherungsweise) zerlegt und wieder rekonstruiert werden. Verteilung δ (hochdimensional) effizientere Speicherung aufwendige Berechnung effizientere Berechnung Verteilungen φ 1,..., φ n (niedrigdimensional) Schlussfolgerungen 7/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
8 Einleitung Ein einfaches Beispiel 10 einfache geometrische Objekte, 3 Attribute 8/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
9 Einleitung Die Relation im Folgerungsraum Jeder Kubus repräsentiert ein Tupel. 9/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
10 Schlussfolgern Einleitung Nehmen wir an, wir wissen das Objekt sei grün. Diese Information reduziert den Raum der möglichen Attributkombinationen. Aus diesem Wissen folgt, dass das Objekt ein Dreieck oder Quadrat sein muss und nicht klein sein kann. 10/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
11 Einleitung A-priori-Wissen und Projektionen 11/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
12 Einleitung Zylindrische Erweiterung und ihr Durchschnitt Wir bilden die zylindrische Erweiterung der Projektionen. Der Schnitt entspricht der ursprünglichen Relation 12/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
13 Einleitung Das gleiche Ergebnis kann mit den Projektionen berechnet werden ohne das der 3-dimensionale Raum rekonstruiert werden muss: Das induziert folgendes Netzwerk: 13/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
14 Einleitung Andere Projektionen 14/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
15 Einleitung Zerlegung immer möglich? 15/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
16 Einleitung Eine Wahrscheinlichkeitsverteilung 16/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
17 Einleitung Schlussfolgern - Bedingte Wahrscheinlichkeiten berechnen 17/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
18 Einleitung Das gleiche Ergebnis kann mit den Projektionen berechnet werden ohne das der 3-dimensionale Raum rekonstruiert werden muss: Das induziert folgendes Netzwerk: 18/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
19 Einleitung Bedingte Unabhängigkeit Bedingte Unabhängigkeit Markov-Netz Bayes-Netz Warum funktioniert die im Beispiel? A B C graphentheoretisch: weil der einzige Pfad zwischen A und C durch B geblockt wird wahrscheinlichkeitstheoretisch: weil A bedingt unabhängig von C gegeben das Attribut B ist formal: P(a c b) = P(a b) wobei b die Evidenz ist es gilt auch die Umkehrung: P(c a b) = P(c b) vgl. bedingte Wahrscheinlichkeit: P(x y) = P(x) gdw. x unabhängig von y ist 19/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
20 Markov-Netz Einleitung Bedingte Unabhängigkeit Markov-Netz Bayes-Netz Zerlegung eines ungerichteten Graphen Sei δ die Wahrscheinlichkeitsverteilung über einer Menge von Attributen U = {A 1,..., A r } und (U, E) der Graph G 1 maximale Cliquen N = {M 1,..., M s } ermitteln 2 Funktionen φ i suchen, sodass δ( A i = a i ) = φ i ( A i = a i ) A i U M i N A i M i wobei a i dom(a i ) und dom(a) der Wertebereich des Attributes A ist δ heißt zerlegbar (faktorisierbar) genau dann, wenn die Funktionen φ i existieren G heißt bedingter Unabhängigkeitsgraph für δ G und φ i bilden ein Markov-Netz 20/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
21 Markov-Netz Einleitung Bedingte Unabhängigkeit Markov-Netz Bayes-Netz Beispielgraph: A 1 A 2 A 3 A 4 A 5 A 6 1 maximale Cliquen: M 1 = {A 1, A 2, A 3 }, M 2 = {A 3, A 5, A 6 }, M 3 = {A 2, A 4 }, M 4 = {A 4, A 6 } 2 Zerlegung: δ(a 1 = a 1... A 6 = a 6 ) = φ 1 (A 1 = a 1 A 2 = a 2 A 3 = a 3 ) φ 2 (...) φ 3 (...) φ 4 (...) 21/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
22 Bayes-Netz Einleitung Bedingte Unabhängigkeit Markov-Netz Bayes-Netz Zerlegung eines gerichteten azyklischen Graphen (DAG) Sei δ die Wahrscheinlichkeitsverteilung über einer Menge von Attributen U = {A 1,..., A r } und (U, E) der Graph G Wir betrachten nun die folgende Gleichung δ( A i = a i ) = P(A i = a i A j = a j ) A i U A i U A j parents(a i ) wobei a i dom(a i ) und parents(b) = {C (C, B) E} gilt vgl. Produktsatz: P(x y) = P(x y)ṗ(y) δ heißt zerlegbar (faktorisierbar) genau dann, wenn die obige Gleichung erfüllt ist G heißt bedingter Unabhängigkeitsgraph für δ G und die bedingten Wahrscheinlichkeitsverteilungen bilden ein Bayes-Netz 22/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
23 Bayes-Netz Einleitung Bedingte Unabhängigkeit Markov-Netz Bayes-Netz Beispielgraph: A 1 A 2 A 3 A 4 A 5 A 6 A 7 δ(a 1 = a 1 A 2 = a 2... A 6 = a 6 ) = P(A 1 = a 1 ) P(A 2 = a 2 A 1 = a 1 ) P(A 3 = a 3 ) P(A 4 = a 4 A 1 = a 1 A 2 = a 2 ) P(A 5 = a 5 A 2 = a 2 A 3 = a 3 ) P(A 6 = a 6 A 4 = a 4 A 5 = a 5 ) P(A 7 = a 7 A 5 = a 5 ) 23/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
24 Ausblick Einleitung Ausblick und Literaturverzeichnis Anwendungen für : Medizinische Diagnose Wissen über Abhängigkeiten zwischen Symptomen Krankheiten identifizieren Wahrscheinlichkeitstheoretische Wettervorhersage Langjährige, statistische Daten über Niederschlag in verschiedenen Orten + aktuelle Daten von einem Ort Niederschläge in übrigen Orten Arten der : exakt: numerische Berechnung aproximativ: wenn kein exaktes Verfahren bekannt ist oder zu hohen Aufwand hat symbolisch: es wird eine Funktion von Symbolen (Variablen) ermittelt 24/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
25 Einleitung Ausblick und Literaturverzeichnis Schließen unter Unsicherheit Unsicherheit wird meist durch Wahrscheinlichkeiten modelliert praktische Anwendungen sehr große, hochdimensionale Verteilungen sind nicht zum Schlussfolgern geeignet (zu aufwendig) daher: mehrere kleine, niedrigdimensionale Verteilungen transportiert Wissen zwischen niedrigdimensionalen Verteilungen ein Markov-Netz ist ein ungerichteter Graph und ein Bayes-Netz ein gerichteter azyklischer Graph 25/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
26 Literaturverzeichnis Einleitung Ausblick und Literaturverzeichnis C. Borgelt, H. Timm, and R. Kruse. Graphical Models - Methods for Data Analysis and Mining Cofino, Cano, Sordo, and Gutierrez. Bayesian Networks for Probabilistic Weather Prediction. Technical report, 15th European Conference on Artificial Intelligence, E. Castillo, J. M. Gutierrez, and A. S. Hadi. Expert Systems and Probabilistic Network Models Werner Dilger. Unsicherheit und Probabilistische Schlussfolgerungssysteme. Technical report, Fakultät für Informatik, Technische Universität Chemnitz, April /26 Thomas Thüm in Bayes-Netzen und Markov-Netzen
KI Seminar Vortrag Nr. 9 Unsicheres Wissen. Einleitung. Grundlagen. Wissen Ansätze. Sicherheitsfaktoren. Ansatz Probleme. Schlussfolgerungsnetze
Einleitung KI Seminar 2005 Vortrag Nr. 9 Unsicheres 1 Motivation Vögel können fliegen! 2 : Zuordnung von Wahrheitswerten, Wahrscheinlichkeitsgraden,. zu Aussagen, Ereignissen, Zuständen, 3 3 Eigenschaften
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen
MehrSyntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel
MehrIntelligente Systeme
Intelligente Systeme Unsicheres Wissen Prof. Dr. R. Kruse C. Braune C. Doell {kruse,cmoewes,russ}@iws.cs.uni-magdeburg.de Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke
MehrSemester-Fahrplan 1 / 17
Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD
MehrBayes sche und probabilistische Netze
Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung
MehrÜbersicht. Künstliche Intelligenz: 13. Unsicherheiten Frank Puppe 1
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen 13. Unsicherheiten 14. Probabilistisches Schließen 15. Probabilistisches
MehrWahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung
Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung - 2018 Anwendung der Bayesschen Theorie in ML Bayessche Netzwerke Bayessche Netze werden in modernen Expertensystemen benutzt. Das Wissen wird über
MehrFolien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr
Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der
MehrBayesianische Netzwerke - Lernen und Inferenz
Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel
MehrEinführung in die diskreten Bayes- und Kredal-Netze
Einführung in die diskreten Bayes- und Kredal-Netze Master-Seminar im Wintersemester 2015/16 Patrick Schwaferts Institut für Statistik, LMU 16. Januar 2016 Schwaferts (Institut für Statistik, LMU) Bayes-
MehrMethoden der KI in der Biomedizin Bayes Netze
Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrBayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)
Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief
Mehr8 Einführung in Expertensysteme
8 Einführung in Expertensysteme 22. Vorlesung: Constraints; Probabilistisches Schließen Für die Programmierung von Expertensystemen werden verschiedene Grundtechniken der Wissensrepräsentation und spezielle
MehrDarstellung, Verarbeitung und Erwerb von Wissen
Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 267
MehrIntelligente Systeme
Intelligente Systeme Unsicheres Wissen Prof. Dr. R. Kruse C. Braune {kruse,cbraune}@iws.cs.uni-magdeburg.de Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität
MehrBayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
MehrBayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur
MehrElektrotechnik und Informationstechnik
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit
MehrCommonsense Reasoning
Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2017 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232 Kapitel 4 Grundideen probabilistischen
MehrDefault-Typen und ihre Eigenschaften
Default-Typen und ihre Eigenschaften Es kann von 0 bis beliebig viele Extensionen geben! Beispiele keine: ({: α / α}, {}) mehrere: ({:α /α, : α / α}, {}): Th({α}), Th({ α}) Sind alle Defaults einer Default-Theorie
Mehr12. Verarbeitung unsicheren Wissens
12. Verarbeitung unsicheren Wissens Prof. Dr. Rudolf Kruse University of Magdeburg Faculty of Computer Science Magdeburg, Germany rudolf.kruse@cs.uni-magdeburg.de S 12. Verarbeitung unsicheren Wissens
MehrGraphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i])
Seminar über Algorithmen 19. November 2013 Michael Brückner Graphische Spiele Wolfgang Mulzer, Yannik Stein 1 Einführung Da in Mehrspielerspielen mit einer hohen Anzahl n N an Spielern die Auszahlungsdarstellungen
MehrKonzepte der AI. Unsicheres Schließen
Konzepte der AI Unsicheres Schließen http://www.dbai.tuwien.ac.at/education/aikonzepte/ Wolfgang Slany Institut für Informationssysteme, Technische Universität Wien mailto: wsi@dbai.tuwien.ac.at, http://www.dbai.tuwien.ac.at/staff/slany/
Mehr12. Verarbeitung unsicheren Wissens
12. Verarbeitung unsicheren Wissens Prof. Dr. Rudolf Kruse University of Magdeburg Faculty of Computer Science Magdeburg, Germany rudolf.kruse@cs.uni-magdeburg.de S F UZZY 12. Verarbeitung unsicheren Wissens
MehrCommonsense Reasoning
Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2015 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232 Probabilistische Folgerungsmodelle
MehrBayes-Netze. Vorlesung im Sommersemester 2012
Bayes-Netze Vorlesung im Sommersemester 2012 Organisatorisches Zeit und Ort: Mo 14-16 Cartesium 0.01 Prof. Carsten Lutz Raum Cartesium 2.59 Tel. (218)-64431 clu@uni-bremen.de Position im Curriculum: Modulbereich
MehrMarkov Logik. Matthias Balwierz Seminar: Maschinelles Lernen WS 2009/2010 Prof. Fürnkranz
Markov Logik Matthias Balwierz Seminar: Maschinelles Lernen WS 2009/2010 Prof. Fürnkranz Überblick Markov Netze Prädikatenlogik erster Stufe Markov Logik Inferenz Lernen Anwendungen Software 18.11.2009
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrDr. Johannes Bauer Institut für Soziologie, LMU München. Directed Acyclic Graphs (DAG)
Dr. Institut für Soziologie, LMU München Directed Acyclic Graphs (DAG) Wie ist der Zusammenhang von und Z blockiert den Pfad Mediator 50% = 1 50% = 0 Z Z if =0: 20% if =1: 80% Gegenwsk if Z=0: 20% if Z=1:
MehrInhalt. 6.1 Motivation. 6.2 Klassifikation. 6.3 Clusteranalyse. 6.4 Asszoziationsanalyse. Datenbanken & Informationssysteme / Kapitel 6: Data Mining
6. Data Mining Inhalt 6.1 Motivation 6.2 Klassifikation 6.3 Clusteranalyse 6.4 Asszoziationsanalyse 2 6.1 Motivation Data Mining and Knowledge Discovery zielt darauf ab, verwertbare Erkenntnisse (actionable
MehrQuantitative Methoden Wissensbasierter Systeme
Quantitative Methoden Wissensbasierter Systeme Probabilistische Netze und ihre Anwendungen Robert Remus Universität Leipzig Fakultät für Mathematik und Informatik Abteilung für Intelligente Systeme 23.
MehrElektrotechnik und Informationstechnik
Elektrotechnik und Informationstechnik Institut für utomatisierungstechnik, Professur Prozessleittechnik Bayessche Netze VL Prozessinformationsverarbeitung WS 2009/2010 Problemstellung Wie kann Wissen
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle Modellierung einer Domäne mit verschiedenen
MehrWie liest man Konfidenzintervalle? Teil II. Premiu m
Wie liest man Konfidenzintervalle? Teil II Premiu m - Hintergrund Anderer Wahrscheinlichkeitsbegriff subjektiver Wahrscheinlichkeitsbegriff Beispiel: Was ist die Wahrscheinlichkeit dafür, dass ein Patient
MehrEinführung in die Fuzzy Logik
Einführung in die Fuzzy Logik Einleitung und Motivation Unscharfe Mengen fuzzy sets Zugehörigkeitsfunktionen Logische Operatoren IF-THEN-Regel Entscheidungsfindung mit dem Fuzzy Inferenz-System Schlußbemerkungen
MehrMaschinelle Sprachverarbeitung
Maschinelle Sprachverarbeitung Übung Aufgabe 5: Gen-Erkennung mit Maschinellen Lernen Mario Sänger Problemstellung Erkennung von Genen in Texten NEU: Beachtung von Multi-Token-Entitäten (B-/I-protein)
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2014 / 2015 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrRRL GO- KMK EPA Mathematik. Ulf-Hermann KRÜGER Fachberater für Mathematik bei der Landesschulbehörde, Abteilung Hannover
RRL GO- KMK EPA Mathematik Jahrgang 11 Propädeutischer Grenzwertbegriff Rekursion /Iteration Ableitung Ableitungsfunktion von Ganzrationalen Funktionen bis 4. Grades x 1/(ax+b) x sin(ax+b) Regeln zur Berechnung
MehrBayesnetzmodelle (BNM) in der Kardiologie
Bayesnetzmodelle (BNM) in der Kardiologie Vorgehensmodell - Ergebnisse Claus Möbus - Heiko Seebold Jan-Ole Janssen, Andreas Lüdtke, Iris Najman, Heinz-Jürgen Thole Besonderen Dank an: Herrn Reinke (Münster)
MehrBayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind
Bayessche Netze Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Einleitung Sicheres vs. Unsicheres Wissen Kausale Netzwerke Abhängigkeit Verbindungsarten Exkurs:
MehrMethoden der KI in der Biomedizin Unsicheres Schließen
Methoden der KI in der Biomedizin Unsicheres Schließen Karl D. Fritscher Motivation Insofern sich die Gesetze der Mathematik auf die Wirklichkeit beziehen, sind sie nicht sicher. Und insofern sie sich
Mehr7. Kapitel: Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten
7. Kapitel: Zufallsvorgänge, Ereignisse und Wahrscheinlichkeiten 7.1 Zufallsvorgänge - zufälliges Geschehen/ Zufallsvorgang/ stochastische Vorgang: aus Geschehen/Vorgang/Experiment (mit gegebener Ausgangssituation)
MehrSCHRIFTLICHE ABITURPRÜFUNG Mathematik (Grundkursniveau) Arbeitszeit: 210 Minuten
Mathematik (Grundkursniveau) Arbeitszeit: 210 Minuten Es sind die drei Pflichtaufgaben und eine Wahlpflichtaufgabe zu lösen. Der Prüfling entscheidet sich für eine Wahlpflichtaufgabe. Die zur Bewertung
MehrBayesianische Netzwerke I
Bayesianische Netzwerke I Christiane Belitz 2.5.2003 Überblick Der Vortrag basiert auf Using Bayesian Networks to Analyze Expression Data von Friedman et al. (2000) Definition: Bayesianisches Netzwerk
MehrGrundlagen der Objektmodellierung
Grundlagen der Objektmodellierung Daniel Göhring 30.10.2006 Gliederung Grundlagen der Wahrscheinlichkeitsrechnung Begriffe zur Umweltmodellierung Bayesfilter Zusammenfassung Grundlagen der Wahrscheinlichkeitsrechnung
Mehrdie Geschwindigkeit am Beginn des Bremsvorgangs gleich ist und die Geschwindigkeitsänderung bei diesem gleichmäßigen Bremsvorgang geringer ist!
Aufgabe 4 Bremsweg Ein PKW beginnt zum Zeitpunkt t = gleichmäßig zu bremsen. Die Funktion v beschreibt die Geschwindigkeit v(t) des PKW zum Zeitpunkt t (v(t) in Metern pro Sekunde, t in Sekunden). Es gilt:
MehrTopicmodelle. Gerhard Heyer, Patrick Jähnichen Universität Leipzig. tik.uni-leipzig.de
Topicmodelle Universität Leipzig heyer@informa tik.uni-leipzig.de jaehnichen@informatik.uni-leipzig.de Institut für Informatik Topicmodelle Problem: je mehr Informationen verfügbar sind, desto schwieriger
MehrSCHRIFTLICHE ABITURPRÜFUNG 2011 Mathematik (Leistungskursniveau) Arbeitszeit: 300 Minuten
Mathematik (Leistungskursniveau) Arbeitszeit: 300 Minuten Es sind die drei Pflichtaufgaben und eine Wahlpflichtaufgabe zu lösen. Der Prüfling entscheidet sich für eine Wahlpflichtaufgabe. Die zur Bewertung
MehrÜbungsaufgaben, Statistik 1
Übungsaufgaben, Statistik 1 Kapitel 3: Wahrscheinlichkeiten [ 4 ] 3. Übungswoche Der Spiegel berichtet in Heft 29/2007 von folgender Umfrage vom 3. und 4. Juli 2007:,, Immer wieder werden der Dalai Lama
MehrTheoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,
MehrPlanung von Handlungen bei unsicherer Information
Planung von Handlungen bei unsicherer Information Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 20.01.2010 Dr.-Ing. Bernd Ludwig (FAU ER)
Mehr10.5 Maximum-Likelihood Klassifikation (I)
Klassifikation (I) Idee Für die Klassifikation sind wir interessiert an den bedingten Wahrscheinlichkeiten p(c i (x,y) D(x,y)). y Wenn man diese bedingten Wahrscheinlichkeiten kennt, dann ordnet man einem
MehrData Mining with Graphical Models. Christian Borgelt
Data Mining with Graphical Models Christian Borgelt Otto-von-Guericke-Universität Magdeburg Institut für Wissens- und Sprachverarbeitung http://fuzzy.cs.uni-magdeburg.de/ ο borgelt/ Data Mining, oder auch
MehrONKOLEIT. Ein medizinisches Expertensystem zum Therapiemonitoring von Krebserkrankungen. ITG-Workshop Usability,
ONKOLEIT Ein medizinisches Expertensystem zum Therapiemonitoring von Krebserkrankungen ITG-Workshop Usability, 03.06.2016 Dr.-Ing. Yvonne Fischer yvonne.fischer@iosb.fraunhofer.de +49 (0)721 6091-571 Prof.
MehrDokument Klassifikation. Thomas Uhrig: Data-Mining SS10
Agenda: 1: Klassifizierung allgemein 2: der naive Bayes-Klassifizierer 3: Beispiel 4: Probleme 5: Fazit 6: Quellen 1: Klassifizierung allgemein: 1: Klassifizierung allgemein: - Einordnung von Objekten
MehrBrownsche Bewegung Seminar - Weiche Materie
Brownsche Bewegung Seminar - Weiche Materie Simon Schnyder 11. Februar 2008 Übersicht Abbildung: 3 Realisationen des Weges eines Brownschen Teilchens mit gl. Startort Struktur des Vortrags Brownsches Teilchen
MehrInstitut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle: Inferenz Wir haben eine Domäne durch gemeinsame
Mehrfuzzy-entscheidungsbäume
fuzzy-entscheidungsbäume klassische Entscheidungsbaumverfahren fuzzy Entscheidungsbaumverfahren Entscheidungsbäume Was ist ein guter Mietwagen für einen Familienurlaub auf Kreta? 27. März 23 Sebastian
MehrStatistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze
Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger
MehrBayessche Netzwerke und ihre Anwendungen
Bayessche Netzwerke und ihre Anwendungen 1. Kapitel: Grundlagen Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863) Fakultät für Informatik
MehrAnsätze zur datengetriebenen Formulierung von Strukturhypothesen für dynamische Systeme
Ansätze zur datengetriebenen Formulierung von Strukturhypothesen für dynamische Systeme Christian Kühnert, Lutz Gröll, Michael Heizmann, Ralf Mikut 30.11.2011 Fraunhofer IOSB 1 Motivation CRISP Cross-Industry
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung 2. Vorlesung Dr. Jochen Köhler 25.02.2011 1 Inhalt der heutigen Vorlesung Risiko und Motivation für Risikobeurteilungen Übersicht über die Wahrscheinlichkeitstheorie
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation
MehrNeue Entwicklungen im Data Mining mit Bayesschen Netzen
Neue Entwicklungen im Data Mining mit Bayesschen Netzen Rudolf Kruse und Christian Borgelt Institut für Wissens- und Sprachverarbeitung Otto-von-Guericke Universität Magdeburg Universitätsplatz, D-39106
MehrWahrscheinlichkeitstheorie 2
Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):
MehrAufgabe 1 Probabilistische Inferenz
Seite 1 von 11 Aufgabe 1 Probabilistische Inferenz (28 Punkte) Es existieren zwei Krankheiten, die das gleiche Symptom hervorrufen. Folgende Erkenntnisse konnten in wissenschaftlichen Studien festgestellt
Mehr1. Referenzpunkt Transformation
2.3 Featurereduktion Idee: Anstatt Features einfach wegzulassen, generiere einen neuen niedrigdimensionalen Featureraum aus allen Features: Redundante Features können zusammengefasst werden Irrelevantere
MehrLösungsskizzen zur Präsenzübung 09
Lösungsskizzen zur Präsenzübung 09 Hilfestellung zur Vorlesung Anwendungen der Mathematik im Wintersemester 2015/2016 Fakultät für Mathematik Universität Bielefeld Veröffentlicht am 07. Februar 2016 von:
MehrBerechnung optimaler Bayesscher Netzwerke. Ivo Große IPK Gatersleben Bioinformatikzentrum Gatersleben-Halle
Berechnung optimaler Bayesscher Netzwerke Ivo Große IPK Gatersleben Bioinformatikzentrum Gatersleben-Halle Markov Modelle Markov 0 - Nukleotide statistisch unabhängig - position weight matrix (Staden 1984)
MehrKapitel 6 Wahrheitsfunktionale Fuzzy-Logik. 2. Juni 2005
Kapitel 6 Wahrheitsfunktionale Fuzzy-Logik 2. Juni 2005 Übersicht Wahrheitsfunktionale Fuzzy-Semantik, Eigenschaften, Lukasiewicz-Fuzzy-Logik, McNaughtons Theorem, Nichtstetige Wahrheitsfunktionale Fuzzy-Logik.
MehrTeil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung
Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()
MehrStatistische Methoden für Bauingenieure WS 2013/14. Literatur
Statistische Methoden für Bauingenieure WS 2013/14 Einheit 1: Einführung in die Wahrscheinlichkeitstheorie Univ.Prof. Dr. Christian Bucher Literatur C. Bucher: Computational analysis of randomness in structural
MehrHochschule Darmstadt FB Mathematik und Naturwissenschaften. Statistik. für Wirtschaftsingenieure (B.Sc.) Sommersemester 2017
für Wirtschaftsingenieure (B.Sc.) Sommersemester 017 Dr. rer. nat. habil. E-mail: adam-georg.balogh@h-da.de 1 Hochschule Darmstadt, Fachbereich MN Sommersemester 017 Testklausur zur Vorlesung Wirtschaftsstatistik
MehrStochastik für Ingenieure
Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:
MehrSCHRIFTLICHE ABSCHLUSSPRÜFUNG 2017 REALSCHULABSCHLUSS MATHEMATIK. Pflichtteil 2 und Wahlpflichtteil. Arbeitszeit: 160 Minuten
Pflichtteil 2 und Wahlpflichtteil Arbeitszeit: 160 Minuten Es sind die drei Pflichtaufgaben und eine Wahlpflichtaufgabe zu lösen. Kreuzen Sie die Wahlpflichtaufgabe, die bewertet werden soll, an. Wahlpflichtaufgabe
MehrProtokoll-Erkennung. Andreas Floß Seminar: Internet Measurement Berlin, den 30. Juli 2007
Protokoll-Erkennung Andreas Floß Seminar: Internet Measurement Berlin, den 30. Juli 2007 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Intelligente Netze und Management verteilter
Mehrf(x)dx F(b) F(3) F(b).
Aufgaben aus dem Aufgabenpool. Analysis A_ Die Abbildung zeigt den Graphen der in IR definierten Funktion f. a) Bestimmen Sie mithilfe der Abbildung einen Näherungswert für 5 f(x)dx. ( ) Die Funktion F
Mehr7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.
7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
MehrCommonsense Reasoning
Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2015 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232 Kapitel 4 4. Probabilistische Folgerungsmodelle
MehrSCHRIFTLICHE ABITURPRÜFUNG Mathematik (Leistungskursniveau) Arbeitszeit: 300 Minuten
Mathematik (Leistungskursniveau) Arbeitszeit: 300 Minuten Es sind die drei Pflichtaufgaben und eine Wahlpflichtaufgabe zu lösen. Der Prüfling entscheidet sich für eine Wahlpflichtaufgabe. Wahlpflichtaufgabe
MehrBayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp
Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität Volker Tresp 1 Einführung Bisher haben wir uns fast ausschließich mit überwachtem Lernen beschäftigt: Ziel war es, eine (oder mehr als eine)
MehrAlgorithmen zur Visualisierung von Graphen
Algorithmen zur Visualisierung von Graphen Kombinatorische Optimierung mittels Flussmethoden II Vorlesung im Wintersemester 2011/2012 10.11.2011 Orthogonale Zeichnungen II letztes Mal: Satz G Maxgrad-4-Graph
MehrSCHRIFTLICHE ABITURPRÜFUNG Mathematik (Leistungskursniveau) Arbeitszeit: 300 Minuten
Mathematik (Leistungskursniveau) Arbeitszeit: 300 Minuten Es sind die drei Pflichtaufgaben und eine Wahlpflichtaufgabe zu lösen. Der Prüfling entscheidet sich für eine Wahlpflichtaufgabe. Die zur Bewertung
MehrNaive Bayes für Regressionsprobleme
Naive Bayes für Regressionsprobleme Vorhersage numerischer Werte mit dem Naive Bayes Algorithmus Nils Knappmeier Fachgebiet Knowledge Engineering Fachbereich Informatik Technische Universität Darmstadt
MehrLösungsblatt Aufgabe 1.32
Aufgabenstellung: Die Geschwindigkeit eines Körpers ist für t 1 durch v t = 10 10 gegeben. t 1. Schätze die Länge des im Zeitintervall [1 4] zurückgelegten Weges durch Ober- und Untersumme ab, wobei das
MehrBerechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen
Definition Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen Seminar über Algorithmen WS 2005/2006 Vorgetragen von Oliver Rieger und Patrick-Thomas Chmielewski basierend auf der Arbeit
MehrReferenten: Gina Spieler, Beatrice Bressau, Laura Uhlmann Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn
8.5 Eindimensionale stetige Zufallsvariablen Eine Zufallsvariable X heißt stetig, wenn es eine Funktion f(x) gibt, sodass die Verteilungsfunktion von X folgende Gestalt hat: x F(x) = f(t)dt f(x) heißt
MehrZusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen
Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k
MehrDer diskrete Kalman Filter
Der diskrete Kalman Filter Fachbereich: Informatik Betreuer: Marc Drassler Patrick Winkler 1168954 6. Dezember 2004 Technische Universität Darmstadt Simulation und Systemoptimierung Darmstadt Dribbling
MehrStrukturelle SVM zum Graph-labelling
23. Juni 2009 1 Was wir gerne hätten...... und der Weg dorthin Erinnerung: strukturelle SVM 2 Junction Tree Algorithmus Loopy Belief Propagation Gibbs Sampling 3 Umfang Qualität der Algorithmen Schlussfolgerungen
MehrMap Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.
Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Ergebnis mit minimaler Fréchet-Distanz Annahme: Fahrer wählen bevorzugt kürzeste Wege im Straßennetz.
MehrElementare Wahrscheinlichkeitslehre
Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?
Mehr