Quantitative Methoden Wissensbasierter Systeme

Größe: px
Ab Seite anzeigen:

Download "Quantitative Methoden Wissensbasierter Systeme"

Transkript

1 Quantitative Methoden Wissensbasierter Systeme Probabilistische Netze und ihre Anwendungen Robert Remus Universität Leipzig Fakultät für Mathematik und Informatik Abteilung für Intelligente Systeme 23. Januar /34

2 Übersicht 1 Bayes sche Netze Wahrscheinlichkeitstheoretische Grundlagen Graphentheoretische Grundlagen Motivation Bayes scher Netze Beispiele Bayes scher Netze Definition eines Bayes schen Netzes 2 Inferenz in probabilistischen Netzen Bayes-Netze und ihre Potentialdarstellungen Der permanente Cliquenbaum als Wissensbasis 2/34

3 Übersicht 1 Bayes sche Netze Wahrscheinlichkeitstheoretische Grundlagen Graphentheoretische Grundlagen Motivation Bayes scher Netze Beispiele Bayes scher Netze Definition eines Bayes schen Netzes 2 Inferenz in probabilistischen Netzen Bayes-Netze und ihre Potentialdarstellungen Der permanente Cliquenbaum als Wissensbasis 3/34

4 Bedingte Wahrscheinlichkeit Sei P eine Wahrscheinlichkeitsfunktion Seien A,B Formeln mit P(A) > 0 Dann ist die bedingte Wahrscheinlichkeit von B gegeben A definiert als P(A B) P(B A) = P(A) P(B A) gibt also die Wahrscheinlichkeit dafür an, dass wenn A wahr ist, auch B wahr ist 4/34

5 Der Satz von Bayes Sei P eine Wahrscheinlichkeitsfunktion und seien A,B Formeln mit P(A) > 0,P(B) > 0, dann gilt der Satz von Bayes P(B A) = P(A B)P(B) P(A) 5/34

6 Übersicht 1 Bayes sche Netze Wahrscheinlichkeitstheoretische Grundlagen Graphentheoretische Grundlagen Motivation Bayes scher Netze Beispiele Bayes scher Netze Definition eines Bayes schen Netzes 2 Inferenz in probabilistischen Netzen Bayes-Netze und ihre Potentialdarstellungen Der permanente Cliquenbaum als Wissensbasis 6/34

7 Cliquen G = V, E sei ein ungerichteter Graph mit V Menge der Knoten E Menge der Kanten Eine Menge C V heißt Clique von G, wenn C eine maximal vollständige Menge ist, d.h. wenn alle Knoten aus C paarweise durch eine Kante aus E miteinander verbunden sind und wenn es keine vollständige Teilmenge von V gibt, die C echt enthält 7/34

8 Triangulierte Graphen G = V, E sei ein ungerichteter Graph Eine Sehne eines Zyklus v 0,...,v n in G ist eine Kante zwischen zwei nicht aufeinanderfolgenden Knoten v i,v j, d.h. i j > 1 G heißt trianguliert, wenn jeder einfache Zyklus der Länge l > 3 eine Sehne besitzt 8/34

9 Fill-in-Graphen G = V, E sei ein ungerichteter Graph α sei eine lineare Ordnung auf den Knoten von G Der Fill-in von G bzgl. α ist die Kantenmenge F(α), wobei (v, w) F(α) gdw. (v, w) / E und es einen Weg zwischen v, w gibt, der außer v, w nur Knoten enthält, die bzgl. der Ordnung α v, w nachgeordnet sind Der Fill-in-Graph von G bzgl. α ist der Graph G(α) ist trianguliert G(α) = V, E F(α) 9/34

10 Morale Graphen G = V, E sei ein DAG 1 Der morale Graph G m zu G wird folgendermaßen konstruiert: Sind zwei Knoten u, v Elternknoten eines gemeinsames Kindknotens w, d.h. u, v pa(w) und sind u, v noch durch keine Kante verbunden, füge die Kante (u, v) oder die Kante (v, u) zu E hinzu Dadurch entsteht ein gerichteter Graph G d m G m ist der zu G d m gehörige ungerichtete Graph 1 Directed Acyclic Graph 10/34

11 Übersicht 1 Bayes sche Netze Wahrscheinlichkeitstheoretische Grundlagen Graphentheoretische Grundlagen Motivation Bayes scher Netze Beispiele Bayes scher Netze Definition eines Bayes schen Netzes 2 Inferenz in probabilistischen Netzen Bayes-Netze und ihre Potentialdarstellungen Der permanente Cliquenbaum als Wissensbasis 11/34

12 Motivation Bayes scher Netze - Beispiel die Zufallsvariablen A,B bezeichnen die Ergebnisse der Würfe zweier gleicher, fairer Münzen die Zufallsvariable C bezeichnet das Klingeln einer Glocke gdw. die Münzen nach einem Wurf das gleiche Bild zeigen A, B sind unabhängig A,B sind bedingt abhängig unter Kenntnis von C ein Graph G müsste nun die Unabhängigkeit von A,B und die Abhängigkeit von A, B, C, d.h. einseitige Abhängigkeiten, zum Ausdruck bringen dies ist jedoch mit einem ungerichteten Graphen G nicht möglich 12/34

13 Übersicht 1 Bayes sche Netze Wahrscheinlichkeitstheoretische Grundlagen Graphentheoretische Grundlagen Motivation Bayes scher Netze Beispiele Bayes scher Netze Definition eines Bayes schen Netzes 2 Inferenz in probabilistischen Netzen Bayes-Netze und ihre Potentialdarstellungen Der permanente Cliquenbaum als Wissensbasis 13/34

14 Beispiele Bayes scher Netze I Holmes & Watson in London G,H u,w u seien zweiwertige Zufallsvariablen G : glatte Straßen H u : Holmes hat einen Unfall W u : Watson hat einen Unfall G H u W u 14/34

15 Beispiele Bayes scher Netze I Holmes & Watson in London G,H u,w u seien zweiwertige Zufallsvariablen G : glatte Straßen H u : Holmes hat einen Unfall W u : Watson hat einen Unfall G H u W u 14/34

16 Beispiele Bayes scher Netze II Holmes & Watson in Los Angeles R,S,H r,w r seien zweiwertige Zufallsvariablen R: es hat geregnet S: der Rasensprenger hat sich eingeschaltet H r : Holmes Rasen ist nass W r : Watsons Rasen ist nass R S W r H r 15/34

17 Beispiele Bayes scher Netze II Holmes & Watson in Los Angeles R,S,H r,w r seien zweiwertige Zufallsvariablen R: es hat geregnet S: der Rasensprenger hat sich eingeschaltet H r : Holmes Rasen ist nass W r : Watsons Rasen ist nass R S W r H r 15/34

18 Beispiele Bayes scher Netze II Holmes & Watson in Los Angeles R,S,H r,w r seien zweiwertige Zufallsvariablen R: es hat geregnet S: der Rasensprenger hat sich eingeschaltet H r : Holmes Rasen ist nass W r : Watsons Rasen ist nass R S W r H r 15/34

19 Übersicht 1 Bayes sche Netze Wahrscheinlichkeitstheoretische Grundlagen Graphentheoretische Grundlagen Motivation Bayes scher Netze Beispiele Bayes scher Netze Definition eines Bayes schen Netzes 2 Inferenz in probabilistischen Netzen Bayes-Netze und ihre Potentialdarstellungen Der permanente Cliquenbaum als Wissensbasis 16/34

20 Definition eines Bayes schen Netzes V sei eine Menge von Aussagenvariablen P sei eine gemeinsame Verteilung über V G = V, E sei ein DAG für jedes A i V bezeichne pa(a i ) V die Menge aller Elternknoten, de(a i ) V die Menge aller Nachkommen und nd(a i ) V die Menge aller Nicht-Nachkommen von A i B = V, E,P heißt dann Bayes sches Netz, wenn für jedes A i gilt: A i P nd(a i ) pa(a i ) 2 = 2 d.h. A i ist probabilistisch unabhängig von der Ausprägung seiner Nicht-Nachkommen unter Kenntnis der Ausprägung seiner Elternknoten 17/34

21 Berechnung der gemeinamen Verteilung P Wendet man die Kettenregel an und lässt in sie die Unabhängigkeitsannahmen A i P nd(a i ) pa(a i ) einfließen, zerfällt die Verteilung P in ein handliches Produkt: = B = V, E,P sei Bayes sches Netz die gemeinsame Verteilung P lässt sich dann durch P(V) = P(V pa(v )) V V mit P(V ) = P(V ) darstellen 18/34

22 Übersicht 1 Bayes sche Netze Wahrscheinlichkeitstheoretische Grundlagen Graphentheoretische Grundlagen Motivation Bayes scher Netze Beispiele Bayes scher Netze Definition eines Bayes schen Netzes 2 Inferenz in probabilistischen Netzen Bayes-Netze und ihre Potentialdarstellungen Der permanente Cliquenbaum als Wissensbasis 19/34

23 Bayes-Netze und ihre Potentialdarstellungen B = V, E,P sei Bayes sches Netz mit DAG G = V, E G u sei eine Triangulierung des moralen Graphen G m von G {C i 1 i p} seien die Cliquen von G u Wähle für jedes V V eine Clique clq(v ) {C i 1 i p}, so dass V pa(v ) clq(v ) gilt Definiere für 1 i p ψ(c i ) = V :clq(v )=C i P(V pa(v )) {C 1,...,C p ;ψ} ist dann eine Potentialdarstellung von P 20/34

24 Übersicht 1 Bayes sche Netze Wahrscheinlichkeitstheoretische Grundlagen Graphentheoretische Grundlagen Motivation Bayes scher Netze Beispiele Bayes scher Netze Definition eines Bayes schen Netzes 2 Inferenz in probabilistischen Netzen Bayes-Netze und ihre Potentialdarstellungen Der permanente Cliquenbaum als Wissensbasis 21/34

25 Der permanente Cliquenbaum als Wissensbasis Cliquenbaum und Potentialdarstellung bilden zusammen die Wissensbasis. 22/34

26 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung I Gegeben sei das Bayes sche Netzwerk B = V, E, P mit DAG (V, E) aus dem Holmes & Watson in Los Angeles Beispiel : R S W r H r 1 Bilde den moralen Graphen G m von (V, E) 23/34

27 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung II Lösung: Der morale Graphe G m von (V, E): R S W r H r 2 Triangulierung von G m : Bestimme mittels Maximum Cardinality Search eine lineare Ordnung α auf den Knoten V V 24/34

28 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung III Lösung: Eine lineare Ordnung α auf den Knoten in V: α(w r ) = 1 α(r) = 2 α(s) = 3 α(h r ) = 4 2 Triangulierung von G m : Berechne den Fill-in-Graphen G(α) von G m 25/34

29 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung IV Lösung: Der Fill-in-Graph G(α) von G m enthält keine neuen Kanten, es gilt also G(α) = G m = G 3 Ordnung der Cliquen: Bestimme die Cliquen C i von G 26/34

30 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung V Lösung: Die Cliquen C i von G : C 1 = {R,W r } C 2 = {R,S,H r } 3 Ordnung der Cliquen: Ordne die Cliquen C i nach dem gemäß α jeweils größten in ihnen vorkommenden Knoten 27/34

31 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung VI Lösung: Ordnung der Cliquen C i ist gegeben durch (C 1,C 2 ) 4 Bestimme für 1 i p die Mengen R i und S i : S i = C i (C 1... C i 1 ) R i = C i \ S i 28/34

32 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung VII Lösung: die Mengen R i und S i für 1 i p = 2: S 1 = C 1 C 0 = S 2 = C 2 C 1 = {R} R 1 = {R,W r } R 2 = {S,H r } 5 Bestimme für jedes i > 1 ein j < i, so dass S i C j 29/34

33 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung VIII Lösung: Ein j < i für i > 1, so dass S i C j : j = 1, da S 2 = {R} {R,W r } = C 1. C 1 heißt jetzt Elternclique von C 2 6 Bilde anhand der im vorherigen Punkt festgelegten Eltern-Kind-Beziehungen einen Cliquenbaum 30/34

34 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung IX Lösung: Der Cliquenbaum: C 1 R C 2 7 Bestimme zu jedem V V eine Clique clq(v ) mit {V } pa(v ) clq(v ) 31/34

35 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung X Lösung: Cliquen clq(v ) mit {V } pa(v ) clq(v ) für jedes V V: clq(w r ) = C 1 clq(r) = C 2 clq(s) = C 2 clq(h r ) = C 2 8 Definiere für 1 i p ψ(c i ) = V :clq(v )=C i P(V pa(v )) 32/34

36 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung XI Lösung: Definition von ψ(c i ) für i = 1 ψ(c 1 ) = ψ({r,w r }) = P(W r R) also R W r ψ({r,w r }) /34

37 Erzeugung des permanenten Cliquenbaums mit Potentialdarstellung XII Lösung: Definition von ψ(c i ) für i = 2 : ψ(c 2 ) = ψ({r,s,h r }) = P(R)P(S)P(H r R,S) also R S W r ψ({r,s,h r }) /34

Darstellung, Verarbeitung und Erwerb von Wissen

Darstellung, Verarbeitung und Erwerb von Wissen Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 267

Mehr

Darstellung, Verarbeitung und Erwerb von Wissen

Darstellung, Verarbeitung und Erwerb von Wissen Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 267

Mehr

Darstellung, Verarbeitung und Erwerb von Wissen

Darstellung, Verarbeitung und Erwerb von Wissen Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund WiSe 2017/18 G. Kern-Isberner (TU Dortmund) DVEW WiSe 2017/18 1 / 265 Struktur der DVEW 1

Mehr

Lösungshinweise zu Kapitel 13

Lösungshinweise zu Kapitel 13 L-112 Lösungshinweise zu Kapitel 13 zu Selbsttestaufgabe 13.2 (Eigenschaften der bedingten Unabhängigkeit) Sei P eine Wahrscheinlichkeitsverteilung über V. Wir setzen im Folgenden stillschweigend voraus,

Mehr

8 Default-Logiken. 8.1 Default-Logik nach Reiter

8 Default-Logiken. 8.1 Default-Logik nach Reiter 241 8 Default-Logiken Während bei Truth Maintenance-Systemen die nichtmonotone Ableitung im Vordergrund steht und nichtmonotone Regeln hier eher unscheinbar als ein Mittel zum Zweck eingesetzt werden,

Mehr

2. Rechnen mit Wahrscheinlichkeiten

2. Rechnen mit Wahrscheinlichkeiten 2. Rechnen mit Wahrscheinlichkeiten 2.1 Axiome der Wahrscheinlichkeitsrechnung Die Wahrscheinlichkeitsrechnung ist ein Teilgebiet der Mathematik. Es ist üblich, an den Anfang einer mathematischen Theorie

Mehr

I. II. I. II. III. IV. I. II. III. I. II. III. IV. I. II. III. IV. V. I. II. III. IV. V. VI. I. II. I. II. III. I. II. I. II. I. II. I. II. III. I. II. III. IV. V. VI. VII. VIII.

Mehr

Bayessche Netzwerke und ihre Anwendungen

Bayessche Netzwerke und ihre Anwendungen Bayessche Netzwerke und ihre Anwendungen 1. Kapitel: Grundlagen Zweiter Schwerpunktanteil einer Vorlesung im Rahmen des Moduls Systemplanung und Netzwerktheorie (Modul-Nr.: 1863) Fakultät für Informatik

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Sommersemester 2006 3. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@bioinf.uni-leipzig.de Algorithmen für Graphen Fragestellungen: Suche

Mehr

Flüsse, Schnitte, bipartite Graphen

Flüsse, Schnitte, bipartite Graphen Flüsse, Schnitte, bipartite Graphen Vlad Popa 08.06.2010 Inhaltsverzeihnis 1. Flussnetzwerke und Flüsse 1.1 Ford- Fulkerson 1.2 Edmond Karp 1.3 Dinic 2. Schnitte 3. Maximaler Fluss bei minimalen Kosten

Mehr

1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie

1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. Bäume / Graphen 5. Hashing 6. Algorithmische Geometrie Gliederung 1. Motivation / Grundlagen 2. Sortierverfahren 3. Elementare Datenstrukturen / Anwendungen 4. äume / Graphen. Hashing 6. Algorithmische Geometrie 4/6, Folie 1 2014 Prof. Steffen Lange - HDa/FbI

Mehr

KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN

KAPITEL 6 GANZZAHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULARE MATRIZEN KPITEL 6 GNZZHLIGE OPTIMIERUNG UND VOLLSTÄNDIG UNIMODULRE MTRIZEN F. VLLENTIN,. GUNDERT. Ganzzahlige lineare Programme Viele Optimierungsprobleme des Operations Research lassen sich als ganzzahlige lineare

Mehr

Allgemeine Definition von statistischer Abhängigkeit (1)

Allgemeine Definition von statistischer Abhängigkeit (1) Allgemeine Definition von statistischer Abhängigkeit (1) Bisher haben wir die statistische Abhängigkeit zwischen Ereignissen nicht besonders beachtet, auch wenn wir sie wie im Fall zweier disjunkter Mengen

Mehr

Bayes sche und probabilistische Netze

Bayes sche und probabilistische Netze Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen

Mehr

6. Induktives Beweisen - Themenübersicht

6. Induktives Beweisen - Themenübersicht 6. Induktives Beweisen - Themenübersicht Ordnungsrelationen Partielle Ordnungen Quasiordnungen Totale Ordnungen Striktordnungen Ordnungen und Teilstrukturen Noethersche Induktion Anwendung: Terminierungsbeweise

Mehr

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre

Mehr

Evidenzpropagation in Bayes-Netzen und Markov-Netzen

Evidenzpropagation in Bayes-Netzen und Markov-Netzen Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation

Mehr

2 Rationale und reelle Zahlen

2 Rationale und reelle Zahlen 2 reelle Es gibt Mathematik mit Grenzwert (Analysis) und Mathematik ohne Grenzwert (z.b Algebra). Grenzwerte existieren sicher nur dann, wenn der Zahlbereich vollständig ist, also keine Lücken aufweist

Mehr

Graphentheorie Graphentheorie. Grundlagen Bäume Eigenschaften von Graphen Graphen-Algorithmen Matchings und Netzwerke

Graphentheorie Graphentheorie. Grundlagen Bäume Eigenschaften von Graphen Graphen-Algorithmen Matchings und Netzwerke Graphen Graphentheorie Graphentheorie Grundlagen Bäume Eigenschaften von Graphen Graphen-Algorithmen Matchings und Netzwerke 2 Was ist ein Graph? Ein Graph ist in der Graphentheorie eine abstrakte Struktur,

Mehr

Kenngrößen von Zufallsvariablen

Kenngrößen von Zufallsvariablen Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert

Mehr

Definition der Entropie unter Verwendung von supp(p XY )

Definition der Entropie unter Verwendung von supp(p XY ) Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick

Mehr

SS 2013 1.1-1 / 12

SS 2013 1.1-1 / 12 AMPELSTEUERUNG EINER KREUZUNG monika.heiner@informatik.tu-cottbus.de SS 2013 1.1-1 / 12 (A) PROBLEM D C E B A Ziel (1) Sicherheit: keine kollidierenden Wege gleichzeitig, z.b. EB und AD Ziel (2) Maximierung:

Mehr

Deskriptive Statistik Kapitel IX - Kontingenzkoeffizient

Deskriptive Statistik Kapitel IX - Kontingenzkoeffizient Deskriptive Statistik Kapitel IX - Kontingenzkoeffizient Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Agenda 1. Untersuchung der Abhängigkeit 2.

Mehr

Bayesnetzmodelle (BNM) in der Kardiologie

Bayesnetzmodelle (BNM) in der Kardiologie Bayesnetzmodelle (BNM) in der Kardiologie Vorgehensmodell - Ergebnisse Claus Möbus - Heiko Seebold Jan-Ole Janssen, Andreas Lüdtke, Iris Najman, Heinz-Jürgen Thole Besonderen Dank an: Herrn Reinke (Münster)

Mehr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Lineare Algebra II 5. Übungsblatt

Lineare Algebra II 5. Übungsblatt Lineare Algebra II Übungsblatt Fachbereich Mathematik SS Prof Dr Kollross / Mai Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G (Algebraisch abgeschlossener Körper) Ein Körper heißt algebraisch abgeschlossen,

Mehr

Das Rucksackproblem. Definition Sprache Rucksack. Satz

Das Rucksackproblem. Definition Sprache Rucksack. Satz Das Rucksackproblem Definition Sprache Rucksack Gegeben sind n Gegenstände mit Gewichten W = {w 1,...,w n } N und Profiten P = {p 1,...,p n } N. Seien ferner b, k N. RUCKSACK:= {(W, P, b, k) I [n] : i

Mehr

Induktive Beweise und rekursive Definitionen

Induktive Beweise und rekursive Definitionen Induktive Beweise und rekursive Definitionen Vorlesung Logik in der Informatik, HU Berlin 1. Übungsstunde Beweis durch vollständige Induktion über N Aufgabe 1 Zeige, dass für alle n N gilt: n 2 i = 2 n+1

Mehr

Analysis I: Übungsblatt 1 Lösungen

Analysis I: Übungsblatt 1 Lösungen Analysis I: Übungsblatt 1 Lösungen Verständnisfragen 1. Was ist Mathematik? Mathematik ist eine Wissenschaft, die selbstgeschaffene, abstrakte Strukturen auf ihre Eigenschaften und Muster hin untersucht.

Mehr

Das Heiratsproblem. Definition Matching

Das Heiratsproblem. Definition Matching Das Heiratsproblem Szenario: Gegeben: n Frauen und m > n Männer. Bekanntschaftsbeziehungen zwischen allen Männern und Frauen. Fragestellung: Wann gibt es für jede der Frauen einen Heiratspartner? Modellierung

Mehr

www.mathe-aufgaben.com

www.mathe-aufgaben.com Abiturprüfung Mathematik Baden-Württemberg (ohne CAS) Pflichtteil Aufgaben Aufgabe : ( VP) Bilden Sie die erste Ableitung der Funktion f mit f(x) = x sin( x + ) Aufgabe : ( VP) Berechnen Sie das Integral

Mehr

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft

Mehr

H. Gruber, R. Neumann. Erfolg im Mathe-Abi. Basiswissen Niedersachsen. Übungsbuch für den Grundkurs mit Tipps und Lösungen

H. Gruber, R. Neumann. Erfolg im Mathe-Abi. Basiswissen Niedersachsen. Übungsbuch für den Grundkurs mit Tipps und Lösungen H. Gruber, R. Neumann Erfolg im Mathe-Abi Basiswissen Niedersachsen Übungsbuch für den Grundkurs mit Tipps und Lösungen Inhaltsverzeichnis Inhaltsverzeichnis Analysis Von der Gleichung zur Kurve... 9 Aufstellen

Mehr

Kapitel 2 Wahrscheinlichkeitsrechnung

Kapitel 2 Wahrscheinlichkeitsrechnung Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt

Mehr

825 e 290 e 542 e 945 e 528 e 486 e 675 e 618 e 170 e 500 e 443 e 608 e. Zeichnen Sie das Box-Plot. Sind in dieser Stichprobe Ausreißer vorhanden?

825 e 290 e 542 e 945 e 528 e 486 e 675 e 618 e 170 e 500 e 443 e 608 e. Zeichnen Sie das Box-Plot. Sind in dieser Stichprobe Ausreißer vorhanden? 1. Aufgabe: Eine Bank will die jährliche Sparleistung eines bestimmten Kundenkreises untersuchen. Eine Stichprobe von 12 Kunden ergab folgende Werte: 825 e 290 e 542 e 945 e 528 e 486 e 675 e 618 e 170

Mehr

Bestimmen Sie die möglichen Realisationen sowie die dazugehörigen Wahrscheinlicheiten der Zufallsvariable

Bestimmen Sie die möglichen Realisationen sowie die dazugehörigen Wahrscheinlicheiten der Zufallsvariable Zufallsgrößen ================================================================= 1. In einer Sendung von 10 Artikeln befinden sich 4 fehlerhafte. 4 Artikel werden zufällig entnommen. X beschreibe die Anzahl

Mehr

Wahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung

Wahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung - 2018 Anwendung der Bayesschen Theorie in ML Bayessche Netzwerke Bayessche Netze werden in modernen Expertensystemen benutzt. Das Wissen wird über

Mehr

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities) Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief

Mehr

2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1}

2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1} 1. Berechne für jeden Knoten i in BFS-Art eine Liste S i von von i aus erreichbaren Knoten, so dass (i) oder (ii) gilt: (i) S i < n 2 + 1 und Si enthält alle von i aus erreichbaren Knoten (ii) S i = n

Mehr

Einführung: Bayessches Lernen. Dipl.-Inform. Martin Lösch. martin.loesch@kit.edu (0721) 608 45944. Dipl.-Inform. Martin Lösch

Einführung: Bayessches Lernen. Dipl.-Inform. Martin Lösch. martin.loesch@kit.edu (0721) 608 45944. Dipl.-Inform. Martin Lösch Einführung: martin.loesch@kit.edu (0721) 608 45944 Übersicht Motivation & Hintergrund Naiver Bayes-Klassifikator Bayessche Netze EM-Algorithmus 2 Was ist eigentlich? MOTIVATION & HINTERGRUND 3 Warum Lernen

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum) Allgemeine diskrete Wahrscheinlichkeitsräume I Allgemeine diskrete Wahrscheinlichkeitsräume II Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete Wahrscheinlichkeitsräume Ω endlich

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume II

Allgemeine diskrete Wahrscheinlichkeitsräume II 6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete

Mehr

Allgemeine diskrete Wahrscheinlichkeitsräume I

Allgemeine diskrete Wahrscheinlichkeitsräume I 6 Diskrete Wahrscheinlichkeitsräume Allgemeine diskrete Wahrscheinlichkeitsräume 6.3 Allgemeine diskrete Wahrscheinlichkeitsräume I Verallgemeinerung von Laplaceschen Wahrscheinlichkeitsräumen: Diskrete

Mehr

Folgen und Grenzwerte

Folgen und Grenzwerte Wintersemester 2015/201 Folgen und Grenzwerte von Sven Grützmacher Dieser Vortrag wurde für den (von der Fachschaft organisierten) Vorkurs für die Studienanfänger an der Fakultät für Mathematik und Informatik

Mehr

Wahrscheinlichkeit und Information

Wahrscheinlichkeit und Information 356 A Wahrscheinlichkeit und Information A.l Die Wahrscheinlichkeit von Formeln Üblicherweise führt man den Wahrscheinlichkeitsbegriff mit Hilfe von Wahrscheinlichkeitsmaßen über Wahrscheinlichkeitsräumen,

Mehr

Kapitel 1.3. Normalformen aussagenlogischer Formeln. Mathematische Logik (WS 2010/11) Kapitel 1.3: Normalformen 1 / 1

Kapitel 1.3. Normalformen aussagenlogischer Formeln. Mathematische Logik (WS 2010/11) Kapitel 1.3: Normalformen 1 / 1 Kapitel 1.3 Normalformen aussagenlogischer Formeln Mathematische Logik (WS 2010/11) Kapitel 1.3: Normalformen 1 / 1 Boolesche Formeln, Literale und Klauseln Eine Boolesche Formel ist eine aussagenlogische

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Wahrscheinlichkeitsverteilungen 1. Binomialverteilung 1.1 Abzählverfahren 1.2 Urnenmodell Ziehen mit Zurücklegen, Formel von Bernoulli 1.3 Berechnung von Werten 1.4 Erwartungswert und Standardabweichung

Mehr

3. Selbstbehalt und Selbstbeteiligung

3. Selbstbehalt und Selbstbeteiligung 3. Selbstbehalt und Selbstbeteiligung Georg Nöldeke Wirtschaftswissenschaftliche Fakultät, Universität Basel Versicherungsökonomie (FS 11) Selbstbehalt und Selbstbeteiligung 1 / 16 1. Modellrahmen 1.1

Mehr

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Syntaktische und Statistische Mustererkennung. Bernhard Jung Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel

Mehr

Wissenschaftliches Arbeiten Quantitative Methoden

Wissenschaftliches Arbeiten Quantitative Methoden Wissenschaftliches Arbeiten Quantitative Methoden Prof. Dr. Stefan Nickel WS 2008 / 2009 Gliederung I. Motivation II. III. IV. Lesen mathematischer Symbole Wissenschaftliche Argumentation Matrizenrechnung

Mehr

TESTEN VON HYPOTHESEN

TESTEN VON HYPOTHESEN TESTEN VON HYPOTHESEN 1. Beispiel: Kann ein neugeborenes Küken Körner erkennen oder lernt es dies erst durch Erfahrung? Um diese Frage zu entscheiden, wird folgendes Experiment geplant: Sobald das Küken

Mehr

Pflichtteilaufgaben zu Stochastik (Pfadregeln, Erwartungswert, Binomialverteilung) Baden-Württemberg

Pflichtteilaufgaben zu Stochastik (Pfadregeln, Erwartungswert, Binomialverteilung) Baden-Württemberg Pflichtteilaufgaben zu Stochastik (Pfadregeln, Erwartungswert, Binomialverteilung) Baden-Württemberg Hilfsmittel: keine allgemeinbildende Gymnasien Alexander Schwarz www.mathe-aufgaben.com August 05 Übungsaufgaben:

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 0.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Semester-Fahrplan 1 / 17

Semester-Fahrplan 1 / 17 Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 10.01.2012 INSTITUT FÜR THEORETISCHE 0 KIT 12.01.2012 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik

Mehr

Kapitel 4: Minimale spannende Bäume Gliederung der Vorlesung

Kapitel 4: Minimale spannende Bäume Gliederung der Vorlesung Kapitel : Minimale spannende Bäume Gliederung der Vorlesung. Grundbegriffe 2. Elementare Graphalgorithmen und Anwendungen. Kürzeste Wege. Minimale spannende Bäume. Färbungen und Cliquen. Traveling Salesman

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c

Mehr

Expander Graphen und Ihre Anwendungen

Expander Graphen und Ihre Anwendungen Expander Graphen und Ihre Anwendungen Alireza Sarveniazi Mathematisches Institut Universität Göttingen 21.04.2006 Alireza Sarveniazi (Universität Göttingen) Expander Graphen und Ihre Anwendungen 21.04.2006

Mehr

Flüsse in Netzwerken

Flüsse in Netzwerken Skript zum Seminar Flüsse in Netzwerken WS 2008/09 David Meier Inhaltsverzeichnis 1 Einführende Definitionen und Beispiele 3 2 Schnitte in Flussnetzwerken 12 2.1 Maximaler s t Fluss..........................

Mehr

Kapitel VI - Lage- und Streuungsparameter

Kapitel VI - Lage- und Streuungsparameter Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

Grundlagen der Wahrscheinlichkeitstheorie und Statistik für Studierende der Informatik

Grundlagen der Wahrscheinlichkeitstheorie und Statistik für Studierende der Informatik INSTITUT FÜR STOCHASTIK WS 07/08 UNIVERSITÄT KARLSRUHE Blatt 4 Dr. B. Klar Übungen zur Vorlesung Grundlagen der Wahrscheinlichkeitstheorie und Statistik für Studierende der Informatik Musterlösungen Aufgabe

Mehr

Wahrscheinlichkeit und Information

Wahrscheinlichkeit und Information 430 A Wahrscheinlichkeit und Information A.1 Die Wahrscheinlichkeit von Formeln Üblicherweise führt man den Wahrscheinlichkeitsbegriff mit Hilfe von Wahrscheinlichkeitsmaßen über Wahrscheinlichkeitsräumen

Mehr

Commonsense Reasoning

Commonsense Reasoning Commonsense Reasoning Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Sommersemester 2017 G. Kern-Isberner (TU Dortmund) Commonsense Reasoning 1 / 232 Kapitel 4 Grundideen probabilistischen

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 2

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 2 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/14 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie svorschläge

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Ü b u n g s b l a t t 15

Ü b u n g s b l a t t 15 Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 2. 7. 2007 Ü b u n g s b l a t t 15 Hier ist zusätzliches Übungsmaterial zur Klausurvorbereitung quer durch die Inhalte der Vorlesung. Eine

Mehr

Grundlagen und Diskrete Strukturen Aufgaben zur Vorbereitung der Klausur

Grundlagen und Diskrete Strukturen Aufgaben zur Vorbereitung der Klausur Technische Universität Ilmenau WS 2008/2009 Institut für Mathematik Informatik, 1.FS Dr. Thomas Böhme Aufgabe 1 : Grundlagen und Diskrete Strukturen Aufgaben zur Vorbereitung der Klausur Gegeben sind die

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie

Grundbegriffe der Wahrscheinlichkeitstheorie KAPITEL 1 Grundbegriffe der Wahrscheinlichkeitstheorie 1. Zufallsexperimente, Ausgänge, Grundmenge In der Stochastik betrachten wir Zufallsexperimente. Die Ausgänge eines Zufallsexperiments fassen wir

Mehr

Algorithmus zur Berechnung der Jordannormalform

Algorithmus zur Berechnung der Jordannormalform Algorithmus zur Berechnung der Jordannormalform Olivier Sète 19. Januar 2011 Inhaltsverzeichnis 1 Motivation 1 2 Algorithmus Wie und warum funktioniert das? 2 2.1 Zutat 1 Für einen Jordanblock.........................

Mehr

Differentialrechnung

Differentialrechnung Kapitel 7 Differentialrechnung Josef Leydold Mathematik für VW WS 205/6 7 Differentialrechnung / 56 Differenzenquotient Sei f : R R eine Funktion. Der Quotient f = f ( 0 + ) f ( 0 ) = f () f ( 0) 0 heißt

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Algorithmentheorie. 13 - Maximale Flüsse

Algorithmentheorie. 13 - Maximale Flüsse Algorithmentheorie 3 - Maximale Flüsse Prof. Dr. S. Albers Prof. Dr. Th. Ottmann . Maximale Flüsse in Netzwerken 5 3 4 7 s 0 5 9 5 9 4 3 4 5 0 3 5 5 t 8 8 Netzwerke und Flüsse N = (V,E,c) gerichtetes Netzwerk

Mehr

2 Eulersche Polyederformel und reguläre Polyeder

2 Eulersche Polyederformel und reguläre Polyeder 6 2 Eulersche Polyederformel und reguläre Polyeder 2.1 Eulersche Polyederformel Formal besteht ein Graph aus einer Knotenmenge X und einer Kantenmenge U. Jede Kante u U ist eine zweielementige Teilmenge

Mehr

Einführung in die diskreten Bayes- und Kredal-Netze

Einführung in die diskreten Bayes- und Kredal-Netze Einführung in die diskreten Bayes- und Kredal-Netze Master-Seminar im Wintersemester 2015/16 Patrick Schwaferts Institut für Statistik, LMU 16. Januar 2016 Schwaferts (Institut für Statistik, LMU) Bayes-

Mehr

Lösungen zum Aufgabenblatt Nr. 1: Konstruktion der reellen Zahlen

Lösungen zum Aufgabenblatt Nr. 1: Konstruktion der reellen Zahlen Lösungen zum Aufgabenblatt Nr. 1: Konstruktion der reellen Zahlen Aufgabe 1: Es sei D die Menge aller rationalen Dedekind-Mengen, also D := { M 2 Q M is Dedekind-Menge }. Auf der Menge D definieren wir

Mehr

Vollständiger Graph. Definition 1.5. Sei G =(V,E) ein Graph. Gilt {v, w} E für alle v, w V,v w, dann heißt G vollständig (complete).

Vollständiger Graph. Definition 1.5. Sei G =(V,E) ein Graph. Gilt {v, w} E für alle v, w V,v w, dann heißt G vollständig (complete). Vollständiger Graph Definition 1.5. Sei G =(V,E) ein Graph. Gilt {v, w} E für alle v, w V,v w, dann heißt G vollständig (complete). Mit K n wird der vollständige Graph mit n Knoten bezeichnet. Bemerkung

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Prof. Dr. phil. Dr. rer. nat. habil. M.Schenke Vorlesung Maschinelles Lernen Basierend auf der Vorlesung und dem Buch»Methoden wissensbasierter Systeme«von Christoph Beierle und Gabriele Kern-Isberner

Mehr

Finanzmathematik I Lösungvorschläge für Übungsblatt 1

Finanzmathematik I Lösungvorschläge für Übungsblatt 1 Finanzmathematik I Lösungvorschläge für Übungsblatt 1 J. Widenmann ufgabe 1: Zu zeigen ist, dass Q die Definition Ü.1.1.2 erfüllt. Zunächst bemerken wir, dass Q wegen der nnahme f 0 Werte in R + annimmt.

Mehr

SCHRIFTLICHE ABSCHLUSSPRÜFUNG 2008 REALSCHULABSCHLUSS. Mathematik. Arbeitszeit: 180 Minuten

SCHRIFTLICHE ABSCHLUSSPRÜFUNG 2008 REALSCHULABSCHLUSS. Mathematik. Arbeitszeit: 180 Minuten Mathematik Arbeitszeit: 80 Minuten Es sind die drei Pflichtaufgaben und zwei Wahlpflichtaufgaben zu bearbeiten. Seite von 6 Pflichtaufgaben Pflichtaufgabe (erreichbare BE: 0) a) Berechnen Sie auf Hundertstel

Mehr

Erzeugung zufälliger Graphen und Bayes-Netze

Erzeugung zufälliger Graphen und Bayes-Netze Erzeugung zufälliger Graphen und Bayes-Netze Proseminar Algorithmen auf Graphen Georg Lukas, IF2000 2002-07-09 E-Mail: georg@op-co.de Folien: http://op-co.de/bayes/ Gliederung 1. Einleitung 2. einfache

Mehr

Analytische Geometrie Aufgaben und Lösungen

Analytische Geometrie Aufgaben und Lösungen Analytische Geometrie Aufgaben und Lösungen http://www.fersch.de Klemens Fersch. Januar Inhaltsverzeichnis Punkte:Vektor - Abstand - Steigung - Mittelpunkt. Aufgaben....................................................

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 3

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 3 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 2013/14 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Einführung in die Wahrscheinlichkeitstheorie svorschläge zu Übungsblatt

Mehr

Zählen perfekter Matchings in planaren Graphen

Zählen perfekter Matchings in planaren Graphen Zählen perfekter Matchings in planaren Graphen Kathlén Kohn Institut für Mathematik Universität Paderborn 25. Mai 2012 Inhaltsverzeichnis Motivation Einführung in Graphentheorie Zählen perfekter Matchings

Mehr

Statistik I für Humanund Sozialwissenschaften

Statistik I für Humanund Sozialwissenschaften Statistik I für Humanund Sozialwissenschaften 3. Übung Lösungsvorschlag Gruppenübung G 8 a) Ein Professor möchte herausfinden, welche 5 seiner insgesamt 8 Mitarbeiter zusammen das kreativste Team darstellen.

Mehr

Differentialrechnung bei Funktionen mehreren Variablen

Differentialrechnung bei Funktionen mehreren Variablen Kap. 6 Differentialrechnung bei Funktionen mehreren Variablen Im folgenden geht es um Funktionen des Typsf :R n R X... Y =f(x,...,x n ) X n Eine Weiterentwicklung der Differentialrechnung für solche Funktionen

Mehr

8 Das Flussproblem für Netzwerke

8 Das Flussproblem für Netzwerke 8 Das Flussproblem für Netzwerke 8.1 Netzwerke mit Kapazitätsbeschränkung Definition 15 Ein Netzwerk N = (V, E, γ, q, s) besteht aus einem gerichteten Graph G = (V, E), einer Quelle q V und einer Senke

Mehr

Lineare Abbildungen. Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls. d.h.

Lineare Abbildungen. Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls. d.h. Lineare Abbildungen Es seien V und W Vektorräume über einem Körper K. Eine Abbildung f : V W heißt linear oder Homomorphismus, falls (1) u, v V : f( u + v) = f( u) + f( v). (2) v V α K : f(α v) = αf( v).

Mehr

Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind

Bayessche Netze. Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Bayessche Netze Kevin Klamt und Rona Erdem Künstliche Intelligenz II SoSe 2012 Dozent: Claes Neuefeind Einleitung Sicheres vs. Unsicheres Wissen Kausale Netzwerke Abhängigkeit Verbindungsarten Exkurs:

Mehr

Kapitel 4: Minimal spannende Bäume Gliederung der Vorlesung

Kapitel 4: Minimal spannende Bäume Gliederung der Vorlesung Kapitel : Minimal spannende Bäume Gliederung der Vorlesung. Fallstudie Bipartite Graphen 2. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen. Minimal spannende Bäume. Kürzeste Wege. Traveling

Mehr

Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung

Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Kursfolien Karin Haenelt 1 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln

Mehr

λ(a n ) n 1 = (λa n ) n 1. Abbildung 1: Graph einer Folge. b n = arctan(n), f n = cos(nπ), g n = n 2, h n = ( 1) n n.

λ(a n ) n 1 = (λa n ) n 1. Abbildung 1: Graph einer Folge. b n = arctan(n), f n = cos(nπ), g n = n 2, h n = ( 1) n n. Folgen Es sei X eine beliebige Menge. Eine Folge mit Werten in X ist eine Abbildung von N nach X. Es wird also jeder natürlichen Zahl n (dem Index) ein Element a n aus X zugeordnet (das n-te Folgenglied).

Mehr

8 Diskrete Optimierung

8 Diskrete Optimierung 8 Diskrete Optimierung Definition 8.1. Ein Graph G ist ein Paar (V (G), E(G)) besteh aus einer lichen Menge V (G) von Knoten (oder Ecken) und einer Menge E(G) ( ) V (G) 2 von Kanten. Die Ordnung n(g) von

Mehr