Wissensentdeckung in Datenbanken

Größe: px
Ab Seite anzeigen:

Download "Wissensentdeckung in Datenbanken"

Transkript

1 Wissensentdeckung in Datenbanken Belief Propagation, Strukturlernen Nico Piatkowski und Uwe Ligges von 13

2 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung Überanpassung SQL, Häufige Mengen SVM, xda, Bäume,... Heute Inferenz und Strukturlernen 2 von 13

3 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung Überanpassung SQL, Häufige Mengen SVM, xda, Bäume,... Heute Inferenz und Strukturlernen 2 von 13

4 Mehr Eigenschaften von Graphen Nachbarschaft: Für Knoten v V in Graph G = (V, E) 1 4 N (v) = {u V {v, u} E} Pfad: Folge (v 1, v 2,..., v m ) von Knoten in der sich kein Knoten wiederholt 2 3 Kreis: Pfad (v 1, v 2,..., v m ) mit {v 1, v m } E Baum: Graph ohne Kreise ( kreisfrei ) Maximale Cliquengröße = 2 3 von 13

5 Mehr Eigenschaften von Graphen Nachbarschaft: Für Knoten v V in Graph G = (V, E) 1 4 N (v) = {u V {v, u} E} Pfad: Folge (v 1, v 2,..., v m ) von Knoten in der sich kein Knoten wiederholt 2 3 Kreis: Pfad (v 1, v 2,..., v m ) mit {v 1, v m } E Baum: Graph ohne Kreise ( kreisfrei ) Maximale Cliquengröße = 2 3 von 13

6 Mehr Eigenschaften von Graphen Nachbarschaft: Für Knoten v V in Graph G = (V, E) 1 4 N (v) = {u V {v, u} E} Pfad: Folge (v 1, v 2,..., v m ) von Knoten in der sich kein Knoten wiederholt 2 3 Kreis: Pfad (v 1, v 2,..., v m ) mit {v 1, v m } E Baum: Graph ohne Kreise ( kreisfrei ) Maximale Cliquengröße = 2 3 von 13

7 Mehr Eigenschaften von Graphen Nachbarschaft: Für Knoten v V in Graph G = (V, E) 1 4 N (v) = {u V {v, u} E} Pfad: Folge (v 1, v 2,..., v m ) von Knoten in der sich kein Knoten wiederholt 2 3 Kreis: Pfad (v 1, v 2,..., v m ) mit {v 1, v m } E Baum: Graph ohne Kreise ( kreisfrei ) Maximale Cliquengröße = 2 3 von 13

8 Gradient der Log-Likelihood von Exponentialfamilien Gegeben Datensatz D, Funktion φ (binär), Ẽ[φ(X)] = (1/ D ) x D φ(x), P β (x) = exp( β, φ(x) A(β)) Negative mittlere log-likelihood: l(β; D) = 1 D Partielle Ableitung nach β i : log P β (x) x D = 1 β, φ(x) + A(β) D x D = β, Ẽ[φ(X)] + A(β) l(β; D) = Ẽ[φ(X) i] + A(β) 4 von 13

9 Gradient der Log-Likelihood von Exponentialfamilien Gegeben Datensatz D, Funktion φ (binär), Ẽ[φ(X)] = (1/ D ) x D φ(x), P β (x) = exp( β, φ(x) A(β)) Negative mittlere log-likelihood: l(β; D) = 1 D Partielle Ableitung nach β i : log P β (x) x D = 1 β, φ(x) + A(β) D x D = β, Ẽ[φ(X)] + A(β) l(β; D) = Ẽ[φ(X) i] + A(β) 4 von 13

10 Gradient der Log-Likelihood von Exponentialfamilien Gegeben Datensatz D, Funktion φ (binär), Ẽ[φ(X)] = (1/ D ) x D φ(x), P β (x) = exp( β, φ(x) A(β)) Negative mittlere log-likelihood: l(β; D) = 1 D Partielle Ableitung nach β i : log P β (x) x D = 1 β, φ(x) + A(β) D x D = β, Ẽ[φ(X)] + A(β) l(β; D) = Ẽ[φ(X) i] + A(β) 4 von 13

11 Gradient der Log-Likelihood von Exponentialfamilien Gegeben Datensatz D, Funktion φ (binär), Ẽ[φ(X)] = (1/ D ) x D φ(x), P β (x) = exp( β, φ(x) A(β)) Negative mittlere log-likelihood: l(β; D) = 1 D Partielle Ableitung nach β i : log P β (x) x D = 1 β, φ(x) + A(β) D x D = β, Ẽ[φ(X)] + A(β) l(β; D) = Ẽ[φ(X) i] + A(β) 4 von 13

12 Gradient der Log-Likelihood von Exponentialfamilien Gegeben Datensatz D, Funktion φ (binär), Ẽ[φ(X)] = (1/ D ) x D φ(x), P β (x) = exp( β, φ(x) A(β)) Negative mittlere log-likelihood: l(β; D) = 1 D Partielle Ableitung nach β i : log P β (x) x D = 1 β, φ(x) + A(β) D x D = β, Ẽ[φ(X)] + A(β) l(β; D) = Ẽ[φ(X) i] + A(β) 4 von 13

13 Gradient der Log-Likelihood von Exponentialfamilien Gegeben Datensatz D, Funktion φ (binär), Ẽ[φ(X)] = (1/ D ) x D φ(x), P β (x) = exp( β, φ(x) A(β)) Negative mittlere log-likelihood: l(β; D) = 1 D Partielle Ableitung nach β i : log P β (x) x D = 1 β, φ(x) + A(β) D x D = β, Ẽ[φ(X)] + A(β) l(β; D) = Ẽ[φ(X) i] + A(β) 4 von 13

14 Ableitung der Normalisierung Erinnerung: Form von A(β) (= log Z(β)) ist abhängig von X (diskret?,reel?,endlich?).hier: A(β) = log exp( β, φ(x) ) x X 1 = exp( β, φ(x) ) Z(β) x X 1 = Z(β) exp( β, φ(x) ) β, φ(x) x X = exp( β, φ(x) A(β))φ(x) i x X = E β [φ(x) i ] 5 von 13

15 Ableitung der Normalisierung Erinnerung: Form von A(β) (= log Z(β)) ist abhängig von X (diskret?,reel?,endlich?).hier: A(β) = log exp( β, φ(x) ) x X 1 = exp( β, φ(x) ) Z(β) x X 1 = Z(β) exp( β, φ(x) ) β, φ(x) x X = exp( β, φ(x) A(β))φ(x) i x X = E β [φ(x) i ] 5 von 13

16 Ableitung der Normalisierung Erinnerung: Form von A(β) (= log Z(β)) ist abhängig von X (diskret?,reel?,endlich?).hier: A(β) = log exp( β, φ(x) ) x X 1 = exp( β, φ(x) ) Z(β) x X 1 = Z(β) exp( β, φ(x) ) β, φ(x) x X = exp( β, φ(x) A(β))φ(x) i x X = E β [φ(x) i ] 5 von 13

17 Ableitung der Normalisierung Erinnerung: Form von A(β) (= log Z(β)) ist abhängig von X (diskret?,reel?,endlich?).hier: A(β) = log exp( β, φ(x) ) x X 1 = exp( β, φ(x) ) Z(β) x X 1 = Z(β) exp( β, φ(x) ) β, φ(x) x X = exp( β, φ(x) A(β))φ(x) i x X = E β [φ(x) i ] 5 von 13

18 Ableitung der Normalisierung Erinnerung: Form von A(β) (= log Z(β)) ist abhängig von X (diskret?,reel?,endlich?).hier: A(β) = log exp( β, φ(x) ) x X 1 = exp( β, φ(x) ) Z(β) x X 1 = Z(β) exp( β, φ(x) ) β, φ(x) x X = exp( β, φ(x) A(β))φ(x) i x X = E β [φ(x) i ] 5 von 13

19 Ableitung der Normalisierung Erinnerung: Form von A(β) (= log Z(β)) ist abhängig von X (diskret?,reel?,endlich?).hier: A(β) = log exp( β, φ(x) ) x X 1 = exp( β, φ(x) ) Z(β) x X 1 = Z(β) exp( β, φ(x) ) β, φ(x) x X = exp( β, φ(x) A(β))φ(x) i x X = E β [φ(x) i ] 5 von 13

20 Gradient der Log-Likelihood von Exponentialfamilien Also gilt für die partielle Ableitung nach β i : l(β; D) = Ẽ[φ(X) i] + A(β) = E β [φ(x) i ] Ẽ[φ(X) i] Ableitung ist beschränkt l(β;d) β [ 1; 1] l ist Lipschitz stetig i Man kann zeigen: l(β; D) auch Lipschitz stetig (L = 2 C(G) ) Jetzt: Wie berechnet man E β [φ(x) i ]? Jedes i entspricht einem Paar von Clique und Zustand, d.h. φ(x) i = φ(x) C=y für ein C C(g) und y X C 6 von 13

21 Gradient der Log-Likelihood von Exponentialfamilien Also gilt für die partielle Ableitung nach β i : l(β; D) = Ẽ[φ(X) i] + A(β) = E β [φ(x) i ] Ẽ[φ(X) i] Ableitung ist beschränkt l(β;d) β [ 1; 1] l ist Lipschitz stetig i Man kann zeigen: l(β; D) auch Lipschitz stetig (L = 2 C(G) ) Jetzt: Wie berechnet man E β [φ(x) i ]? Jedes i entspricht einem Paar von Clique und Zustand, d.h. φ(x) i = φ(x) C=y für ein C C(g) und y X C 6 von 13

22 Gradient der Log-Likelihood von Exponentialfamilien Also gilt für die partielle Ableitung nach β i : l(β; D) = Ẽ[φ(X) i] + A(β) = E β [φ(x) i ] Ẽ[φ(X) i] Ableitung ist beschränkt l(β;d) β [ 1; 1] l ist Lipschitz stetig i Man kann zeigen: l(β; D) auch Lipschitz stetig (L = 2 C(G) ) Jetzt: Wie berechnet man E β [φ(x) i ]? Jedes i entspricht einem Paar von Clique und Zustand, d.h. φ(x) i = φ(x) C=y für ein C C(g) und y X C 6 von 13

23 Marginalisierung Wenn Z binäre Zufallsvariable (Z = {0, 1}), dann E[Z] = P(Z = 1) Ziel: Berechnung von E β [φ(x) C=y ] = P(X C = y) Allgemein: P β (X C = y) = P β (y, x) x X V C Ausnutzen der Faktorisierung sowie der Distributivität: P β (X C = y) = 1 Z(β) x X V C exp( β U, φ U (z U ) ) U C(G) wobei z = (y, x) und z U sind die Werte der Knoten in U V 7 von 13

24 Marginalisierung Wenn Z binäre Zufallsvariable (Z = {0, 1}), dann E[Z] = P(Z = 1) Ziel: Berechnung von E β [φ(x) C=y ] = P(X C = y) Allgemein: P β (X C = y) = P β (y, x) x X V C Ausnutzen der Faktorisierung sowie der Distributivität: P β (X C = y) = 1 Z(β) x X V C exp( β U, φ U (z U ) ) U C(G) wobei z = (y, x) und z U sind die Werte der Knoten in U V 7 von 13

25 Marginalisierung Wenn Z binäre Zufallsvariable (Z = {0, 1}), dann E[Z] = P(Z = 1) Ziel: Berechnung von E β [φ(x) C=y ] = P(X C = y) Allgemein: P β (X C = y) = P β (y, x) x X V C Ausnutzen der Faktorisierung sowie der Distributivität: P β (X C = y) = 1 Z(β) x X V C exp( β U, φ U (z U ) ) U C(G) wobei z = (y, x) und z U sind die Werte der Knoten in U V 7 von 13

26 Marginalisierung in Bäumen Ziel: Berechnung von E β [φ(x) C=y ] = P(X C = y) Wenn G ein Baum ist mit V = {1, 2,..., n}, dann ist und P β (x) = 1 Z(β) exp( β uv, φ uv (x uv ) ) uv E Z(β) = exp( β uv, φ uv (x uv ) ) x X uv E = exp( β uv, φ uv (x uv ) ) x 2 X 2 x 1 X 1 Distributivität ausnutzen! x n X n uv E 8 von 13

27 Belief Propagation Ziel: Berechnung von E β [φ(x) C=y ] = P(X C = y) Z(β) = x 1 X 1 x 2 X 2 Distributivität ausnutzen... x n X n uv E exp( β uv, φ uv (x uv ) ) ψ uv(x uv) m v u (x) = ψ uv (yx) y X v Z(β) = y X v w N (v) P(X uv = xy) = ψ uv(yx) Z(β) w N (v) {u} m w v (y) w N (v) {u} m w v (y) m w v (y) w N (u) {v} m w u (y) 9 von 13

28 Belief Propagation Ziel: Berechnung von E β [φ(x) C=y ] = P(X C = y) Z(β) = x 1 X 1 x 2 X 2 Distributivität ausnutzen... x n X n uv E exp( β uv, φ uv (x uv ) ) ψ uv(x uv) m v u (x) = ψ uv (yx) y X v Z(β) = y X v w N (v) P(X uv = xy) = ψ uv(yx) Z(β) w N (v) {u} m w v (y) w N (v) {u} m w v (y) m w v (y) w N (u) {v} m w u (y) 9 von 13

29 Belief Propagation Ziel: Berechnung von E β [φ(x) C=y ] = P(X C = y) Z(β) = x 1 X 1 x 2 X 2 Distributivität ausnutzen... x n X n uv E exp( β uv, φ uv (x uv ) ) ψ uv(x uv) m v u (x) = ψ uv (yx) y X v Z(β) = y X v w N (v) P(X uv = xy) = ψ uv(yx) Z(β) w N (v) {u} m w v (y) w N (v) {u} m w v (y) m w v (y) w N (u) {v} m w u (y) 9 von 13

30 Gibbs Sampling Problem: Belief Propagation nur exakt wenn G ein Baum ist! Idee: Erzeuge neue Stichprobe gemäß P β und berechne ˆµ i durch abzählen Aber: Wie erzeugt man neue Samples aus P β (X)? Ausnutzung bedingter Unabhängigkeiten! Beobachtung: Wenn ganze Nachbarschaft eines Knotens v beobachtet ist, kann P v (x x N (v) ) einfach berechnet werden! 10 von 13

31 Gibbs Sampling Problem: Belief Propagation nur exakt wenn G ein Baum ist! Idee: Erzeuge neue Stichprobe gemäß P β und berechne ˆµ i durch abzählen Aber: Wie erzeugt man neue Samples aus P β (X)? Ausnutzung bedingter Unabhängigkeiten! Beobachtung: Wenn ganze Nachbarschaft eines Knotens v beobachtet ist, kann P v (x x N (v) ) einfach berechnet werden! 10 von 13

32 Gibbs Sampling: Algorithmus 1 Erzeuge x zufällig Gleichverteilt (das entspricht NICHT P β!) 2 Besuche jeden Knoten v V und weise gemäß P v (x x N (v) ) neuen Wert zu 3 Wiederhole Schritt 2 so oft wie möglich Man kann zeigen: Nach endlicher Anzahl von Schritten ist x ein echtes Sample aus P β! Dann: Nutze den Algorithmus um viele (so viele wie möglich) Samples zu erzeugen und berechne P(X uv = xy) (für alle Kanten {v, u} E) durch abzählen 11 von 13

33 Gibbs Sampling: Algorithmus 1 Erzeuge x zufällig Gleichverteilt (das entspricht NICHT P β!) 2 Besuche jeden Knoten v V und weise gemäß P v (x x N (v) ) neuen Wert zu 3 Wiederhole Schritt 2 so oft wie möglich Man kann zeigen: Nach endlicher Anzahl von Schritten ist x ein echtes Sample aus P β! Dann: Nutze den Algorithmus um viele (so viele wie möglich) Samples zu erzeugen und berechne P(X uv = xy) (für alle Kanten {v, u} E) durch abzählen 11 von 13

34 Chow-Liu Bäume Minimierung der Distanz zwischen optimalem Graph und bestem Baum T Hier: Distanz gemessen durch Kullback-Leiber Divergenz Kann umgeform werden zu KL(P, P T ) = P (x) log P (x) x X P T (x) KL(P, P T ) = H(P ) + v V H(P v) vu E(T ) I(X v, X u ) Maximaler Spannbaum! mit I(X v, X u ) = KL(P vu, P v P u ) (Allgemeines Maß für Unabhängigkeit!) 12 von 13

35 Chow-Liu Bäume Minimierung der Distanz zwischen optimalem Graph und bestem Baum T Hier: Distanz gemessen durch Kullback-Leiber Divergenz Kann umgeform werden zu KL(P, P T ) = P (x) log P (x) x X P T (x) KL(P, P T ) = H(P ) + v V H(P v) vu E(T ) I(X v, X u ) Maximaler Spannbaum! mit I(X v, X u ) = KL(P vu, P v P u ) (Allgemeines Maß für Unabhängigkeit!) 12 von 13

36 Graphen mittels Regularisierung Baobachtung: Sind ist kompletter Parametervektor β vu einer Kante = 0, so hat diese Kante keinen Einfluss auf P(X = x)! Idee: Minimiere l(β; D) + λ β 1 1 nicht differenzierbar!! Proximaler Gradientenabstieg (nächste Woche) Spoiler: β i λ, β i > λ prox λ 1 (β i ) = β i + λ, β i < λ 0, sonst 13 von 13

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Support Vector Machine Nico Piatkowski und Uwe Ligges 30.05.2017 1 von 14 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Organisation und Überblick Nico Piatkowski und Uwe Ligges 8.0.07 von Fakten Team Vorlesung: Uwe Ligges, Nico Piatkowski Übung: Sarah Schnackenberg, Sebastian Buschjäger

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Strukturelle SVM zum Graph-labelling

Strukturelle SVM zum Graph-labelling 23. Juni 2009 1 Was wir gerne hätten...... und der Weg dorthin Erinnerung: strukturelle SVM 2 Junction Tree Algorithmus Loopy Belief Propagation Gibbs Sampling 3 Umfang Qualität der Algorithmen Schlussfolgerungen

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken, Häufige Mengen Nico Piatkowski und Uwe Ligges 09.05.2017 1 von 15 Überblick Was bisher geschah... Heute Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Generative Modelle. Generative Modelle 1 / 49

Generative Modelle. Generative Modelle 1 / 49 Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene

Mehr

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Syntaktische und Statistische Mustererkennung. Bernhard Jung Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken SQL, Häufige Mengen Nico Piatkowski und Uwe Ligges 11.05.2017 1 von 16 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung

Mehr

Generative Modelle. Generative Modelle 1 / 49

Generative Modelle. Generative Modelle 1 / 49 Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle: Inferenz Wir haben eine Domäne durch gemeinsame

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom Institut für Stochastik WS 009/10 Karlsruher Institut für Technologie (KIT) Dr. B. Klar Klausur Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom 08.0.010 Musterlösungen Aufgabe

Mehr

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011 Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester 2011 28. Oktober 2011 Prof. Dr. Torsten Hothorn Institut für Statistik Nachname: Vorname: Matrikelnummer: Anmerkungen: ˆ Schreiben

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:

Mehr

Seminar: Data Mining. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen. Ein Vortrag von Mathias Rohde. 11.

Seminar: Data Mining. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen. Ein Vortrag von Mathias Rohde. 11. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen 11. Juni 2009 Gliederung 1 Problemstellung 2 Vektorprodukt Approximationen Samplesammlung 3 Schritte Lokalität und Nachrichtenkomplexität

Mehr

Klausur: Differentialgleichungen Version mit Lösungen

Klausur: Differentialgleichungen Version mit Lösungen Universität Kassel Fachbereich 10/16 Dr. Sebastian Petersen 16.03.2016 Klausur: Differentialgleichungen Version mit Lösungen Name: Vorname: Matrikelnummer: Versuch: Unterschrift: Bitte fangen Sie für jede

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

Untersuchung von Poisson- und Multinomialverteilungsbasierten Modellen für die Analyse von Verkehrsdaten

Untersuchung von Poisson- und Multinomialverteilungsbasierten Modellen für die Analyse von Verkehrsdaten Bachelorarbeit Untersuchung von Poisson- und Multinomialverteilungsbasierten Modellen für die Analyse von Verkehrsdaten Liudmila Vishnyakova 07. Oktober 2016 Gutachter: Prof. Dr. Katharina Morik Nico Piatkowski

Mehr

Algo&Komp. - Wichtige Begriffe Mattia Bergomi Woche 6 7

Algo&Komp. - Wichtige Begriffe Mattia Bergomi Woche 6 7 1 Kürzeste Pfade Woche 6 7 Hier arbeiten wir mit gewichteten Graphen, d.h. Graphen, deren Kanten mit einer Zahl gewichtet werden. Wir bezeichnen die Gewichtsfunktion mit l : E R. Wir wollen einen kürzesten

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Die mittlere Höhe eines Binärbaumes. h(t) = 1 e(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t

Die mittlere Höhe eines Binärbaumes. h(t) = 1 e(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t Höhe von Binärbäumen Die mittlere Höhe eines Binärbaumes h(t) = 1 e(t) b E(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t h(b, t), Höhe von Binärbäumen Die mittlere Höhe eines

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Modellklassen, Verlustfunktionen Nico Piatkowski und Uwe Ligges 02.05.2017 1 von 15 Literatur Trevor Hastie, Robert Tibshirani, Jerome Friedman. The Elements of Statistical

Mehr

Klausur zu Analysis II - Lösungen

Klausur zu Analysis II - Lösungen Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Dr. Axel Grünrock WS 1/11 11..11 Klausur zu Analysis II - Lösungen 1. Entscheiden Sie, ob die folgenden Aussagen richtig oder falsch sind.

Mehr

Klassen diskreter Variablen

Klassen diskreter Variablen Modelle diskreter Variablen Klassen diskreter Variablen binär multinomial Weitere Klassifizierung multinomialer diskreter Variablen: kategorial y = 1, falls Einkommen < 3000 e. y = 2, falls Einkommen zw.

Mehr

Optimale Lösungen mit Greedy-Strategie erfordern Optimalität der Greedy-Wahl. Beispiele für optimale Greedy-Lösungen

Optimale Lösungen mit Greedy-Strategie erfordern Optimalität der Greedy-Wahl. Beispiele für optimale Greedy-Lösungen Wiederholung Optimale Lösungen mit Greedy-Strategie erfordern Optimalität der Greedy-Wahl unabhängig von Subproblemen Optimalität der Subprobleme Beispiele für optimale Greedy-Lösungen Scheduling Problem

Mehr

Seminar stochastische Geometrie. 25. Januar Faserprozesse im R 2. Simona Renner. Faserprozesse. Kenngrößen Intensität Richtungsrose

Seminar stochastische Geometrie. 25. Januar Faserprozesse im R 2. Simona Renner. Faserprozesse. Kenngrößen Intensität Richtungsrose Seminar stochastische Geometrie 25. Januar 2010 Contents 1 2 3 4 5 Definitionen Faser: glatte Kurve endlicher Länge in der Ebene Faser γ ist das Bild der Kurve γ(t) = (γ 1 (t), γ 2 (t)) mit (i) γ : [0,

Mehr

Ogden s Lemma (T6.4.2)

Ogden s Lemma (T6.4.2) Weiteres Beispiel L={a r b s c t d u r=0 s=t=u} Nahe liegende Vermutung: L nicht kontextfrei. Kann man mit dem Pumping-Lemma nicht zeigen. r=0: Pumpen erzeugt Wort aus L. r>0: Pumpen der a s erzeugt Wort

Mehr

8.4 Digraphen mit negativen Kantengewichten Grundsätzliches Betrachte Startknoten s und einen Kreis C mit Gesamtlänge < 0.

8.4 Digraphen mit negativen Kantengewichten Grundsätzliches Betrachte Startknoten s und einen Kreis C mit Gesamtlänge < 0. 8.4 Digraphen mit negativen Kantengewichten 8.4.1 Grundsätzliches Betrachte Startknoten s und einen Kreis C mit Gesamtlänge < 0. k 4 5 1 s 1 3 2 C k 0 k 3 1 1 1 k 1 k 2 v Sollte ein Pfad von s nach C und

Mehr

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Christoph Sawade/Niels Landwehr/Tobias Scheffer Überblick Problemstellung/Motivation Deterministischer i ti Ansatz:

Mehr

Simulation von Zufallszahlen. Grundlage: zufällige Quelle von Zufallszahlen, durch einfachen rekursiven Algorithmus am Computer erzeugt

Simulation von Zufallszahlen. Grundlage: zufällige Quelle von Zufallszahlen, durch einfachen rekursiven Algorithmus am Computer erzeugt Simulation von Zufallszahlen Grundlage: zufällige Quelle von Zufallszahlen, durch einfachen rekursiven Algorithmus am Computer erzeugt Definition: Eine Folge von Pseudo-Zufallszahlen U i ist eine deterministische

Mehr

Kapitel 8: Bipartite Graphen Gliederung der Vorlesung

Kapitel 8: Bipartite Graphen Gliederung der Vorlesung Gliederung der Vorlesung 1. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege 4. Minimale spannende Bäume 5. Färbungen und Cliquen 6. Traveling Salesman Problem 7. Flüsse in Netzwerken

Mehr

Probabilistische Graphische Modelle

Probabilistische Graphische Modelle Probabilistische Graphische Modelle 1 Probabilistische Graphische Modelle Sven Wachsmuth Universität Bielefeld, Technische Fakultät, AG Angewandte Informatik WS 2006/2007 Übersicht über die Vorlesung Probabilistische

Mehr

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}. Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14) Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung

Mehr

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut

Mehr

Multivariate Kettenregel

Multivariate Kettenregel Multivariate Kettenregel Für die Hintereinanderschaltung h = g f : x y = f (x) z = g(y), stetig differenzierbarer Funktionen f : R m R l und g : R l R n gilt h (x) = g (y)f (x), d.h. die Jacobi-Matrix

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 6. Vorlesung - 2018 Diskrete ZG eine diskrete ZG X wird vollständig durch ihre Wahrscheinlichkeitsverteilung beschrieben ( ) x1 x X 2... x i... = p 1 p 2... p i... P(X (a, b]) = und die Verteilungsfunktion

Mehr

Vektorräume und lineare Abbildungen

Vektorräume und lineare Abbildungen Kapitel 11. Vektorräume und lineare Abbildungen 1 11.1 Vektorräume Sei K ein Körper. Definition. Ein Vektorraum über K (K-Vektorraum) ist eine Menge V zusammen mit einer binären Operation + einem ausgezeichneten

Mehr

Graphentheorie. Zufallsgraphen. Zufallsgraphen. Zufallsgraphen. Rainer Schrader. 23. Januar 2008

Graphentheorie. Zufallsgraphen. Zufallsgraphen. Zufallsgraphen. Rainer Schrader. 23. Januar 2008 Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 3. Januar 008 1 / 45 / 45 Gliederung man könnte vermuten, dass ein Graph mit großer chromatischer Zahl einen dichten Teilgraphen enthalten

Mehr

5 Allgemeine Verfahren zum Testen von Hypothesen

5 Allgemeine Verfahren zum Testen von Hypothesen 5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Der Branching-Operator B

Der Branching-Operator B Branching 1 / 17 Der Branching-Operator B Unser Ziel: Löse das allgemeine Minimierungsproblem minimiere f (x), so dass Lösung(x). B zerlegt eine Menge von Lösungen in disjunkte Teilmengen. Die wiederholte

Mehr

1. Eigenschaften einer Zufallsstichprobe

1. Eigenschaften einer Zufallsstichprobe 1. Eigenschaften einer Zufallsstichprobe 1.1 Grundkonzepte Definition 1.1.1: Man nennt die Zufallsvariablen X 1,..., X n zufällige Stichprobe oder Zufallsstichprobe vom Umfang n aus der Population (Grundgesamtheit)

Mehr

Datenstrukturen und Algorithmen (SS 2013)

Datenstrukturen und Algorithmen (SS 2013) Datenstrukturen und Algorithmen (SS 2013) Übungsblatt 10 Abgabe: Montag, 08.07.2013, 14:00 Uhr Die Übungen sollen in Gruppen von zwei bis drei Personen bearbeitet werden. Schreiben Sie die Namen jedes

Mehr

Algorithmische Geometrie: Delaunay Triangulierung (Teil 2)

Algorithmische Geometrie: Delaunay Triangulierung (Teil 2) Algorithmische Geometrie: Delaunay Triangulierung (Teil 2) Nico Düvelmeyer WS 2009/2010, 2.2.2010 Überblick 1 Delaunay Triangulierungen 2 Berechnung der Delaunay Triangulierung Randomisiert inkrementeller

Mehr

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014 idden Markov Models Vorlesung omputerlinguistische Techniken Alexander Koller 8. Dezember 04 n-gramm-modelle Ein n-gramm ist ein n-tupel von Wörtern. -Gramme heißen auch Unigramme; -Gramme Bigramme; -Gramme

Mehr

Kapitel 5: Minimale spannende Bäume Gliederung der Vorlesung

Kapitel 5: Minimale spannende Bäume Gliederung der Vorlesung Gliederung der Vorlesung 1. Grundbegriffe 2. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege. Minimale spannende Bäume. Färbungen und Cliquen. Traveling Salesman Problem. Flüsse in Netzwerken

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder

Mehr

Semester-Fahrplan 1 / 17

Semester-Fahrplan 1 / 17 Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD

Mehr

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212 1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,

Mehr

12 Gewöhnliche Differentialgleichungen

12 Gewöhnliche Differentialgleichungen 2 2 Gewöhnliche Differentialgleichungen 2. Einleitung Sei f : D R wobei D R 2. Dann nennt man y = f(x, y) (5) eine (gewöhnliche) Differentialgleichung (DGL) erster Ordnung. Als Lösung von (5) akzeptiert

Mehr

1. Einige Begriffe aus der Graphentheorie

1. Einige Begriffe aus der Graphentheorie . Einige Begriffe aus der Graphentheorie Notation. Sei M eine Menge, n N 0. Dann bezeichnet P n (M) die Menge aller n- elementigen Teilmengen von M, und P(M) die Menge aller Teilmengen von M, d.h. die

Mehr

Logistische Regression

Logistische Regression Logistische Regression Christian Herta August, 2013 1 von 45 Christian Herta Logistische Regression Lernziele Logistische Regression Konzepte des maschinellen Lernens (insb. der Klassikation) Entscheidungsgrenze,

Mehr

Ferienkurs Propädeutikum Diskrete Mathematik

Ferienkurs Propädeutikum Diskrete Mathematik Ferienkurs Propädeutikum Diskrete Mathematik Teil 3: Grundlagen Graphentheorie Tina Janne Schmidt Technische Universität München April 2012 Tina Janne Schmidt (TU München) Ferienkurs Propädeutikum Diskrete

Mehr

Rechenzeit für A. Sei t B die Rechenzeit eines Algo für B. Seien p,q,r monotone Polynome ( +).

Rechenzeit für A. Sei t B die Rechenzeit eines Algo für B. Seien p,q,r monotone Polynome ( +). Rechenzeit für A Sei t B die Rechenzeit eines Algo für B. Seien p,q,r monotone Polynome ( +). Rechenzeit des resultierenden Algo für A: t A (n) p(n) + q(n) t B (r(n)). Ist polynomiell, falls t B Polynom.

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Die Tangentialebene. {(x, y, z) z = f(x 0, y 0 )+ f x (x 0, y 0 )(x x 0 )+ f. y (x 0, y 0 )(y y 0 )}

Die Tangentialebene. {(x, y, z) z = f(x 0, y 0 )+ f x (x 0, y 0 )(x x 0 )+ f. y (x 0, y 0 )(y y 0 )} Die Tangentialebene Der Graph der linearen Approximation ist Tangentialebene an den Graph der Funktion. In Symbolen: Es sei D R 2. Es sei f : D R, (x, y) f(x, y) differenzierbar. Dann ist {(x, y, z) z

Mehr

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities) Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief

Mehr

Analysis II. Aufgaben zum Stoff der Analysis I und II Lösungsvorschlag

Analysis II. Aufgaben zum Stoff der Analysis I und II Lösungsvorschlag Prof Dr H Garcke, D Depner SS 9 NWF I - Mathematik 1979 Universität Regensburg Aufgabe 1 Analysis II Aufgaben zum Stoff der Analysis I und II Lösungsvorschlag i Erinnern Sie sich an die Konvergenzkriterien

Mehr

Map Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.

Map Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Ergebnis mit minimaler Fréchet-Distanz Annahme: Fahrer wählen bevorzugt kürzeste Wege im Straßennetz.

Mehr

Probeklausur zur Analysis 2, SoSe 2017

Probeklausur zur Analysis 2, SoSe 2017 BERGISCHE UNIVERSITÄT WUPPERTAL 21717 Fakultät 4 - Mathematik und Naturwissenschaften Prof N V Shcherbina Dr T P Pawlaschyk wwwkanauni-wuppertalde Probeklausur zur Analysis 2, SoSe 217 Hinweis Die Lösungen

Mehr

1 Einführung, Terminologie und Einteilung

1 Einführung, Terminologie und Einteilung Zusammenfassung Kapitel V: Differentialgleichungen 1 Einführung, Terminologie und Einteilung Eine gewöhnliche Differentialgleichungen ist eine Bestimmungsgleichung um eine Funktion u(t) einer unabhängigen

Mehr

Grundlagen zu neuronalen Netzen. Kristina Tesch

Grundlagen zu neuronalen Netzen. Kristina Tesch Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen

Mehr

Jurij-Andrei Reichenecker 21. Juni Tessellationen

Jurij-Andrei Reichenecker 21. Juni Tessellationen Jurij-Andrei Reichenecker 21. Juni 2010 Tessellationen Seite 2 Tessellationen 21. Juni 2010 Jurij-Andrei Reichenecker Inhalt Einführung Voronoi Tessellation Algorithmus zur Erstellung von Voronoi Tessellationen

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Algorithmische Geometrie: Rest Lokalisierung von Punkten; Voronoi Diagramme (1/2)

Algorithmische Geometrie: Rest Lokalisierung von Punkten; Voronoi Diagramme (1/2) Algorithmische Geometrie: Rest Lokalisierung von Punkten; Voronoi Diagramme (1/2) Nico Düvelmeyer WS 2009/2010, 22.12.2009 Überblick 1 Fertigstellung Kapitel 7 2 Definition Voronoi Diagramm 3 Grundlegende

Mehr

1. Aufgabe 8 Punkte. f (x) = (x 2 + 1) e x2. Es gilt. f (x) = 2xe x2 + ( x ) e x2 ( 2x) = 2x 3 e x2.

1. Aufgabe 8 Punkte. f (x) = (x 2 + 1) e x2. Es gilt. f (x) = 2xe x2 + ( x ) e x2 ( 2x) = 2x 3 e x2. 1. Aufgabe 8 Punkte Geben Sie die Bereiche, auf denen die Funktion f : R R mit f (x) = (x + 1) e x monoton wachsend oder fallend ist, an, und untersuchen Sie die Funktion auf lokale und globale Extrema.

Mehr

SCHNITTERHALTUNG (SPEKTRALE APPROXIMATION)

SCHNITTERHALTUNG (SPEKTRALE APPROXIMATION) Vorlesung 12 AUSDÜNNUNG VON GRAPHEN SCHNITTERHALTUNG (SPEKTRALE APPROXIMATION) 387 Wiederholung: Approximative Schnitterhaltung Ziel: Approximationsalgorithmus: A(S(G)) Ziele bei Eingabe eines dichten

Mehr

Kap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur

Kap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur Kap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur 2.1 Lineare und generalisierte lineare Modelle Das klassische lineare Regressionsmodell

Mehr

Vorlesung Datenstrukturen

Vorlesung Datenstrukturen Vorlesung Datenstrukturen Kürzeste Wege Maike Buchin 4. und 6.7.2017 Einführung Motivation: Bestimmung von kürzesten Wegen ist in vielen Anwendungen, z.b. Routenplanung, ein wichtiges Problem. Allgemeine

Mehr

Vorlesung 12a. Schätzen von Parametern. Teil 2

Vorlesung 12a. Schätzen von Parametern. Teil 2 Vorlesung 12a Schätzen von Parametern Teil 2 1 Unser Logo der ersten Stunde: X P ϑ (X da) = ρ ϑ (da), ϑ Θ S 2 Ein Logo der Statistik: Θ ˆϑ t X S P ϑ (X da) = ρ ϑ (da), ϑ Θ Θ... Parameterraum S... Beobachtungsraum

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen

Mehr

Counting the Number of Satisfying Assignments

Counting the Number of Satisfying Assignments Counting the Number of Satisfying Assignments Ferienakademie im Sarntal Kurs 1 Moderne Suchmethoden der Informatik: Trends und Potenzial Stefan Ploner Department Informatik FAU Erlangen-Nürnberg 29. September

Mehr

Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph.

Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph. Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph. a) Es seien W 1 = (V, E 1 ), W 2 = (V, E 2 ) Untergraphen von G, die beide Wälder sind. Weiter gelte E 1 > E 2.

Mehr

Latente Dirichlet-Allokation

Latente Dirichlet-Allokation Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert

Mehr

9 Differentialrechnung für Funktionen in n Variablen

9 Differentialrechnung für Funktionen in n Variablen $Id: diff.tex,v.7 29/7/2 3:4:3 hk Exp $ $Id: ntaylor.tex,v.2 29/7/2 3:26:42 hk Exp $ 9 Differentialrechnung für Funktionen in n Variablen 9.6 Lagrange Multiplikatoren Die Berechnung von Maxima und Minima

Mehr

Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung

Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung Vorlesung 7b Unabhängigkeit bei Dichten und die mehrdimensionale Standardnormalverteilung 0. Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4 4

Mehr

Nachklausur zur Analysis 2, SoSe 2017

Nachklausur zur Analysis 2, SoSe 2017 BERGISCHE UNIVERSITÄT WUPPERTAL 18.9.17 Fakultät 4 - Mathematik und Naturwissenschaften Prof. N. V. Shcherbina Dr. T. P. Pawlaschyk www.kana.uni-wuppertal.de Nachklausur zur Analysis 2, SoSe 217 Aufgabe

Mehr

Klausur Mathematik II

Klausur Mathematik II Technische Universität Dresden. Juli 8 Institut für Numerische Mathematik Prof. Dr. G. Matthies, Dr. M. Herrich Klausur Mathematik II Modul Dierentialgleichungen und Dierentialrechnung für Funktionen mehrerer

Mehr

i =1 i =2 i =3 x i y i 4 0 1

i =1 i =2 i =3 x i y i 4 0 1 Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x

Mehr

Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen

Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen 5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 24. April 2019 [Letzte Aktualisierung: 24/04/2019,

Mehr

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Modellanpassung und Parameterschätzung. A: Übungsaufgaben 7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit

Mehr

Optimaler Transport. Marzena Franek. Skiseminar Februar Institut für Numerische und Angewandte Mathematik

Optimaler Transport. Marzena Franek. Skiseminar Februar Institut für Numerische und Angewandte Mathematik Institut für Numerische und Angewandte Mathematik Skiseminar Februar 2009 1 Das Problem von Monge 1 Das Problem von Monge 2 1 Das Problem von Monge 2 3 1 Das Problem von Monge 2 3 4 1 Das Problem von Monge

Mehr

Implizite Funktionen. Ist für eine stetig differenzierbare Funktion f : R n R m R n. so lässt sich das Gleichungssystem

Implizite Funktionen. Ist für eine stetig differenzierbare Funktion f : R n R m R n. so lässt sich das Gleichungssystem Implizite Funktionen Ist für eine stetig differenzierbare Funktion f : R n R m R n f (x, y ) = (0,..., 0) t, det f x (x, y ) 0, so lässt sich das Gleichungssystem f k (x 1,..., x n, y 1,..., y m ) = 0,

Mehr

Schätzen und Testen I in 90 Minuten. 8. Februar 2010

Schätzen und Testen I in 90 Minuten. 8. Februar 2010 Schätzen und Testen I in 90 Minuten 8. Februar 2010 1. Einführung in statistische Modelle und Inferenzkonzepte 2. Klassische Schätz- und Testtheorie 3. Likelihood-Inferenz 4. Bayes-Inferenz 5. Einführung

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr. Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;

Mehr