Wissensentdeckung in Datenbanken

Größe: px
Ab Seite anzeigen:

Download "Wissensentdeckung in Datenbanken"

Transkript

1 Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges von 32

2 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung Überanpassung SQL, Häufige Mengen SVM, xda, Bäume,... Heute 2 von 32

3 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung Überanpassung SQL, Häufige Mengen SVM, xda, Bäume,... Heute 2 von 32

4 Überblick Wahrscheinlichkeiten Stochastische Abhängigkeiten Graphen Intuition Notation Anwendungsbeispiele 3 von 32

5 Erinnerung: Wahrscheinlichkeiten und Klassifikation Zufallsvariable X mit diskreter Domäne X Wahrscheinlichkeit: P(X = x) [0; 1] Normalisiert: x X P(X = x) = 1 Bedingte Wahrscheinlichkeit: P(Y =y,x=x) P(Y = y X = x) = P(X=x) SVM,Log.Regr.,Entscheidungsbäume,... Klassifikation mittels diskriminativem Modell Alternative: Generatives Modell: P(Y = y, X = x) 4 von 32

6 Erinnerung: Wahrscheinlichkeiten und Klassifikation Zufallsvariable X mit diskreter Domäne X Wahrscheinlichkeit: P(X = x) [0; 1] Normalisiert: x X P(X = x) = 1 Bedingte Wahrscheinlichkeit: P(Y =y,x=x) P(Y = y X = x) = P(X=x) SVM,Log.Regr.,Entscheidungsbäume,... Klassifikation mittels diskriminativem Modell Alternative: Generatives Modell: P(Y = y, X = x) 4 von 32

7 Erinnerung: Wahrscheinlichkeiten und Klassifikation Zufallsvariable X mit diskreter Domäne X Wahrscheinlichkeit: P(X = x) [0; 1] Normalisiert: x X P(X = x) = 1 Bedingte Wahrscheinlichkeit: P(Y =y,x=x) P(Y = y X = x) = P(X=x) SVM,Log.Regr.,Entscheidungsbäume,... Klassifikation mittels diskriminativem Modell Alternative: Generatives Modell: P(Y = y, X = x) 4 von 32

8 Exkurs: Korrelation vs. Abhängigkeit Hier: Achsen sind Domänen reelwertiger Zufallsvariablen X, Y 5 von 32

9 Abhängigkeiten zwischen Zufallsvariablen X, Y sind unabhängig, falls x X, y Y P(Y = y X = x) = P(Y = y) Unabhängigkeit kann auch nur für einige x S mit S X gelten!! x S, y Y P(Y = y X = x) = P(Y = y) oder in Abhängigkeit von dritter Variable W x X, y Y P(Y = y X = x, W = 1) = P(Y = y W = 1) Frage: Wie können alle Abhängigkeiten einer hochdimensionalen Zufallsvariable kompakt dargestellt (gespeichert) werden?? 6 von 32

10 Abhängigkeiten zwischen Zufallsvariablen X, Y sind unabhängig, falls x X, y Y P(Y = y X = x) = P(Y = y) Unabhängigkeit kann auch nur für einige x S mit S X gelten!! x S, y Y P(Y = y X = x) = P(Y = y) oder in Abhängigkeit von dritter Variable W x X, y Y P(Y = y X = x, W = 1) = P(Y = y W = 1) Frage: Wie können alle Abhängigkeiten einer hochdimensionalen Zufallsvariable kompakt dargestellt (gespeichert) werden?? 6 von 32

11 Abhängigkeiten zwischen Zufallsvariablen X, Y sind unabhängig, falls x X, y Y P(Y = y X = x) = P(Y = y) Unabhängigkeit kann auch nur für einige x S mit S X gelten!! x S, y Y P(Y = y X = x) = P(Y = y) oder in Abhängigkeit von dritter Variable W x X, y Y P(Y = y X = x, W = 1) = P(Y = y W = 1) Frage: Wie können alle Abhängigkeiten einer hochdimensionalen Zufallsvariable kompakt dargestellt (gespeichert) werden?? 6 von 32

12 Abhängigkeiten zwischen Zufallsvariablen X, Y sind unabhängig, falls x X, y Y P(Y = y X = x) = P(Y = y) Unabhängigkeit kann auch nur für einige x S mit S X gelten!! x S, y Y P(Y = y X = x) = P(Y = y) oder in Abhängigkeit von dritter Variable W x X, y Y P(Y = y X = x, W = 1) = P(Y = y W = 1) Frage: Wie können alle Abhängigkeiten einer hochdimensionalen Zufallsvariable kompakt dargestellt (gespeichert) werden?? 6 von 32

13 Graphen Möglicherweise wichtigstes abstraktes Werkzeug der Informatik Erlaubt Repräsentation beliebiger Beziehungen (Relationen) zwischen beliebigen Objekten Formal spezifiziert via G = (V, E) mit Knotenmenge V und Kantenmenge E Auch Zusatzinformationen möglich wie Knoten- oder Kantengewichte, Farben,... 7 von 32

14 Graphen Möglicherweise wichtigstes abstraktes Werkzeug der Informatik Erlaubt Repräsentation beliebiger Beziehungen (Relationen) zwischen beliebigen Objekten Formal spezifiziert via G = (V, E) mit Knotenmenge V und Kantenmenge E Auch Zusatzinformationen möglich wie Knoten- oder Kantengewichte, Farben,... 7 von 32

15 Probabilistische Graph G = (V, E), V -dimensionale Zufallsvariable X Indexierung der Zufallsvariable mittels Knoten(mengen) Kodiere Liste aller bedingten Unabhängigkeiten als Nachbarschaften in einem Graph Kantenmenge E entspricht bedingten Unabhängigkeiten gemäß Markov Eigenschaft: X v X V N (v) {v} X N (v) = x N (v) Für alle Knotenpaare v, u V gilt: Gibt es einen Pfad durch G auf dem alle Knoten unbeobachtet sind, so sind X v und X u nicht unabhängig (X v / X u ). 8 von 32

16 Probabilistische Graph G = (V, E), V -dimensionale Zufallsvariable X Indexierung der Zufallsvariable mittels Knoten(mengen) Kodiere Liste aller bedingten Unabhängigkeiten als Nachbarschaften in einem Graph Kantenmenge E entspricht bedingten Unabhängigkeiten gemäß Markov Eigenschaft: X v X V N (v) {v} X N (v) = x N (v) Für alle Knotenpaare v, u V gilt: Gibt es einen Pfad durch G auf dem alle Knoten unbeobachtet sind, so sind X v und X u nicht unabhängig (X v / X u ). 8 von 32

17 Probabilistische Graph G = (V, E), V -dimensionale Zufallsvariable X Indexierung der Zufallsvariable mittels Knoten(mengen) Kodiere Liste aller bedingten Unabhängigkeiten als Nachbarschaften in einem Graph Kantenmenge E entspricht bedingten Unabhängigkeiten gemäß Markov Eigenschaft: X v X V N (v) {v} X N (v) = x N (v) Für alle Knotenpaare v, u V gilt: Gibt es einen Pfad durch G auf dem alle Knoten unbeobachtet sind, so sind X v und X u nicht unabhängig (X v / X u ). 8 von 32

18 Probabilistische (II) Graph G = (V, E), V -dimensionale Zufallsvariable X Fakt: Wahrscheinlichkeits(dichte) faktorisiert über den (maximalen) Cliquen des Graph P(X = x) = 1 Z ψ C (x C ) C C(G) A V ist Clique ( {v, u} A {v, u} E) Z ist Summe über alle möglichen Werte von X Jedes ψ C X C R + mit diskretem Zustandsraum X C ist darstellbar als exp( β C, φ C ( ) ) Dichten der Form P(X = x) = 1 Z C C(G) exp( β C, φ C ( ) ) gehören zu einer Exponentialfamilie 9 von 32

19 Probabilistische (II) Graph G = (V, E), V -dimensionale Zufallsvariable X Fakt: Wahrscheinlichkeits(dichte) faktorisiert über den (maximalen) Cliquen des Graph P(X = x) = 1 Z ψ C (x C ) C C(G) A V ist Clique ( {v, u} A {v, u} E) Z ist Summe über alle möglichen Werte von X Jedes ψ C X C R + mit diskretem Zustandsraum X C ist darstellbar als exp( β C, φ C ( ) ) Dichten der Form P(X = x) = 1 Z C C(G) exp( β C, φ C ( ) ) gehören zu einer Exponentialfamilie 9 von 32

20 Probabilistische (II) Graph G = (V, E), V -dimensionale Zufallsvariable X Fakt: Wahrscheinlichkeits(dichte) faktorisiert über den (maximalen) Cliquen des Graph P(X = x) = 1 Z ψ C (x C ) C C(G) A V ist Clique ( {v, u} A {v, u} E) Z ist Summe über alle möglichen Werte von X Jedes ψ C X C R + mit diskretem Zustandsraum X C ist darstellbar als exp( β C, φ C ( ) ) Dichten der Form P(X = x) = 1 Z C C(G) exp( β C, φ C ( ) ) gehören zu einer Exponentialfamilie 9 von 32

21 Parameterlernen in Graphischen Modellen Gegeben Datensatz D Verlustfunktion: Negative mittlere log-likelihood l(β, D) = 1 log P β (x) D x D = 1 D = 1 D = ( 1 D x D x D log 1 Z log 1 Z β, φ(x) ) + x D C C(G) ψ C (x C ) C C(G) exp( β C, φ C (x C ) ) log Z Komplexität: #P-vollständig 10 von 32

22 Parameterlernen in Graphischen Modellen Gegeben Datensatz D Verlustfunktion: Negative mittlere log-likelihood l(β, D) = 1 log P β (x) D x D = 1 D = 1 D = ( 1 D x D x D log 1 Z log 1 Z β, φ(x) ) + x D C C(G) ψ C (x C ) C C(G) exp( β C, φ C (x C ) ) log Z Komplexität: #P-vollständig 10 von 32

23 Parameterlernen in Graphischen Modellen Gegeben Datensatz D Verlustfunktion: Negative mittlere log-likelihood l(β, D) = 1 log P β (x) D x D = 1 D = 1 D = ( 1 D x D x D log 1 Z log 1 Z β, φ(x) ) + x D C C(G) ψ C (x C ) C C(G) exp( β C, φ C (x C ) ) log Z Komplexität: #P-vollständig 10 von 32

24 Parameterlernen in Graphischen Modellen Gegeben Datensatz D Verlustfunktion: Negative mittlere log-likelihood l(β, D) = 1 log P β (x) D x D = 1 D = 1 D = ( 1 D x D x D log 1 Z log 1 Z β, φ(x) ) + x D C C(G) ψ C (x C ) C C(G) exp( β C, φ C (x C ) ) log Z Komplexität: #P-vollständig 10 von 32

25 Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen Gegeben Datensatz D 1 Modellselektion; [Hier: Wähle graphische Struktur (und φ)] 2 Aufteilen der Daten in Trainings und Testdaten 3 Lerne Modellparameter β auf den Trainingsdaten D (z.b. mit Gradientenabstieg) 4 Vorhersage beliebiger Variablen X U X V U auf Testdaten und berechne die Vorhersagegenauigkeit 5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler 6 Entscheide ob Schritt 1 gut genug war.. 11 von 32

26 Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen Gegeben Datensatz D 1 Modellselektion; [Hier: Wähle graphische Struktur (und φ)] 2 Aufteilen der Daten in Trainings und Testdaten 3 Lerne Modellparameter β auf den Trainingsdaten D (z.b. mit Gradientenabstieg) 4 Vorhersage beliebiger Variablen X U X V U auf Testdaten und berechne die Vorhersagegenauigkeit 5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler 6 Entscheide ob Schritt 1 gut genug war.. 11 von 32

27 Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen Gegeben Datensatz D 1 Modellselektion; [Hier: Wähle graphische Struktur (und φ)] 2 Aufteilen der Daten in Trainings und Testdaten 3 Lerne Modellparameter β auf den Trainingsdaten D (z.b. mit Gradientenabstieg) 4 Vorhersage beliebiger Variablen X U X V U auf Testdaten und berechne die Vorhersagegenauigkeit 5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler 6 Entscheide ob Schritt 1 gut genug war.. 11 von 32

28 Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen Gegeben Datensatz D 1 Modellselektion; [Hier: Wähle graphische Struktur (und φ)] 2 Aufteilen der Daten in Trainings und Testdaten 3 Lerne Modellparameter β auf den Trainingsdaten D (z.b. mit Gradientenabstieg) 4 Vorhersage beliebiger Variablen X U X V U auf Testdaten und berechne die Vorhersagegenauigkeit 5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler 6 Entscheide ob Schritt 1 gut genug war.. 11 von 32

29 Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen Gegeben Datensatz D 1 Modellselektion; [Hier: Wähle graphische Struktur (und φ)] 2 Aufteilen der Daten in Trainings und Testdaten 3 Lerne Modellparameter β auf den Trainingsdaten D (z.b. mit Gradientenabstieg) 4 Vorhersage beliebiger Variablen X U X V U auf Testdaten und berechne die Vorhersagegenauigkeit 5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler 6 Entscheide ob Schritt 1 gut genug war.. 11 von 32

30 Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen Gegeben Datensatz D 1 Modellselektion; [Hier: Wähle graphische Struktur (und φ)] 2 Aufteilen der Daten in Trainings und Testdaten 3 Lerne Modellparameter β auf den Trainingsdaten D (z.b. mit Gradientenabstieg) 4 Vorhersage beliebiger Variablen X U X V U auf Testdaten und berechne die Vorhersagegenauigkeit 5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler 6 Entscheide ob Schritt 1 gut genug war.. 11 von 32

31 Nutzung des Mobilfunknetzes Angemeldete Mobilfunkzelle ist dem Mobiltelefon bekannt. Idee: Modell der Zellnutzung über den Tag. Jeder Knoten t V entspricht der aktuellen Zelle zur Zeit t Zeitliche Auflösung ist fest, z.b.: 15min. Insgesamt: V = T = :00 00:15 00:15 00:30 00:30 00:45 00:45 01:00 01:00 01:15 23:30 23:45 23:45 00:00 12 von 32

32 Nutzung des Mobilfunknetzes Angemeldete Mobilfunkzelle ist dem Mobiltelefon bekannt. Idee: Modell der Zellnutzung über den Tag. Jeder Knoten t V entspricht der aktuellen Zelle zur Zeit t Zeitliche Auflösung ist fest, z.b.: 15min. Insgesamt: V = T = 96 t=1 t=2 t=3 t=4 t=5 t=t 1 t=t von 32

33 Netzwerkzellen (idealisiert) cell -1 cell -2 cell von 32

34 Netzwerkzellen (geschätzt) 15 von 32

35 Suffiziente Statistik für Netzwerkzellen Daten werden fortlaufend aufgezeichnet aber nur die suffiziente Statistik φ (D) muss gespeichert werden! Für Knoten t V und Kanten (i, i + 1) E: φ t (x) = φ (i,i+1) (x) = 1 {Zelle 1 Zeit t}... 1 {Zelle M Zeit t} 1 {Zelle 1 Zeit i} 1 {Zelle 1 Zeit i+1} 1 {Zelle 1 Zeit i} 1 {Zelle 2 Zeit i+1} 1 {Zelle M Zeit i} 1 {Zelle M Zeit i+1} 16 von 32

36 φ (D) Eine Farbe pro Zelle Minute des Tages 17 von 32

37 P (X t ) Eine Farbe pro Zelle Minute des Tages 18 von 32

38 P (X t X = grüne Zelle ) Eine Farbe pro Zelle Minute des Tages 19 von 32

39 Vorhersage Ergebnisse Accuracy [%] SVM MRF, time User A User B User C SVM hat mehr Daten : P (X, Y ) = P (Y X) P (X) MRF Klassifikation 20 von 32

40 Ressourcennutzung I Auf dem Gerät: Wiederholte Verbindungsversuche verbrauchen viel Energie Vorhersage der Netzverfügbarkeit verwenden um Datentransfers zu verschieben Beim Provider: Vorhersage der Gesamtauslastung von Mobilfunkzellen E [#Nutzer in Zelle i um Zeit t] = p u (x t = i) u Nutzer Vorhersage der Anzahl von Nutzern die im nächsten Zeitpunkt in eine bestimmte Zelle wechseln werden 21 von 32

41 Ressourcennutzung I Auf dem Gerät: Wiederholte Verbindungsversuche verbrauchen viel Energie Vorhersage der Netzverfügbarkeit verwenden um Datentransfers zu verschieben Beim Provider: Vorhersage der Gesamtauslastung von Mobilfunkzellen E [#Nutzer in Zelle i um Zeit t] = p u (x t = i) u Nutzer Vorhersage der Anzahl von Nutzern die im nächsten Zeitpunkt in eine bestimmte Zelle wechseln werden 21 von 32

42 Apps Vorhersage der App Nutzung ermöglicht: Verbesserte Ressourcennutzung Verbesserte Vorhersage verbleibender Ressourcen Installierte Apps sind immer bekannt t T Jede App läuft oder nicht (binärer Zustandsraum) Graph wird aus Daten bestimmt (nächste Woche) 22 von 32

43 Apps über die Zeit 23 von 32

44 App Modell 98.0% 96.0% 94.0% 92.0% 90.0% 88.0% 86.0% 84.0% 22:00 21:00 20:00 19:00 18:00 17:00 16:00 15:00 14:00 13:00 12:00 11:00 10:00 09:00 08:00 07:00 06:00 05:00 04:00 03:00 02:00 01:00 00:00 24 von 32

45 Smarte Ressourcennutzung Apps bestimmten den Ressourcenverbrauch (Batterie, Netzwerk) Vorhersage: offline-apps genutzt Trenne Internetverbindung oder Wechsel zu Netz mit geringerer Bandbreite Batterieverbrauch einzelner Apps geschätzt per Regression auf Gesamtverbrauch Vorhersage der App-Nutzung kann dann für eine verbessert Batterielaufzeitprognose verwendet werden (auch: E-Auto, Roboter, Drohnen, usw.) E [Batterie Nutzung zur Zeit t] = App P (App läuft um t) Batterie (App) 25 von 32

46 Smarte Ressourcennutzung Apps bestimmten den Ressourcenverbrauch (Batterie, Netzwerk) Vorhersage: offline-apps genutzt Trenne Internetverbindung oder Wechsel zu Netz mit geringerer Bandbreite Batterieverbrauch einzelner Apps geschätzt per Regression auf Gesamtverbrauch Vorhersage der App-Nutzung kann dann für eine verbessert Batterielaufzeitprognose verwendet werden (auch: E-Auto, Roboter, Drohnen, usw.) E [Batterie Nutzung zur Zeit t] = App P (App läuft um t) Batterie (App) 25 von 32

47 Smarte Geräte 26 von 32

48 Smarte Geräte 27 von 32

49 Straßennetze I Daten: Sensoren messen Verkehrsfluss und Verkehrsdichte Verstehen und verbessern des aktuellen Straßennetzes Unterstützung für Routenplanung Autobahn.NRW 28 von 32

50 Straßennetze II Daten: Sensoren messen Verkehrsfluss und Verkehrsdichte Verstehen und verbessern des aktuellen Straßennetzes Unterstützung für Routenplanung Stadt Dublin 29 von 32

51 Straßennetze III Daten: Sensoren messen Verkehrsfluss und Verkehrsdichte Verstehen und verbessern des aktuellen Straßennetzes Unterstützung für Routenplanung Idee: Graphisches Modell der Straßennutzung Graphische Struktur gegeben durch Straßennetz(!) G 0 Straßengraph wird für jeden Zeitpunkt repliziert G = G 1 G 2 G T Zustandsraum gegeben durch Auslastung der Straße 30 von 32

52 Güte STRF MRF 4NN 3NN 2NN 1NN RAND 31 von 32

53 Verbesserte Nutzung des Straßennetzes Durch Stau werden jedes Jahr Millionen EURO umgewandelt in Tonnen von CO2 Optimierung des Straßennetzes durch Minimierung der Stauwahrscheinlichkeit Verhindern von Staus durch frühe Vorhersagen und automatische Umleitungen Verwendung von Stauwahrscheinlichkeiten in Navigationssystemen. 32 von 32

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Belief Propagation, Strukturlernen Nico Piatkowski und Uwe Ligges 29.06.2017 1 von 13 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Support Vector Machine Nico Piatkowski und Uwe Ligges 30.05.2017 1 von 14 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Organisation und Überblick Nico Piatkowski und Uwe Ligges 8.0.07 von Fakten Team Vorlesung: Uwe Ligges, Nico Piatkowski Übung: Sarah Schnackenberg, Sebastian Buschjäger

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Modellklassen, Verlustfunktionen Nico Piatkowski und Uwe Ligges 02.05.2017 1 von 15 Literatur Trevor Hastie, Robert Tibshirani, Jerome Friedman. The Elements of Statistical

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Strukturelle SVM zum Graph-labelling

Strukturelle SVM zum Graph-labelling 23. Juni 2009 1 Was wir gerne hätten...... und der Weg dorthin Erinnerung: strukturelle SVM 2 Junction Tree Algorithmus Loopy Belief Propagation Gibbs Sampling 3 Umfang Qualität der Algorithmen Schlussfolgerungen

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken, Häufige Mengen Nico Piatkowski und Uwe Ligges 09.05.2017 1 von 15 Überblick Was bisher geschah... Heute Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen

Mehr

Evidenzpropagation in Bayes-Netzen und Markov-Netzen

Evidenzpropagation in Bayes-Netzen und Markov-Netzen Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation

Mehr

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()

Mehr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr Universität Potsdam Institut für Informatik ehrstuhl Maschinelles ernen Modellevaluierung Niels andwehr ernen und Vorhersage Klassifikation, Regression: ernproblem Eingabe: Trainingsdaten Ausgabe: Modell

Mehr

BZQ II: Stochastikpraktikum

BZQ II: Stochastikpraktikum BZQ II: Stochastikpraktikum Block 3: Lineares Modell, Klassifikation, PCA Randolf Altmeyer January 9, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden

Mehr

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Syntaktische und Statistische Mustererkennung. Bernhard Jung Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel

Mehr

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Dominik Lahmann Tobias Scheffer Überblick Hypothesenbewertung, Risikoschätzung

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken SQL, Häufige Mengen Nico Piatkowski und Uwe Ligges 11.05.2017 1 von 16 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung

Mehr

Algorithmen & Komplexität

Algorithmen & Komplexität Algorithmen & Komplexität Angelika Steger Institut für Theoretische Informatik steger@inf.ethz.ch Kürzeste Pfade Problem Gegeben Netzwerk: Graph G = (V, E), Gewichtsfunktion w: E N Zwei Knoten: s, t Kantenzug/Weg

Mehr

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität Volker Tresp 1 Einführung Bisher haben wir uns fast ausschließich mit überwachtem Lernen beschäftigt: Ziel war es, eine (oder mehr als eine)

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2010/11

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Maschinelle Sprachverarbeitung

Maschinelle Sprachverarbeitung Maschinelle Sprachverarbeitung Übung Aufgabe 5: Gen-Erkennung mit Maschinellen Lernen Mario Sänger Problemstellung Erkennung von Genen in Texten NEU: Beachtung von Multi-Token-Entitäten (B-/I-protein)

Mehr

Gauß-Prozess-Regression

Gauß-Prozess-Regression Bayessche Regression und Gaußprozesse Dr. rer. nat. Johannes Riesterer Motivation Kriging Der südafrikanische Bergbauingenieur Danie Krige versuchte 1951, eine optimale Interpolationsmethode für den Bergbau

Mehr

Untersuchung von Poisson- und Multinomialverteilungsbasierten Modellen für die Analyse von Verkehrsdaten

Untersuchung von Poisson- und Multinomialverteilungsbasierten Modellen für die Analyse von Verkehrsdaten Bachelorarbeit Untersuchung von Poisson- und Multinomialverteilungsbasierten Modellen für die Analyse von Verkehrsdaten Liudmila Vishnyakova 07. Oktober 2016 Gutachter: Prof. Dr. Katharina Morik Nico Piatkowski

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle Modellierung einer Domäne mit verschiedenen

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Semester-Fahrplan 1 / 17

Semester-Fahrplan 1 / 17 Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern

Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Chahine Abid Bachelor Arbeit Betreuer: Prof. Johannes Fürnkranz Frederik Janssen 28. November 2013 Fachbereich Informatik Fachgebiet Knowledge

Mehr

1 Datenstrukturen Datenstrukturen und Algorithmen

1 Datenstrukturen Datenstrukturen und Algorithmen 1 Datenstrukturen 1.1 Abstrakte Datentypen 1.2 Lineare Strukturen 1.3 Bäume 1.4 Prioritätsschlangen 1.5 Graphen 1 1.5 Graphen Darstellung allgemeiner Beziehungen zwischen Objekten/Elementen Objekte = Knoten:

Mehr

Woche 2: Zufallsvariablen

Woche 2: Zufallsvariablen Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit

Mehr

Latente Dirichlet-Allokation

Latente Dirichlet-Allokation Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Eziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2007/08

Mehr

Grundbegriffe der Informatik

Grundbegriffe der Informatik Grundbegriffe der Informatik Einheit 11: Graphen Thomas Worsch Universität Karlsruhe, Fakultät für Informatik Wintersemester 2008/2009 1/42 Graphische Darstellung von Zusammenhängen schon an vielen Stellen

Mehr

Maschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008

Maschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008 Maschinelles Lernen I Einführung Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 22. April 2008 Inhalt Einführung Lernen Maschinelle Lernverfahren im Überblick Phonetische Anwendungsbeispiele

Mehr

Grundbegriffe der Informatik

Grundbegriffe der Informatik Grundbegriffe der Informatik Einheit 11: Graphen Thomas Worsch Karlsruher Institut für Technologie, Fakultät für Informatik Wintersemester 2010/2011 1/59 Graphische Darstellung von Zusammenhängen schon

Mehr

Generative Modelle. Generative Modelle 1 / 49

Generative Modelle. Generative Modelle 1 / 49 Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

Grundlagen der Objektmodellierung

Grundlagen der Objektmodellierung Grundlagen der Objektmodellierung Daniel Göhring 30.10.2006 Gliederung Grundlagen der Wahrscheinlichkeitsrechnung Begriffe zur Umweltmodellierung Bayesfilter Zusammenfassung Grundlagen der Wahrscheinlichkeitsrechnung

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Strukturelle Modelle Conditional Random Fields Katharina Morik LS 8 Informatik Technische Universität Dortmund 17.12. 2013 1 von 27 Gliederung 1 Einführung 2 HMM 3 CRF Strukturen

Mehr

Klassifikationsverfahren haben viele Anwendungen. Binäres Klassifikationsverfahren auch zur Klassifikation in mehr als zwei Klassen verwendbar

Klassifikationsverfahren haben viele Anwendungen. Binäres Klassifikationsverfahren auch zur Klassifikation in mehr als zwei Klassen verwendbar Rückblick Klassifikationsverfahren haben viele Anwendungen Binäres Klassifikationsverfahren auch zur Klassifikation in mehr als zwei Klassen verwendbar Konfusionsmatrix stellt Vorhersagen und Daten gegenüber

Mehr

Methoden der KI in der Biomedizin Bayes Netze

Methoden der KI in der Biomedizin Bayes Netze Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze

Mehr

Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel

Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel Dr. Dominik Grimm Probelehrveranstaltung Fakultät für Informatik und Mathematik Hochschule

Mehr

Wahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung

Wahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung - 2018 Anwendung der Bayesschen Theorie in ML Bayessche Netzwerke Bayessche Netze werden in modernen Expertensystemen benutzt. Das Wissen wird über

Mehr

, Data Mining, 2 VO Sommersemester 2008

, Data Mining, 2 VO Sommersemester 2008 Evaluation 188.646, Data Mining, 2 VO Sommersemester 2008 Dieter Merkl e-commerce Arbeitsgruppe Institut für Softwaretechnik und Interaktive Systeme Technische Universität Wien www.ec.tuwien.ac.at/~dieter/

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:

Mehr

Learning to Rank Sven Münnich

Learning to Rank Sven Münnich Learning to Rank Sven Münnich 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 1 Übersicht 1. Einführung 2. Methoden 3. Anwendungen 4. Zusammenfassung & Fazit 06.12.12 Fachbereich 20 Seminar

Mehr

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 21. Dezember 2011 1 Definition Binomialverteilung Geometrische Verteilung Poissonverteilung 2 Standardisierte Verteilung

Mehr

Schnelle und genaue Routenplanung

Schnelle und genaue Routenplanung Sanders/Schultes: Routenplanung 1 Schnelle und genaue Routenplanung Peter Sanders Dominik Schultes Institut für Theoretische Informatik Algorithmik II Universität Karlsruhe Tag der Informatik, 15. Juli

Mehr

Sprechstunde zur Klausurvorbereitung

Sprechstunde zur Klausurvorbereitung htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr Paul Prasse

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr Paul Prasse Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Paul Prasse Tobias Scheffer Sawade/Landwehr/Prasse/Scheffer, Maschinelles Lernen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen. Tobias Scheffer Michael Brückner

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen. Tobias Scheffer Michael Brückner Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Tobias Scheffer Michael Brückner Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Mo 10:00-11:30

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische

Mehr

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Mehr

Grundbegriffe der Informatik

Grundbegriffe der Informatik Grundbegriffe der Informatik Kapitel 15: Graphen Thomas Worsch KIT, Institut für Theoretische Informatik Wintersemester 2015/2016 GBI Grundbegriffe der Informatik KIT, Institut für Theoretische Informatik

Mehr

Modellierung mit künstlicher Intelligenz

Modellierung mit künstlicher Intelligenz Samuel Kost kosts@mailbox.tu-freiberg.de Institut für Numerische Mathematik und Optimierung Modellierung mit künstlicher Intelligenz Ein Überblick über existierende Methoden des maschinellen Lernens 13.

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe

Mehr

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:

Mehr

Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression

Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression Überblick Grundkonzepte des Baes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression Baes sche Vorhersage Münzwürfe Lineare Regression 57 Erinnerung:

Mehr

Abgabe: (vor der Vorlesung)

Abgabe: (vor der Vorlesung) TECHNISCHE UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR INFORMATIK Lehrstuhl für Sprachen und Beschreibungsstrukturen SS 009 Grundlagen: Algorithmen und Datenstrukturen Übungsblatt 0 Prof. Dr. Helmut Seidl, S. Pott,

Mehr

Statistische Datenanalyse

Statistische Datenanalyse Werner A. Stahel Statistische Datenanalyse Eine Einführung für Naturwissenschaftler 3., durchgesehene Auflage vieweg VII 1 Einleitung 1 1.1 Was ist Statistische Datenanalyse? 1 1.2 Ziele 6 1.3 Hinweise

Mehr

Grundlagen: Algorithmen und Datenstrukturen

Grundlagen: Algorithmen und Datenstrukturen Grundlagen: Algorithmen und Datenstrukturen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester H.

Mehr

Grundbegriffe der Informatik Tutorium 8

Grundbegriffe der Informatik Tutorium 8 Grundbegriffe der Informatik Tutorium 8 Tutorium Nr. 16 Philipp Oppermann 22. Dezember 2014 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

Vorlesung 2 KÜRZESTE WEGE

Vorlesung 2 KÜRZESTE WEGE Vorlesung 2 KÜRZESTE WEGE 34 Kürzeste Wege im Graphen Motivation! Heute:! Kürzeste Wege von einem Knoten (SSSP)! Kürzeste Wege zwischen allen Knotenpaaren (APSP)! Viele Anwendungen:! Navigationssysteme!

Mehr

Logistische Regression

Logistische Regression Logistische Regression Christian Herta August, 2013 1 von 45 Christian Herta Logistische Regression Lernziele Logistische Regression Konzepte des maschinellen Lernens (insb. der Klassikation) Entscheidungsgrenze,

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene

Mehr

Inhalt. 6.1 Motivation. 6.2 Klassifikation. 6.3 Clusteranalyse. 6.4 Asszoziationsanalyse. Datenbanken & Informationssysteme / Kapitel 6: Data Mining

Inhalt. 6.1 Motivation. 6.2 Klassifikation. 6.3 Clusteranalyse. 6.4 Asszoziationsanalyse. Datenbanken & Informationssysteme / Kapitel 6: Data Mining 6. Data Mining Inhalt 6.1 Motivation 6.2 Klassifikation 6.3 Clusteranalyse 6.4 Asszoziationsanalyse 2 6.1 Motivation Data Mining and Knowledge Discovery zielt darauf ab, verwertbare Erkenntnisse (actionable

Mehr

Unabhängigkeit von Zufallsvariablen

Unabhängigkeit von Zufallsvariablen Unabhängigkeit von Zufallsvariablen Seminar Gegenbeispiele in der Wahrscheinlichkeitstheorie Pascal Beckedorf 12. November 2012 Pascal Beckedorf Unabhängigkeit von Zufallsvariablen 12. November 2012 1

Mehr

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Generative Modelle. Generative Modelle 1 / 49

Generative Modelle. Generative Modelle 1 / 49 Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die

Mehr

Statistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie

Statistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie 1/19 Statistik für Informatiker, SS 2018 1 Grundlagen aus der Wahrscheinlichkeitstheorie 1.3 Bedingte Wahrscheinlichkeiten, Unabhängigkeit, gemeinsame Verteilung 1.3.4 Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo18/

Mehr

Einführung in die diskreten Bayes- und Kredal-Netze

Einführung in die diskreten Bayes- und Kredal-Netze Einführung in die diskreten Bayes- und Kredal-Netze Master-Seminar im Wintersemester 2015/16 Patrick Schwaferts Institut für Statistik, LMU 16. Januar 2016 Schwaferts (Institut für Statistik, LMU) Bayes-

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Graphentheorie. Zufallsgraphen. Zufallsgraphen. Zufallsgraphen. Rainer Schrader. 23. Januar 2008

Graphentheorie. Zufallsgraphen. Zufallsgraphen. Zufallsgraphen. Rainer Schrader. 23. Januar 2008 Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 3. Januar 008 1 / 45 / 45 Gliederung man könnte vermuten, dass ein Graph mit großer chromatischer Zahl einen dichten Teilgraphen enthalten

Mehr

Brownsche Bewegung Seminar - Weiche Materie

Brownsche Bewegung Seminar - Weiche Materie Brownsche Bewegung Seminar - Weiche Materie Simon Schnyder 11. Februar 2008 Übersicht Abbildung: 3 Realisationen des Weges eines Brownschen Teilchens mit gl. Startort Struktur des Vortrags Brownsches Teilchen

Mehr

Fortgeschrittene Ökonometrie: Maximum Likelihood

Fortgeschrittene Ökonometrie: Maximum Likelihood Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,

Mehr

k-nächste-nachbarn-schätzung

k-nächste-nachbarn-schätzung k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Ferienkurs Propädeutikum Diskrete Mathematik

Ferienkurs Propädeutikum Diskrete Mathematik Ferienkurs Propädeutikum Diskrete Mathematik Teil 3: Grundlagen Graphentheorie Tina Janne Schmidt Technische Universität München April 2012 Tina Janne Schmidt (TU München) Ferienkurs Propädeutikum Diskrete

Mehr

Klausurvorbereitung. 1 Zentrale Begriffe. 2 Bipartite Graphen. 2.1 Begriffe. Vorlesung Graphen und Optimierung Sommersemester 2011 Prof. S.

Klausurvorbereitung. 1 Zentrale Begriffe. 2 Bipartite Graphen. 2.1 Begriffe. Vorlesung Graphen und Optimierung Sommersemester 2011 Prof. S. Vorlesung Graphen und Optimierung Sommersemester 2011 Prof. S. Lange Klausurvorbereitung Hier finden Sie alle Begriffe, Zusammenhänge und Algorithmen, die mit Blick auf die Klausur relevant sind. Um es

Mehr

Darstellung, Verarbeitung und Erwerb von Wissen

Darstellung, Verarbeitung und Erwerb von Wissen Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 267

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB

INTELLIGENTE DATENANALYSE IN MATLAB INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial i Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester

Mehr

Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19

Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19 Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, 2016 6:34 P.M. Page 11 Inhaltsverzeichnis Über die Übersetzerin 9 Einleitung 19 Was Sie hier finden werden 19 Wie dieses Arbeitsbuch aufgebaut ist

Mehr

Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen

Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen 5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus

Mehr

Klassen diskreter Variablen

Klassen diskreter Variablen Modelle diskreter Variablen Klassen diskreter Variablen binär multinomial Weitere Klassifizierung multinomialer diskreter Variablen: kategorial y = 1, falls Einkommen < 3000 e. y = 2, falls Einkommen zw.

Mehr

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.172 Algorithmen und Datenstrukturen 1 VL 4.0 Übungsblatt 4 für die Übung

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II Statistik II 1. Ergänzungen zur Wahrscheinlichkeitstheorie Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 1. Ergänzungen zur

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr