Wissensentdeckung in Datenbanken
|
|
- Jörg Bösch
- vor 5 Jahren
- Abrufe
Transkript
1 Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges von 32
2 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung Überanpassung SQL, Häufige Mengen SVM, xda, Bäume,... Heute 2 von 32
3 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung Überanpassung SQL, Häufige Mengen SVM, xda, Bäume,... Heute 2 von 32
4 Überblick Wahrscheinlichkeiten Stochastische Abhängigkeiten Graphen Intuition Notation Anwendungsbeispiele 3 von 32
5 Erinnerung: Wahrscheinlichkeiten und Klassifikation Zufallsvariable X mit diskreter Domäne X Wahrscheinlichkeit: P(X = x) [0; 1] Normalisiert: x X P(X = x) = 1 Bedingte Wahrscheinlichkeit: P(Y =y,x=x) P(Y = y X = x) = P(X=x) SVM,Log.Regr.,Entscheidungsbäume,... Klassifikation mittels diskriminativem Modell Alternative: Generatives Modell: P(Y = y, X = x) 4 von 32
6 Erinnerung: Wahrscheinlichkeiten und Klassifikation Zufallsvariable X mit diskreter Domäne X Wahrscheinlichkeit: P(X = x) [0; 1] Normalisiert: x X P(X = x) = 1 Bedingte Wahrscheinlichkeit: P(Y =y,x=x) P(Y = y X = x) = P(X=x) SVM,Log.Regr.,Entscheidungsbäume,... Klassifikation mittels diskriminativem Modell Alternative: Generatives Modell: P(Y = y, X = x) 4 von 32
7 Erinnerung: Wahrscheinlichkeiten und Klassifikation Zufallsvariable X mit diskreter Domäne X Wahrscheinlichkeit: P(X = x) [0; 1] Normalisiert: x X P(X = x) = 1 Bedingte Wahrscheinlichkeit: P(Y =y,x=x) P(Y = y X = x) = P(X=x) SVM,Log.Regr.,Entscheidungsbäume,... Klassifikation mittels diskriminativem Modell Alternative: Generatives Modell: P(Y = y, X = x) 4 von 32
8 Exkurs: Korrelation vs. Abhängigkeit Hier: Achsen sind Domänen reelwertiger Zufallsvariablen X, Y 5 von 32
9 Abhängigkeiten zwischen Zufallsvariablen X, Y sind unabhängig, falls x X, y Y P(Y = y X = x) = P(Y = y) Unabhängigkeit kann auch nur für einige x S mit S X gelten!! x S, y Y P(Y = y X = x) = P(Y = y) oder in Abhängigkeit von dritter Variable W x X, y Y P(Y = y X = x, W = 1) = P(Y = y W = 1) Frage: Wie können alle Abhängigkeiten einer hochdimensionalen Zufallsvariable kompakt dargestellt (gespeichert) werden?? 6 von 32
10 Abhängigkeiten zwischen Zufallsvariablen X, Y sind unabhängig, falls x X, y Y P(Y = y X = x) = P(Y = y) Unabhängigkeit kann auch nur für einige x S mit S X gelten!! x S, y Y P(Y = y X = x) = P(Y = y) oder in Abhängigkeit von dritter Variable W x X, y Y P(Y = y X = x, W = 1) = P(Y = y W = 1) Frage: Wie können alle Abhängigkeiten einer hochdimensionalen Zufallsvariable kompakt dargestellt (gespeichert) werden?? 6 von 32
11 Abhängigkeiten zwischen Zufallsvariablen X, Y sind unabhängig, falls x X, y Y P(Y = y X = x) = P(Y = y) Unabhängigkeit kann auch nur für einige x S mit S X gelten!! x S, y Y P(Y = y X = x) = P(Y = y) oder in Abhängigkeit von dritter Variable W x X, y Y P(Y = y X = x, W = 1) = P(Y = y W = 1) Frage: Wie können alle Abhängigkeiten einer hochdimensionalen Zufallsvariable kompakt dargestellt (gespeichert) werden?? 6 von 32
12 Abhängigkeiten zwischen Zufallsvariablen X, Y sind unabhängig, falls x X, y Y P(Y = y X = x) = P(Y = y) Unabhängigkeit kann auch nur für einige x S mit S X gelten!! x S, y Y P(Y = y X = x) = P(Y = y) oder in Abhängigkeit von dritter Variable W x X, y Y P(Y = y X = x, W = 1) = P(Y = y W = 1) Frage: Wie können alle Abhängigkeiten einer hochdimensionalen Zufallsvariable kompakt dargestellt (gespeichert) werden?? 6 von 32
13 Graphen Möglicherweise wichtigstes abstraktes Werkzeug der Informatik Erlaubt Repräsentation beliebiger Beziehungen (Relationen) zwischen beliebigen Objekten Formal spezifiziert via G = (V, E) mit Knotenmenge V und Kantenmenge E Auch Zusatzinformationen möglich wie Knoten- oder Kantengewichte, Farben,... 7 von 32
14 Graphen Möglicherweise wichtigstes abstraktes Werkzeug der Informatik Erlaubt Repräsentation beliebiger Beziehungen (Relationen) zwischen beliebigen Objekten Formal spezifiziert via G = (V, E) mit Knotenmenge V und Kantenmenge E Auch Zusatzinformationen möglich wie Knoten- oder Kantengewichte, Farben,... 7 von 32
15 Probabilistische Graph G = (V, E), V -dimensionale Zufallsvariable X Indexierung der Zufallsvariable mittels Knoten(mengen) Kodiere Liste aller bedingten Unabhängigkeiten als Nachbarschaften in einem Graph Kantenmenge E entspricht bedingten Unabhängigkeiten gemäß Markov Eigenschaft: X v X V N (v) {v} X N (v) = x N (v) Für alle Knotenpaare v, u V gilt: Gibt es einen Pfad durch G auf dem alle Knoten unbeobachtet sind, so sind X v und X u nicht unabhängig (X v / X u ). 8 von 32
16 Probabilistische Graph G = (V, E), V -dimensionale Zufallsvariable X Indexierung der Zufallsvariable mittels Knoten(mengen) Kodiere Liste aller bedingten Unabhängigkeiten als Nachbarschaften in einem Graph Kantenmenge E entspricht bedingten Unabhängigkeiten gemäß Markov Eigenschaft: X v X V N (v) {v} X N (v) = x N (v) Für alle Knotenpaare v, u V gilt: Gibt es einen Pfad durch G auf dem alle Knoten unbeobachtet sind, so sind X v und X u nicht unabhängig (X v / X u ). 8 von 32
17 Probabilistische Graph G = (V, E), V -dimensionale Zufallsvariable X Indexierung der Zufallsvariable mittels Knoten(mengen) Kodiere Liste aller bedingten Unabhängigkeiten als Nachbarschaften in einem Graph Kantenmenge E entspricht bedingten Unabhängigkeiten gemäß Markov Eigenschaft: X v X V N (v) {v} X N (v) = x N (v) Für alle Knotenpaare v, u V gilt: Gibt es einen Pfad durch G auf dem alle Knoten unbeobachtet sind, so sind X v und X u nicht unabhängig (X v / X u ). 8 von 32
18 Probabilistische (II) Graph G = (V, E), V -dimensionale Zufallsvariable X Fakt: Wahrscheinlichkeits(dichte) faktorisiert über den (maximalen) Cliquen des Graph P(X = x) = 1 Z ψ C (x C ) C C(G) A V ist Clique ( {v, u} A {v, u} E) Z ist Summe über alle möglichen Werte von X Jedes ψ C X C R + mit diskretem Zustandsraum X C ist darstellbar als exp( β C, φ C ( ) ) Dichten der Form P(X = x) = 1 Z C C(G) exp( β C, φ C ( ) ) gehören zu einer Exponentialfamilie 9 von 32
19 Probabilistische (II) Graph G = (V, E), V -dimensionale Zufallsvariable X Fakt: Wahrscheinlichkeits(dichte) faktorisiert über den (maximalen) Cliquen des Graph P(X = x) = 1 Z ψ C (x C ) C C(G) A V ist Clique ( {v, u} A {v, u} E) Z ist Summe über alle möglichen Werte von X Jedes ψ C X C R + mit diskretem Zustandsraum X C ist darstellbar als exp( β C, φ C ( ) ) Dichten der Form P(X = x) = 1 Z C C(G) exp( β C, φ C ( ) ) gehören zu einer Exponentialfamilie 9 von 32
20 Probabilistische (II) Graph G = (V, E), V -dimensionale Zufallsvariable X Fakt: Wahrscheinlichkeits(dichte) faktorisiert über den (maximalen) Cliquen des Graph P(X = x) = 1 Z ψ C (x C ) C C(G) A V ist Clique ( {v, u} A {v, u} E) Z ist Summe über alle möglichen Werte von X Jedes ψ C X C R + mit diskretem Zustandsraum X C ist darstellbar als exp( β C, φ C ( ) ) Dichten der Form P(X = x) = 1 Z C C(G) exp( β C, φ C ( ) ) gehören zu einer Exponentialfamilie 9 von 32
21 Parameterlernen in Graphischen Modellen Gegeben Datensatz D Verlustfunktion: Negative mittlere log-likelihood l(β, D) = 1 log P β (x) D x D = 1 D = 1 D = ( 1 D x D x D log 1 Z log 1 Z β, φ(x) ) + x D C C(G) ψ C (x C ) C C(G) exp( β C, φ C (x C ) ) log Z Komplexität: #P-vollständig 10 von 32
22 Parameterlernen in Graphischen Modellen Gegeben Datensatz D Verlustfunktion: Negative mittlere log-likelihood l(β, D) = 1 log P β (x) D x D = 1 D = 1 D = ( 1 D x D x D log 1 Z log 1 Z β, φ(x) ) + x D C C(G) ψ C (x C ) C C(G) exp( β C, φ C (x C ) ) log Z Komplexität: #P-vollständig 10 von 32
23 Parameterlernen in Graphischen Modellen Gegeben Datensatz D Verlustfunktion: Negative mittlere log-likelihood l(β, D) = 1 log P β (x) D x D = 1 D = 1 D = ( 1 D x D x D log 1 Z log 1 Z β, φ(x) ) + x D C C(G) ψ C (x C ) C C(G) exp( β C, φ C (x C ) ) log Z Komplexität: #P-vollständig 10 von 32
24 Parameterlernen in Graphischen Modellen Gegeben Datensatz D Verlustfunktion: Negative mittlere log-likelihood l(β, D) = 1 log P β (x) D x D = 1 D = 1 D = ( 1 D x D x D log 1 Z log 1 Z β, φ(x) ) + x D C C(G) ψ C (x C ) C C(G) exp( β C, φ C (x C ) ) log Z Komplexität: #P-vollständig 10 von 32
25 Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen Gegeben Datensatz D 1 Modellselektion; [Hier: Wähle graphische Struktur (und φ)] 2 Aufteilen der Daten in Trainings und Testdaten 3 Lerne Modellparameter β auf den Trainingsdaten D (z.b. mit Gradientenabstieg) 4 Vorhersage beliebiger Variablen X U X V U auf Testdaten und berechne die Vorhersagegenauigkeit 5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler 6 Entscheide ob Schritt 1 gut genug war.. 11 von 32
26 Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen Gegeben Datensatz D 1 Modellselektion; [Hier: Wähle graphische Struktur (und φ)] 2 Aufteilen der Daten in Trainings und Testdaten 3 Lerne Modellparameter β auf den Trainingsdaten D (z.b. mit Gradientenabstieg) 4 Vorhersage beliebiger Variablen X U X V U auf Testdaten und berechne die Vorhersagegenauigkeit 5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler 6 Entscheide ob Schritt 1 gut genug war.. 11 von 32
27 Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen Gegeben Datensatz D 1 Modellselektion; [Hier: Wähle graphische Struktur (und φ)] 2 Aufteilen der Daten in Trainings und Testdaten 3 Lerne Modellparameter β auf den Trainingsdaten D (z.b. mit Gradientenabstieg) 4 Vorhersage beliebiger Variablen X U X V U auf Testdaten und berechne die Vorhersagegenauigkeit 5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler 6 Entscheide ob Schritt 1 gut genug war.. 11 von 32
28 Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen Gegeben Datensatz D 1 Modellselektion; [Hier: Wähle graphische Struktur (und φ)] 2 Aufteilen der Daten in Trainings und Testdaten 3 Lerne Modellparameter β auf den Trainingsdaten D (z.b. mit Gradientenabstieg) 4 Vorhersage beliebiger Variablen X U X V U auf Testdaten und berechne die Vorhersagegenauigkeit 5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler 6 Entscheide ob Schritt 1 gut genug war.. 11 von 32
29 Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen Gegeben Datensatz D 1 Modellselektion; [Hier: Wähle graphische Struktur (und φ)] 2 Aufteilen der Daten in Trainings und Testdaten 3 Lerne Modellparameter β auf den Trainingsdaten D (z.b. mit Gradientenabstieg) 4 Vorhersage beliebiger Variablen X U X V U auf Testdaten und berechne die Vorhersagegenauigkeit 5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler 6 Entscheide ob Schritt 1 gut genug war.. 11 von 32
30 Exkurs: Allgemeine Vorgehensweise bei Graphischen Modellen Gegeben Datensatz D 1 Modellselektion; [Hier: Wähle graphische Struktur (und φ)] 2 Aufteilen der Daten in Trainings und Testdaten 3 Lerne Modellparameter β auf den Trainingsdaten D (z.b. mit Gradientenabstieg) 4 Vorhersage beliebiger Variablen X U X V U auf Testdaten und berechne die Vorhersagegenauigkeit 5 Wiederhole Schritte 2-4 so oft wie möglich und berechne mittleren Vorhersagefehler 6 Entscheide ob Schritt 1 gut genug war.. 11 von 32
31 Nutzung des Mobilfunknetzes Angemeldete Mobilfunkzelle ist dem Mobiltelefon bekannt. Idee: Modell der Zellnutzung über den Tag. Jeder Knoten t V entspricht der aktuellen Zelle zur Zeit t Zeitliche Auflösung ist fest, z.b.: 15min. Insgesamt: V = T = :00 00:15 00:15 00:30 00:30 00:45 00:45 01:00 01:00 01:15 23:30 23:45 23:45 00:00 12 von 32
32 Nutzung des Mobilfunknetzes Angemeldete Mobilfunkzelle ist dem Mobiltelefon bekannt. Idee: Modell der Zellnutzung über den Tag. Jeder Knoten t V entspricht der aktuellen Zelle zur Zeit t Zeitliche Auflösung ist fest, z.b.: 15min. Insgesamt: V = T = 96 t=1 t=2 t=3 t=4 t=5 t=t 1 t=t von 32
33 Netzwerkzellen (idealisiert) cell -1 cell -2 cell von 32
34 Netzwerkzellen (geschätzt) 15 von 32
35 Suffiziente Statistik für Netzwerkzellen Daten werden fortlaufend aufgezeichnet aber nur die suffiziente Statistik φ (D) muss gespeichert werden! Für Knoten t V und Kanten (i, i + 1) E: φ t (x) = φ (i,i+1) (x) = 1 {Zelle 1 Zeit t}... 1 {Zelle M Zeit t} 1 {Zelle 1 Zeit i} 1 {Zelle 1 Zeit i+1} 1 {Zelle 1 Zeit i} 1 {Zelle 2 Zeit i+1} 1 {Zelle M Zeit i} 1 {Zelle M Zeit i+1} 16 von 32
36 φ (D) Eine Farbe pro Zelle Minute des Tages 17 von 32
37 P (X t ) Eine Farbe pro Zelle Minute des Tages 18 von 32
38 P (X t X = grüne Zelle ) Eine Farbe pro Zelle Minute des Tages 19 von 32
39 Vorhersage Ergebnisse Accuracy [%] SVM MRF, time User A User B User C SVM hat mehr Daten : P (X, Y ) = P (Y X) P (X) MRF Klassifikation 20 von 32
40 Ressourcennutzung I Auf dem Gerät: Wiederholte Verbindungsversuche verbrauchen viel Energie Vorhersage der Netzverfügbarkeit verwenden um Datentransfers zu verschieben Beim Provider: Vorhersage der Gesamtauslastung von Mobilfunkzellen E [#Nutzer in Zelle i um Zeit t] = p u (x t = i) u Nutzer Vorhersage der Anzahl von Nutzern die im nächsten Zeitpunkt in eine bestimmte Zelle wechseln werden 21 von 32
41 Ressourcennutzung I Auf dem Gerät: Wiederholte Verbindungsversuche verbrauchen viel Energie Vorhersage der Netzverfügbarkeit verwenden um Datentransfers zu verschieben Beim Provider: Vorhersage der Gesamtauslastung von Mobilfunkzellen E [#Nutzer in Zelle i um Zeit t] = p u (x t = i) u Nutzer Vorhersage der Anzahl von Nutzern die im nächsten Zeitpunkt in eine bestimmte Zelle wechseln werden 21 von 32
42 Apps Vorhersage der App Nutzung ermöglicht: Verbesserte Ressourcennutzung Verbesserte Vorhersage verbleibender Ressourcen Installierte Apps sind immer bekannt t T Jede App läuft oder nicht (binärer Zustandsraum) Graph wird aus Daten bestimmt (nächste Woche) 22 von 32
43 Apps über die Zeit 23 von 32
44 App Modell 98.0% 96.0% 94.0% 92.0% 90.0% 88.0% 86.0% 84.0% 22:00 21:00 20:00 19:00 18:00 17:00 16:00 15:00 14:00 13:00 12:00 11:00 10:00 09:00 08:00 07:00 06:00 05:00 04:00 03:00 02:00 01:00 00:00 24 von 32
45 Smarte Ressourcennutzung Apps bestimmten den Ressourcenverbrauch (Batterie, Netzwerk) Vorhersage: offline-apps genutzt Trenne Internetverbindung oder Wechsel zu Netz mit geringerer Bandbreite Batterieverbrauch einzelner Apps geschätzt per Regression auf Gesamtverbrauch Vorhersage der App-Nutzung kann dann für eine verbessert Batterielaufzeitprognose verwendet werden (auch: E-Auto, Roboter, Drohnen, usw.) E [Batterie Nutzung zur Zeit t] = App P (App läuft um t) Batterie (App) 25 von 32
46 Smarte Ressourcennutzung Apps bestimmten den Ressourcenverbrauch (Batterie, Netzwerk) Vorhersage: offline-apps genutzt Trenne Internetverbindung oder Wechsel zu Netz mit geringerer Bandbreite Batterieverbrauch einzelner Apps geschätzt per Regression auf Gesamtverbrauch Vorhersage der App-Nutzung kann dann für eine verbessert Batterielaufzeitprognose verwendet werden (auch: E-Auto, Roboter, Drohnen, usw.) E [Batterie Nutzung zur Zeit t] = App P (App läuft um t) Batterie (App) 25 von 32
47 Smarte Geräte 26 von 32
48 Smarte Geräte 27 von 32
49 Straßennetze I Daten: Sensoren messen Verkehrsfluss und Verkehrsdichte Verstehen und verbessern des aktuellen Straßennetzes Unterstützung für Routenplanung Autobahn.NRW 28 von 32
50 Straßennetze II Daten: Sensoren messen Verkehrsfluss und Verkehrsdichte Verstehen und verbessern des aktuellen Straßennetzes Unterstützung für Routenplanung Stadt Dublin 29 von 32
51 Straßennetze III Daten: Sensoren messen Verkehrsfluss und Verkehrsdichte Verstehen und verbessern des aktuellen Straßennetzes Unterstützung für Routenplanung Idee: Graphisches Modell der Straßennutzung Graphische Struktur gegeben durch Straßennetz(!) G 0 Straßengraph wird für jeden Zeitpunkt repliziert G = G 1 G 2 G T Zustandsraum gegeben durch Auslastung der Straße 30 von 32
52 Güte STRF MRF 4NN 3NN 2NN 1NN RAND 31 von 32
53 Verbesserte Nutzung des Straßennetzes Durch Stau werden jedes Jahr Millionen EURO umgewandelt in Tonnen von CO2 Optimierung des Straßennetzes durch Minimierung der Stauwahrscheinlichkeit Verhindern von Staus durch frühe Vorhersagen und automatische Umleitungen Verwendung von Stauwahrscheinlichkeiten in Navigationssystemen. 32 von 32
Wissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Belief Propagation, Strukturlernen Nico Piatkowski und Uwe Ligges 29.06.2017 1 von 13 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Support Vector Machine Nico Piatkowski und Uwe Ligges 30.05.2017 1 von 14 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Organisation und Überblick Nico Piatkowski und Uwe Ligges 8.0.07 von Fakten Team Vorlesung: Uwe Ligges, Nico Piatkowski Übung: Sarah Schnackenberg, Sebastian Buschjäger
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Modellklassen, Verlustfunktionen Nico Piatkowski und Uwe Ligges 02.05.2017 1 von 15 Literatur Trevor Hastie, Robert Tibshirani, Jerome Friedman. The Elements of Statistical
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen
MehrStrukturelle SVM zum Graph-labelling
23. Juni 2009 1 Was wir gerne hätten...... und der Weg dorthin Erinnerung: strukturelle SVM 2 Junction Tree Algorithmus Loopy Belief Propagation Gibbs Sampling 3 Umfang Qualität der Algorithmen Schlussfolgerungen
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken, Häufige Mengen Nico Piatkowski und Uwe Ligges 09.05.2017 1 von 15 Überblick Was bisher geschah... Heute Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen
MehrEvidenzpropagation in Bayes-Netzen und Markov-Netzen
Einleitung in Bayes-Netzen und Markov-Netzen Thomas Thüm 20. Juni 2006 1/26 Thomas Thüm in Bayes-Netzen und Markov-Netzen Übersicht Einleitung Motivation Einordnung der Begriffe 1 Einleitung Motivation
MehrTeil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung
Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()
MehrFolien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr
Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr
Universität Potsdam Institut für Informatik ehrstuhl Maschinelles ernen Modellevaluierung Niels andwehr ernen und Vorhersage Klassifikation, Regression: ernproblem Eingabe: Trainingsdaten Ausgabe: Modell
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 3: Lineares Modell, Klassifikation, PCA Randolf Altmeyer January 9, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrSyntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel
MehrZusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen
Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Dominik Lahmann Tobias Scheffer Überblick Hypothesenbewertung, Risikoschätzung
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
MehrVorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke
Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken SQL, Häufige Mengen Nico Piatkowski und Uwe Ligges 11.05.2017 1 von 16 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrAlgorithmen & Komplexität
Algorithmen & Komplexität Angelika Steger Institut für Theoretische Informatik steger@inf.ethz.ch Kürzeste Pfade Problem Gegeben Netzwerk: Graph G = (V, E), Gewichtsfunktion w: E N Zwei Knoten: s, t Kantenzug/Weg
MehrBayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp
Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität Volker Tresp 1 Einführung Bisher haben wir uns fast ausschließich mit überwachtem Lernen beschäftigt: Ziel war es, eine (oder mehr als eine)
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2010/11
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrMaschinelle Sprachverarbeitung
Maschinelle Sprachverarbeitung Übung Aufgabe 5: Gen-Erkennung mit Maschinellen Lernen Mario Sänger Problemstellung Erkennung von Genen in Texten NEU: Beachtung von Multi-Token-Entitäten (B-/I-protein)
MehrGauß-Prozess-Regression
Bayessche Regression und Gaußprozesse Dr. rer. nat. Johannes Riesterer Motivation Kriging Der südafrikanische Bergbauingenieur Danie Krige versuchte 1951, eine optimale Interpolationsmethode für den Bergbau
MehrUntersuchung von Poisson- und Multinomialverteilungsbasierten Modellen für die Analyse von Verkehrsdaten
Bachelorarbeit Untersuchung von Poisson- und Multinomialverteilungsbasierten Modellen für die Analyse von Verkehrsdaten Liudmila Vishnyakova 07. Oktober 2016 Gutachter: Prof. Dr. Katharina Morik Nico Piatkowski
MehrBayesianische Netzwerke - Lernen und Inferenz
Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle Modellierung einer Domäne mit verschiedenen
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 17/19, 24.04.2017 Wahrscheinlichkeit und Statistik Patric Müller WBL 2017 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrSemester-Fahrplan 1 / 17
Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrVergleich von SVM und Regel- und Entscheidungsbaum-Lernern
Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Chahine Abid Bachelor Arbeit Betreuer: Prof. Johannes Fürnkranz Frederik Janssen 28. November 2013 Fachbereich Informatik Fachgebiet Knowledge
Mehr1 Datenstrukturen Datenstrukturen und Algorithmen
1 Datenstrukturen 1.1 Abstrakte Datentypen 1.2 Lineare Strukturen 1.3 Bäume 1.4 Prioritätsschlangen 1.5 Graphen 1 1.5 Graphen Darstellung allgemeiner Beziehungen zwischen Objekten/Elementen Objekte = Knoten:
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit
MehrLatente Dirichlet-Allokation
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Eziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2007/08
MehrGrundbegriffe der Informatik
Grundbegriffe der Informatik Einheit 11: Graphen Thomas Worsch Universität Karlsruhe, Fakultät für Informatik Wintersemester 2008/2009 1/42 Graphische Darstellung von Zusammenhängen schon an vielen Stellen
MehrMaschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008
Maschinelles Lernen I Einführung Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 22. April 2008 Inhalt Einführung Lernen Maschinelle Lernverfahren im Überblick Phonetische Anwendungsbeispiele
MehrGrundbegriffe der Informatik
Grundbegriffe der Informatik Einheit 11: Graphen Thomas Worsch Karlsruher Institut für Technologie, Fakultät für Informatik Wintersemester 2010/2011 1/59 Graphische Darstellung von Zusammenhängen schon
MehrGenerative Modelle. Generative Modelle 1 / 49
Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten
MehrGrundlagen der Objektmodellierung
Grundlagen der Objektmodellierung Daniel Göhring 30.10.2006 Gliederung Grundlagen der Wahrscheinlichkeitsrechnung Begriffe zur Umweltmodellierung Bayesfilter Zusammenfassung Grundlagen der Wahrscheinlichkeitsrechnung
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Strukturelle Modelle Conditional Random Fields Katharina Morik LS 8 Informatik Technische Universität Dortmund 17.12. 2013 1 von 27 Gliederung 1 Einführung 2 HMM 3 CRF Strukturen
MehrKlassifikationsverfahren haben viele Anwendungen. Binäres Klassifikationsverfahren auch zur Klassifikation in mehr als zwei Klassen verwendbar
Rückblick Klassifikationsverfahren haben viele Anwendungen Binäres Klassifikationsverfahren auch zur Klassifikation in mehr als zwei Klassen verwendbar Konfusionsmatrix stellt Vorhersagen und Daten gegenüber
MehrMethoden der KI in der Biomedizin Bayes Netze
Methoden der KI in der Biomedizin Bayes Netze Karl D. Fritscher Bayes Netze Intuitiv: Graphische Repräsentation von Einfluss Mathematisch: Graphische Repräsentation von bedingter Unabhängigkeit Bayes Netze
MehrRidge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel
Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel Dr. Dominik Grimm Probelehrveranstaltung Fakultät für Informatik und Mathematik Hochschule
MehrWahrscheinlichkeitsrechnung und Statistik. 9. Vorlesung
Wahrscheinlichkeitsrechnung und Statistik 9. Vorlesung - 2018 Anwendung der Bayesschen Theorie in ML Bayessche Netzwerke Bayessche Netze werden in modernen Expertensystemen benutzt. Das Wissen wird über
Mehr, Data Mining, 2 VO Sommersemester 2008
Evaluation 188.646, Data Mining, 2 VO Sommersemester 2008 Dieter Merkl e-commerce Arbeitsgruppe Institut für Softwaretechnik und Interaktive Systeme Technische Universität Wien www.ec.tuwien.ac.at/~dieter/
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:
MehrLearning to Rank Sven Münnich
Learning to Rank Sven Münnich 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 1 Übersicht 1. Einführung 2. Methoden 3. Anwendungen 4. Zusammenfassung & Fazit 06.12.12 Fachbereich 20 Seminar
MehrWahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 21. Dezember 2011 1 Definition Binomialverteilung Geometrische Verteilung Poissonverteilung 2 Standardisierte Verteilung
MehrSchnelle und genaue Routenplanung
Sanders/Schultes: Routenplanung 1 Schnelle und genaue Routenplanung Peter Sanders Dominik Schultes Institut für Theoretische Informatik Algorithmik II Universität Karlsruhe Tag der Informatik, 15. Juli
MehrSprechstunde zur Klausurvorbereitung
htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr Paul Prasse
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Paul Prasse Tobias Scheffer Sawade/Landwehr/Prasse/Scheffer, Maschinelles Lernen
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen. Tobias Scheffer Michael Brückner
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Tobias Scheffer Michael Brückner Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Mo 10:00-11:30
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische
MehrKapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
MehrGrundbegriffe der Informatik
Grundbegriffe der Informatik Kapitel 15: Graphen Thomas Worsch KIT, Institut für Theoretische Informatik Wintersemester 2015/2016 GBI Grundbegriffe der Informatik KIT, Institut für Theoretische Informatik
MehrModellierung mit künstlicher Intelligenz
Samuel Kost kosts@mailbox.tu-freiberg.de Institut für Numerische Mathematik und Optimierung Modellierung mit künstlicher Intelligenz Ein Überblick über existierende Methoden des maschinellen Lernens 13.
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe
MehrKlausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK
Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:
MehrÜberblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression
Überblick Grundkonzepte des Baes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression Baes sche Vorhersage Münzwürfe Lineare Regression 57 Erinnerung:
MehrAbgabe: (vor der Vorlesung)
TECHNISCHE UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR INFORMATIK Lehrstuhl für Sprachen und Beschreibungsstrukturen SS 009 Grundlagen: Algorithmen und Datenstrukturen Übungsblatt 0 Prof. Dr. Helmut Seidl, S. Pott,
MehrStatistische Datenanalyse
Werner A. Stahel Statistische Datenanalyse Eine Einführung für Naturwissenschaftler 3., durchgesehene Auflage vieweg VII 1 Einleitung 1 1.1 Was ist Statistische Datenanalyse? 1 1.2 Ziele 6 1.3 Hinweise
MehrGrundlagen: Algorithmen und Datenstrukturen
Grundlagen: Algorithmen und Datenstrukturen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester H.
MehrGrundbegriffe der Informatik Tutorium 8
Grundbegriffe der Informatik Tutorium 8 Tutorium Nr. 16 Philipp Oppermann 22. Dezember 2014 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrVorlesung 2 KÜRZESTE WEGE
Vorlesung 2 KÜRZESTE WEGE 34 Kürzeste Wege im Graphen Motivation! Heute:! Kürzeste Wege von einem Knoten (SSSP)! Kürzeste Wege zwischen allen Knotenpaaren (APSP)! Viele Anwendungen:! Navigationssysteme!
MehrLogistische Regression
Logistische Regression Christian Herta August, 2013 1 von 45 Christian Herta Logistische Regression Lernziele Logistische Regression Konzepte des maschinellen Lernens (insb. der Klassikation) Entscheidungsgrenze,
MehrHidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
MehrInhalt. 6.1 Motivation. 6.2 Klassifikation. 6.3 Clusteranalyse. 6.4 Asszoziationsanalyse. Datenbanken & Informationssysteme / Kapitel 6: Data Mining
6. Data Mining Inhalt 6.1 Motivation 6.2 Klassifikation 6.3 Clusteranalyse 6.4 Asszoziationsanalyse 2 6.1 Motivation Data Mining and Knowledge Discovery zielt darauf ab, verwertbare Erkenntnisse (actionable
MehrUnabhängigkeit von Zufallsvariablen
Unabhängigkeit von Zufallsvariablen Seminar Gegenbeispiele in der Wahrscheinlichkeitstheorie Pascal Beckedorf 12. November 2012 Pascal Beckedorf Unabhängigkeit von Zufallsvariablen 12. November 2012 1
MehrÜbungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression
Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen
Mehr6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)
6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden
MehrGenerative Modelle. Generative Modelle 1 / 49
Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die
MehrStatistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie
1/19 Statistik für Informatiker, SS 2018 1 Grundlagen aus der Wahrscheinlichkeitstheorie 1.3 Bedingte Wahrscheinlichkeiten, Unabhängigkeit, gemeinsame Verteilung 1.3.4 Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo18/
MehrEinführung in die diskreten Bayes- und Kredal-Netze
Einführung in die diskreten Bayes- und Kredal-Netze Master-Seminar im Wintersemester 2015/16 Patrick Schwaferts Institut für Statistik, LMU 16. Januar 2016 Schwaferts (Institut für Statistik, LMU) Bayes-
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrGraphentheorie. Zufallsgraphen. Zufallsgraphen. Zufallsgraphen. Rainer Schrader. 23. Januar 2008
Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 3. Januar 008 1 / 45 / 45 Gliederung man könnte vermuten, dass ein Graph mit großer chromatischer Zahl einen dichten Teilgraphen enthalten
MehrBrownsche Bewegung Seminar - Weiche Materie
Brownsche Bewegung Seminar - Weiche Materie Simon Schnyder 11. Februar 2008 Übersicht Abbildung: 3 Realisationen des Weges eines Brownschen Teilchens mit gl. Startort Struktur des Vortrags Brownsches Teilchen
MehrFortgeschrittene Ökonometrie: Maximum Likelihood
Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,
Mehrk-nächste-nachbarn-schätzung
k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrFerienkurs Propädeutikum Diskrete Mathematik
Ferienkurs Propädeutikum Diskrete Mathematik Teil 3: Grundlagen Graphentheorie Tina Janne Schmidt Technische Universität München April 2012 Tina Janne Schmidt (TU München) Ferienkurs Propädeutikum Diskrete
MehrKlausurvorbereitung. 1 Zentrale Begriffe. 2 Bipartite Graphen. 2.1 Begriffe. Vorlesung Graphen und Optimierung Sommersemester 2011 Prof. S.
Vorlesung Graphen und Optimierung Sommersemester 2011 Prof. S. Lange Klausurvorbereitung Hier finden Sie alle Begriffe, Zusammenhänge und Algorithmen, die mit Blick auf die Klausur relevant sind. Um es
MehrDarstellung, Verarbeitung und Erwerb von Wissen
Darstellung, Verarbeitung und Erwerb von Wissen Gabriele Kern-Isberner LS 1 Information Engineering TU Dortmund Wintersemester 2015/16 WS 2015/16 G. Kern-Isberner (TU Dortmund) DVEW WS 2015/16 1 / 267
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial i Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
MehrTrim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19
Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, 2016 6:34 P.M. Page 11 Inhaltsverzeichnis Über die Übersetzerin 9 Einleitung 19 Was Sie hier finden werden 19 Wie dieses Arbeitsbuch aufgebaut ist
MehrFunktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen
5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus
MehrKlassen diskreter Variablen
Modelle diskreter Variablen Klassen diskreter Variablen binär multinomial Weitere Klassifizierung multinomialer diskreter Variablen: kategorial y = 1, falls Einkommen < 3000 e. y = 2, falls Einkommen zw.
MehrTechnische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen
Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.172 Algorithmen und Datenstrukturen 1 VL 4.0 Übungsblatt 4 für die Übung
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II
Statistik II 1. Ergänzungen zur Wahrscheinlichkeitstheorie Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 1. Ergänzungen zur
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
Mehr