Wissensentdeckung in Datenbanken
|
|
- Emil Seidel
- vor 5 Jahren
- Abrufe
Transkript
1 Wissensentdeckung in Datenbanken Belief Propagation, Strukturlernen Nico Piatkowski und Uwe Ligges von 13
2 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung Überanpassung SQL, Häufige Mengen SVM, xda, Bäume,... Heute Inferenz und Strukturlernen 2 von 13
3 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung Überanpassung SQL, Häufige Mengen SVM, xda, Bäume,... Heute Inferenz und Strukturlernen 2 von 13
4 Mehr Eigenschaften von Graphen Nachbarschaft: Für Knoten v V in Graph G = (V, E) 1 4 N (v) = {u V {v, u} E} Pfad: Folge (v 1, v 2,..., v m ) von Knoten in der sich kein Knoten wiederholt 2 3 Kreis: Pfad (v 1, v 2,..., v m ) mit {v 1, v m } E Baum: Graph ohne Kreise ( kreisfrei ) Maximale Cliquengröße = 2 3 von 13
5 Mehr Eigenschaften von Graphen Nachbarschaft: Für Knoten v V in Graph G = (V, E) 1 4 N (v) = {u V {v, u} E} Pfad: Folge (v 1, v 2,..., v m ) von Knoten in der sich kein Knoten wiederholt 2 3 Kreis: Pfad (v 1, v 2,..., v m ) mit {v 1, v m } E Baum: Graph ohne Kreise ( kreisfrei ) Maximale Cliquengröße = 2 3 von 13
6 Mehr Eigenschaften von Graphen Nachbarschaft: Für Knoten v V in Graph G = (V, E) 1 4 N (v) = {u V {v, u} E} Pfad: Folge (v 1, v 2,..., v m ) von Knoten in der sich kein Knoten wiederholt 2 3 Kreis: Pfad (v 1, v 2,..., v m ) mit {v 1, v m } E Baum: Graph ohne Kreise ( kreisfrei ) Maximale Cliquengröße = 2 3 von 13
7 Mehr Eigenschaften von Graphen Nachbarschaft: Für Knoten v V in Graph G = (V, E) 1 4 N (v) = {u V {v, u} E} Pfad: Folge (v 1, v 2,..., v m ) von Knoten in der sich kein Knoten wiederholt 2 3 Kreis: Pfad (v 1, v 2,..., v m ) mit {v 1, v m } E Baum: Graph ohne Kreise ( kreisfrei ) Maximale Cliquengröße = 2 3 von 13
8 Gradient der Log-Likelihood von Exponentialfamilien Gegeben Datensatz D, Funktion φ (binär), Ẽ[φ(X)] = (1/ D ) x D φ(x), P β (x) = exp( β, φ(x) A(β)) Negative mittlere log-likelihood: l(β; D) = 1 D Partielle Ableitung nach β i : log P β (x) x D = 1 β, φ(x) + A(β) D x D = β, Ẽ[φ(X)] + A(β) l(β; D) = Ẽ[φ(X) i] + A(β) 4 von 13
9 Gradient der Log-Likelihood von Exponentialfamilien Gegeben Datensatz D, Funktion φ (binär), Ẽ[φ(X)] = (1/ D ) x D φ(x), P β (x) = exp( β, φ(x) A(β)) Negative mittlere log-likelihood: l(β; D) = 1 D Partielle Ableitung nach β i : log P β (x) x D = 1 β, φ(x) + A(β) D x D = β, Ẽ[φ(X)] + A(β) l(β; D) = Ẽ[φ(X) i] + A(β) 4 von 13
10 Gradient der Log-Likelihood von Exponentialfamilien Gegeben Datensatz D, Funktion φ (binär), Ẽ[φ(X)] = (1/ D ) x D φ(x), P β (x) = exp( β, φ(x) A(β)) Negative mittlere log-likelihood: l(β; D) = 1 D Partielle Ableitung nach β i : log P β (x) x D = 1 β, φ(x) + A(β) D x D = β, Ẽ[φ(X)] + A(β) l(β; D) = Ẽ[φ(X) i] + A(β) 4 von 13
11 Gradient der Log-Likelihood von Exponentialfamilien Gegeben Datensatz D, Funktion φ (binär), Ẽ[φ(X)] = (1/ D ) x D φ(x), P β (x) = exp( β, φ(x) A(β)) Negative mittlere log-likelihood: l(β; D) = 1 D Partielle Ableitung nach β i : log P β (x) x D = 1 β, φ(x) + A(β) D x D = β, Ẽ[φ(X)] + A(β) l(β; D) = Ẽ[φ(X) i] + A(β) 4 von 13
12 Gradient der Log-Likelihood von Exponentialfamilien Gegeben Datensatz D, Funktion φ (binär), Ẽ[φ(X)] = (1/ D ) x D φ(x), P β (x) = exp( β, φ(x) A(β)) Negative mittlere log-likelihood: l(β; D) = 1 D Partielle Ableitung nach β i : log P β (x) x D = 1 β, φ(x) + A(β) D x D = β, Ẽ[φ(X)] + A(β) l(β; D) = Ẽ[φ(X) i] + A(β) 4 von 13
13 Gradient der Log-Likelihood von Exponentialfamilien Gegeben Datensatz D, Funktion φ (binär), Ẽ[φ(X)] = (1/ D ) x D φ(x), P β (x) = exp( β, φ(x) A(β)) Negative mittlere log-likelihood: l(β; D) = 1 D Partielle Ableitung nach β i : log P β (x) x D = 1 β, φ(x) + A(β) D x D = β, Ẽ[φ(X)] + A(β) l(β; D) = Ẽ[φ(X) i] + A(β) 4 von 13
14 Ableitung der Normalisierung Erinnerung: Form von A(β) (= log Z(β)) ist abhängig von X (diskret?,reel?,endlich?).hier: A(β) = log exp( β, φ(x) ) x X 1 = exp( β, φ(x) ) Z(β) x X 1 = Z(β) exp( β, φ(x) ) β, φ(x) x X = exp( β, φ(x) A(β))φ(x) i x X = E β [φ(x) i ] 5 von 13
15 Ableitung der Normalisierung Erinnerung: Form von A(β) (= log Z(β)) ist abhängig von X (diskret?,reel?,endlich?).hier: A(β) = log exp( β, φ(x) ) x X 1 = exp( β, φ(x) ) Z(β) x X 1 = Z(β) exp( β, φ(x) ) β, φ(x) x X = exp( β, φ(x) A(β))φ(x) i x X = E β [φ(x) i ] 5 von 13
16 Ableitung der Normalisierung Erinnerung: Form von A(β) (= log Z(β)) ist abhängig von X (diskret?,reel?,endlich?).hier: A(β) = log exp( β, φ(x) ) x X 1 = exp( β, φ(x) ) Z(β) x X 1 = Z(β) exp( β, φ(x) ) β, φ(x) x X = exp( β, φ(x) A(β))φ(x) i x X = E β [φ(x) i ] 5 von 13
17 Ableitung der Normalisierung Erinnerung: Form von A(β) (= log Z(β)) ist abhängig von X (diskret?,reel?,endlich?).hier: A(β) = log exp( β, φ(x) ) x X 1 = exp( β, φ(x) ) Z(β) x X 1 = Z(β) exp( β, φ(x) ) β, φ(x) x X = exp( β, φ(x) A(β))φ(x) i x X = E β [φ(x) i ] 5 von 13
18 Ableitung der Normalisierung Erinnerung: Form von A(β) (= log Z(β)) ist abhängig von X (diskret?,reel?,endlich?).hier: A(β) = log exp( β, φ(x) ) x X 1 = exp( β, φ(x) ) Z(β) x X 1 = Z(β) exp( β, φ(x) ) β, φ(x) x X = exp( β, φ(x) A(β))φ(x) i x X = E β [φ(x) i ] 5 von 13
19 Ableitung der Normalisierung Erinnerung: Form von A(β) (= log Z(β)) ist abhängig von X (diskret?,reel?,endlich?).hier: A(β) = log exp( β, φ(x) ) x X 1 = exp( β, φ(x) ) Z(β) x X 1 = Z(β) exp( β, φ(x) ) β, φ(x) x X = exp( β, φ(x) A(β))φ(x) i x X = E β [φ(x) i ] 5 von 13
20 Gradient der Log-Likelihood von Exponentialfamilien Also gilt für die partielle Ableitung nach β i : l(β; D) = Ẽ[φ(X) i] + A(β) = E β [φ(x) i ] Ẽ[φ(X) i] Ableitung ist beschränkt l(β;d) β [ 1; 1] l ist Lipschitz stetig i Man kann zeigen: l(β; D) auch Lipschitz stetig (L = 2 C(G) ) Jetzt: Wie berechnet man E β [φ(x) i ]? Jedes i entspricht einem Paar von Clique und Zustand, d.h. φ(x) i = φ(x) C=y für ein C C(g) und y X C 6 von 13
21 Gradient der Log-Likelihood von Exponentialfamilien Also gilt für die partielle Ableitung nach β i : l(β; D) = Ẽ[φ(X) i] + A(β) = E β [φ(x) i ] Ẽ[φ(X) i] Ableitung ist beschränkt l(β;d) β [ 1; 1] l ist Lipschitz stetig i Man kann zeigen: l(β; D) auch Lipschitz stetig (L = 2 C(G) ) Jetzt: Wie berechnet man E β [φ(x) i ]? Jedes i entspricht einem Paar von Clique und Zustand, d.h. φ(x) i = φ(x) C=y für ein C C(g) und y X C 6 von 13
22 Gradient der Log-Likelihood von Exponentialfamilien Also gilt für die partielle Ableitung nach β i : l(β; D) = Ẽ[φ(X) i] + A(β) = E β [φ(x) i ] Ẽ[φ(X) i] Ableitung ist beschränkt l(β;d) β [ 1; 1] l ist Lipschitz stetig i Man kann zeigen: l(β; D) auch Lipschitz stetig (L = 2 C(G) ) Jetzt: Wie berechnet man E β [φ(x) i ]? Jedes i entspricht einem Paar von Clique und Zustand, d.h. φ(x) i = φ(x) C=y für ein C C(g) und y X C 6 von 13
23 Marginalisierung Wenn Z binäre Zufallsvariable (Z = {0, 1}), dann E[Z] = P(Z = 1) Ziel: Berechnung von E β [φ(x) C=y ] = P(X C = y) Allgemein: P β (X C = y) = P β (y, x) x X V C Ausnutzen der Faktorisierung sowie der Distributivität: P β (X C = y) = 1 Z(β) x X V C exp( β U, φ U (z U ) ) U C(G) wobei z = (y, x) und z U sind die Werte der Knoten in U V 7 von 13
24 Marginalisierung Wenn Z binäre Zufallsvariable (Z = {0, 1}), dann E[Z] = P(Z = 1) Ziel: Berechnung von E β [φ(x) C=y ] = P(X C = y) Allgemein: P β (X C = y) = P β (y, x) x X V C Ausnutzen der Faktorisierung sowie der Distributivität: P β (X C = y) = 1 Z(β) x X V C exp( β U, φ U (z U ) ) U C(G) wobei z = (y, x) und z U sind die Werte der Knoten in U V 7 von 13
25 Marginalisierung Wenn Z binäre Zufallsvariable (Z = {0, 1}), dann E[Z] = P(Z = 1) Ziel: Berechnung von E β [φ(x) C=y ] = P(X C = y) Allgemein: P β (X C = y) = P β (y, x) x X V C Ausnutzen der Faktorisierung sowie der Distributivität: P β (X C = y) = 1 Z(β) x X V C exp( β U, φ U (z U ) ) U C(G) wobei z = (y, x) und z U sind die Werte der Knoten in U V 7 von 13
26 Marginalisierung in Bäumen Ziel: Berechnung von E β [φ(x) C=y ] = P(X C = y) Wenn G ein Baum ist mit V = {1, 2,..., n}, dann ist und P β (x) = 1 Z(β) exp( β uv, φ uv (x uv ) ) uv E Z(β) = exp( β uv, φ uv (x uv ) ) x X uv E = exp( β uv, φ uv (x uv ) ) x 2 X 2 x 1 X 1 Distributivität ausnutzen! x n X n uv E 8 von 13
27 Belief Propagation Ziel: Berechnung von E β [φ(x) C=y ] = P(X C = y) Z(β) = x 1 X 1 x 2 X 2 Distributivität ausnutzen... x n X n uv E exp( β uv, φ uv (x uv ) ) ψ uv(x uv) m v u (x) = ψ uv (yx) y X v Z(β) = y X v w N (v) P(X uv = xy) = ψ uv(yx) Z(β) w N (v) {u} m w v (y) w N (v) {u} m w v (y) m w v (y) w N (u) {v} m w u (y) 9 von 13
28 Belief Propagation Ziel: Berechnung von E β [φ(x) C=y ] = P(X C = y) Z(β) = x 1 X 1 x 2 X 2 Distributivität ausnutzen... x n X n uv E exp( β uv, φ uv (x uv ) ) ψ uv(x uv) m v u (x) = ψ uv (yx) y X v Z(β) = y X v w N (v) P(X uv = xy) = ψ uv(yx) Z(β) w N (v) {u} m w v (y) w N (v) {u} m w v (y) m w v (y) w N (u) {v} m w u (y) 9 von 13
29 Belief Propagation Ziel: Berechnung von E β [φ(x) C=y ] = P(X C = y) Z(β) = x 1 X 1 x 2 X 2 Distributivität ausnutzen... x n X n uv E exp( β uv, φ uv (x uv ) ) ψ uv(x uv) m v u (x) = ψ uv (yx) y X v Z(β) = y X v w N (v) P(X uv = xy) = ψ uv(yx) Z(β) w N (v) {u} m w v (y) w N (v) {u} m w v (y) m w v (y) w N (u) {v} m w u (y) 9 von 13
30 Gibbs Sampling Problem: Belief Propagation nur exakt wenn G ein Baum ist! Idee: Erzeuge neue Stichprobe gemäß P β und berechne ˆµ i durch abzählen Aber: Wie erzeugt man neue Samples aus P β (X)? Ausnutzung bedingter Unabhängigkeiten! Beobachtung: Wenn ganze Nachbarschaft eines Knotens v beobachtet ist, kann P v (x x N (v) ) einfach berechnet werden! 10 von 13
31 Gibbs Sampling Problem: Belief Propagation nur exakt wenn G ein Baum ist! Idee: Erzeuge neue Stichprobe gemäß P β und berechne ˆµ i durch abzählen Aber: Wie erzeugt man neue Samples aus P β (X)? Ausnutzung bedingter Unabhängigkeiten! Beobachtung: Wenn ganze Nachbarschaft eines Knotens v beobachtet ist, kann P v (x x N (v) ) einfach berechnet werden! 10 von 13
32 Gibbs Sampling: Algorithmus 1 Erzeuge x zufällig Gleichverteilt (das entspricht NICHT P β!) 2 Besuche jeden Knoten v V und weise gemäß P v (x x N (v) ) neuen Wert zu 3 Wiederhole Schritt 2 so oft wie möglich Man kann zeigen: Nach endlicher Anzahl von Schritten ist x ein echtes Sample aus P β! Dann: Nutze den Algorithmus um viele (so viele wie möglich) Samples zu erzeugen und berechne P(X uv = xy) (für alle Kanten {v, u} E) durch abzählen 11 von 13
33 Gibbs Sampling: Algorithmus 1 Erzeuge x zufällig Gleichverteilt (das entspricht NICHT P β!) 2 Besuche jeden Knoten v V und weise gemäß P v (x x N (v) ) neuen Wert zu 3 Wiederhole Schritt 2 so oft wie möglich Man kann zeigen: Nach endlicher Anzahl von Schritten ist x ein echtes Sample aus P β! Dann: Nutze den Algorithmus um viele (so viele wie möglich) Samples zu erzeugen und berechne P(X uv = xy) (für alle Kanten {v, u} E) durch abzählen 11 von 13
34 Chow-Liu Bäume Minimierung der Distanz zwischen optimalem Graph und bestem Baum T Hier: Distanz gemessen durch Kullback-Leiber Divergenz Kann umgeform werden zu KL(P, P T ) = P (x) log P (x) x X P T (x) KL(P, P T ) = H(P ) + v V H(P v) vu E(T ) I(X v, X u ) Maximaler Spannbaum! mit I(X v, X u ) = KL(P vu, P v P u ) (Allgemeines Maß für Unabhängigkeit!) 12 von 13
35 Chow-Liu Bäume Minimierung der Distanz zwischen optimalem Graph und bestem Baum T Hier: Distanz gemessen durch Kullback-Leiber Divergenz Kann umgeform werden zu KL(P, P T ) = P (x) log P (x) x X P T (x) KL(P, P T ) = H(P ) + v V H(P v) vu E(T ) I(X v, X u ) Maximaler Spannbaum! mit I(X v, X u ) = KL(P vu, P v P u ) (Allgemeines Maß für Unabhängigkeit!) 12 von 13
36 Graphen mittels Regularisierung Baobachtung: Sind ist kompletter Parametervektor β vu einer Kante = 0, so hat diese Kante keinen Einfluss auf P(X = x)! Idee: Minimiere l(β; D) + λ β 1 1 nicht differenzierbar!! Proximaler Gradientenabstieg (nächste Woche) Spoiler: β i λ, β i > λ prox λ 1 (β i ) = β i + λ, β i < λ 0, sonst 13 von 13
Wissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Support Vector Machine Nico Piatkowski und Uwe Ligges 30.05.2017 1 von 14 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Organisation und Überblick Nico Piatkowski und Uwe Ligges 8.0.07 von Fakten Team Vorlesung: Uwe Ligges, Nico Piatkowski Übung: Sarah Schnackenberg, Sebastian Buschjäger
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrStrukturelle SVM zum Graph-labelling
23. Juni 2009 1 Was wir gerne hätten...... und der Weg dorthin Erinnerung: strukturelle SVM 2 Junction Tree Algorithmus Loopy Belief Propagation Gibbs Sampling 3 Umfang Qualität der Algorithmen Schlussfolgerungen
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken, Häufige Mengen Nico Piatkowski und Uwe Ligges 09.05.2017 1 von 15 Überblick Was bisher geschah... Heute Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen
MehrGenerative Modelle. Generative Modelle 1 / 49
Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste
MehrHidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
MehrSyntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken SQL, Häufige Mengen Nico Piatkowski und Uwe Ligges 11.05.2017 1 von 16 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrGenerative Modelle. Generative Modelle 1 / 49
Generative Modelle Generative Modelle 1 / 49 Die Zielstellung Bisher: Lerne eine unbekannte Zielfunktion approximativ nach Beobachtung zufällig erzeugter Beispiele Jetzt: Finde möglichst viel über die
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrInstitut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle: Inferenz Wir haben eine Domäne durch gemeinsame
Mehr2. Optimierungsprobleme 6
6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen
MehrWahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom
Institut für Stochastik WS 009/10 Karlsruher Institut für Technologie (KIT) Dr. B. Klar Klausur Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom 08.0.010 Musterlösungen Aufgabe
MehrNachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011
Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester 2011 28. Oktober 2011 Prof. Dr. Torsten Hothorn Institut für Statistik Nachname: Vorname: Matrikelnummer: Anmerkungen: ˆ Schreiben
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:
MehrSeminar: Data Mining. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen. Ein Vortrag von Mathias Rohde. 11.
Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen 11. Juni 2009 Gliederung 1 Problemstellung 2 Vektorprodukt Approximationen Samplesammlung 3 Schritte Lokalität und Nachrichtenkomplexität
MehrKlausur: Differentialgleichungen Version mit Lösungen
Universität Kassel Fachbereich 10/16 Dr. Sebastian Petersen 16.03.2016 Klausur: Differentialgleichungen Version mit Lösungen Name: Vorname: Matrikelnummer: Versuch: Unterschrift: Bitte fangen Sie für jede
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrUntersuchung von Poisson- und Multinomialverteilungsbasierten Modellen für die Analyse von Verkehrsdaten
Bachelorarbeit Untersuchung von Poisson- und Multinomialverteilungsbasierten Modellen für die Analyse von Verkehrsdaten Liudmila Vishnyakova 07. Oktober 2016 Gutachter: Prof. Dr. Katharina Morik Nico Piatkowski
MehrAlgo&Komp. - Wichtige Begriffe Mattia Bergomi Woche 6 7
1 Kürzeste Pfade Woche 6 7 Hier arbeiten wir mit gewichteten Graphen, d.h. Graphen, deren Kanten mit einer Zahl gewichtet werden. Wir bezeichnen die Gewichtsfunktion mit l : E R. Wir wollen einen kürzesten
MehrTheoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
MehrDie mittlere Höhe eines Binärbaumes. h(t) = 1 e(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t
Höhe von Binärbäumen Die mittlere Höhe eines Binärbaumes h(t) = 1 e(t) b E(t) mit E(t) = Menge der Blätter von t, h(b, t) = Höhe des Blattes b in t h(b, t), Höhe von Binärbäumen Die mittlere Höhe eines
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Modellklassen, Verlustfunktionen Nico Piatkowski und Uwe Ligges 02.05.2017 1 von 15 Literatur Trevor Hastie, Robert Tibshirani, Jerome Friedman. The Elements of Statistical
MehrKlausur zu Analysis II - Lösungen
Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Dr. Axel Grünrock WS 1/11 11..11 Klausur zu Analysis II - Lösungen 1. Entscheiden Sie, ob die folgenden Aussagen richtig oder falsch sind.
MehrKlassen diskreter Variablen
Modelle diskreter Variablen Klassen diskreter Variablen binär multinomial Weitere Klassifizierung multinomialer diskreter Variablen: kategorial y = 1, falls Einkommen < 3000 e. y = 2, falls Einkommen zw.
MehrOptimale Lösungen mit Greedy-Strategie erfordern Optimalität der Greedy-Wahl. Beispiele für optimale Greedy-Lösungen
Wiederholung Optimale Lösungen mit Greedy-Strategie erfordern Optimalität der Greedy-Wahl unabhängig von Subproblemen Optimalität der Subprobleme Beispiele für optimale Greedy-Lösungen Scheduling Problem
MehrSeminar stochastische Geometrie. 25. Januar Faserprozesse im R 2. Simona Renner. Faserprozesse. Kenngrößen Intensität Richtungsrose
Seminar stochastische Geometrie 25. Januar 2010 Contents 1 2 3 4 5 Definitionen Faser: glatte Kurve endlicher Länge in der Ebene Faser γ ist das Bild der Kurve γ(t) = (γ 1 (t), γ 2 (t)) mit (i) γ : [0,
MehrOgden s Lemma (T6.4.2)
Weiteres Beispiel L={a r b s c t d u r=0 s=t=u} Nahe liegende Vermutung: L nicht kontextfrei. Kann man mit dem Pumping-Lemma nicht zeigen. r=0: Pumpen erzeugt Wort aus L. r>0: Pumpen der a s erzeugt Wort
Mehr8.4 Digraphen mit negativen Kantengewichten Grundsätzliches Betrachte Startknoten s und einen Kreis C mit Gesamtlänge < 0.
8.4 Digraphen mit negativen Kantengewichten 8.4.1 Grundsätzliches Betrachte Startknoten s und einen Kreis C mit Gesamtlänge < 0. k 4 5 1 s 1 3 2 C k 0 k 3 1 1 1 k 1 k 2 v Sollte ein Pfad von s nach C und
MehrKlausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK
Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Christoph Sawade/Niels Landwehr/Tobias Scheffer Überblick Problemstellung/Motivation Deterministischer i ti Ansatz:
MehrSimulation von Zufallszahlen. Grundlage: zufällige Quelle von Zufallszahlen, durch einfachen rekursiven Algorithmus am Computer erzeugt
Simulation von Zufallszahlen Grundlage: zufällige Quelle von Zufallszahlen, durch einfachen rekursiven Algorithmus am Computer erzeugt Definition: Eine Folge von Pseudo-Zufallszahlen U i ist eine deterministische
MehrKapitel 8: Bipartite Graphen Gliederung der Vorlesung
Gliederung der Vorlesung 1. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege 4. Minimale spannende Bäume 5. Färbungen und Cliquen 6. Traveling Salesman Problem 7. Flüsse in Netzwerken
MehrProbabilistische Graphische Modelle
Probabilistische Graphische Modelle 1 Probabilistische Graphische Modelle Sven Wachsmuth Universität Bielefeld, Technische Fakultät, AG Angewandte Informatik WS 2006/2007 Übersicht über die Vorlesung Probabilistische
MehrBinomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.
Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrVorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)
Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 3/4) Kapitel : Optimierung ohne Nebenbedingungen Volker Kaibel Otto-von-Guericke Universität Magdeburg (Version vom. Oktober 3) Gliederung
MehrVERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN
KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut
MehrMultivariate Kettenregel
Multivariate Kettenregel Für die Hintereinanderschaltung h = g f : x y = f (x) z = g(y), stetig differenzierbarer Funktionen f : R m R l und g : R l R n gilt h (x) = g (y)f (x), d.h. die Jacobi-Matrix
MehrWahrscheinlichkeitsrechnung und Statistik
6. Vorlesung - 2018 Diskrete ZG eine diskrete ZG X wird vollständig durch ihre Wahrscheinlichkeitsverteilung beschrieben ( ) x1 x X 2... x i... = p 1 p 2... p i... P(X (a, b]) = und die Verteilungsfunktion
MehrVektorräume und lineare Abbildungen
Kapitel 11. Vektorräume und lineare Abbildungen 1 11.1 Vektorräume Sei K ein Körper. Definition. Ein Vektorraum über K (K-Vektorraum) ist eine Menge V zusammen mit einer binären Operation + einem ausgezeichneten
MehrGraphentheorie. Zufallsgraphen. Zufallsgraphen. Zufallsgraphen. Rainer Schrader. 23. Januar 2008
Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 3. Januar 008 1 / 45 / 45 Gliederung man könnte vermuten, dass ein Graph mit großer chromatischer Zahl einen dichten Teilgraphen enthalten
Mehr5 Allgemeine Verfahren zum Testen von Hypothesen
5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrDer Branching-Operator B
Branching 1 / 17 Der Branching-Operator B Unser Ziel: Löse das allgemeine Minimierungsproblem minimiere f (x), so dass Lösung(x). B zerlegt eine Menge von Lösungen in disjunkte Teilmengen. Die wiederholte
Mehr1. Eigenschaften einer Zufallsstichprobe
1. Eigenschaften einer Zufallsstichprobe 1.1 Grundkonzepte Definition 1.1.1: Man nennt die Zufallsvariablen X 1,..., X n zufällige Stichprobe oder Zufallsstichprobe vom Umfang n aus der Population (Grundgesamtheit)
MehrDatenstrukturen und Algorithmen (SS 2013)
Datenstrukturen und Algorithmen (SS 2013) Übungsblatt 10 Abgabe: Montag, 08.07.2013, 14:00 Uhr Die Übungen sollen in Gruppen von zwei bis drei Personen bearbeitet werden. Schreiben Sie die Namen jedes
MehrAlgorithmische Geometrie: Delaunay Triangulierung (Teil 2)
Algorithmische Geometrie: Delaunay Triangulierung (Teil 2) Nico Düvelmeyer WS 2009/2010, 2.2.2010 Überblick 1 Delaunay Triangulierungen 2 Berechnung der Delaunay Triangulierung Randomisiert inkrementeller
MehrHidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014
idden Markov Models Vorlesung omputerlinguistische Techniken Alexander Koller 8. Dezember 04 n-gramm-modelle Ein n-gramm ist ein n-tupel von Wörtern. -Gramme heißen auch Unigramme; -Gramme Bigramme; -Gramme
MehrKapitel 5: Minimale spannende Bäume Gliederung der Vorlesung
Gliederung der Vorlesung 1. Grundbegriffe 2. Elementare Graphalgorithmen und Anwendungen 3. Kürzeste Wege. Minimale spannende Bäume. Färbungen und Cliquen. Traveling Salesman Problem. Flüsse in Netzwerken
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrWahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme
Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder
MehrSemester-Fahrplan 1 / 17
Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD
Mehrf(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212
1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,
Mehr12 Gewöhnliche Differentialgleichungen
2 2 Gewöhnliche Differentialgleichungen 2. Einleitung Sei f : D R wobei D R 2. Dann nennt man y = f(x, y) (5) eine (gewöhnliche) Differentialgleichung (DGL) erster Ordnung. Als Lösung von (5) akzeptiert
Mehr1. Einige Begriffe aus der Graphentheorie
. Einige Begriffe aus der Graphentheorie Notation. Sei M eine Menge, n N 0. Dann bezeichnet P n (M) die Menge aller n- elementigen Teilmengen von M, und P(M) die Menge aller Teilmengen von M, d.h. die
MehrLogistische Regression
Logistische Regression Christian Herta August, 2013 1 von 45 Christian Herta Logistische Regression Lernziele Logistische Regression Konzepte des maschinellen Lernens (insb. der Klassikation) Entscheidungsgrenze,
MehrFerienkurs Propädeutikum Diskrete Mathematik
Ferienkurs Propädeutikum Diskrete Mathematik Teil 3: Grundlagen Graphentheorie Tina Janne Schmidt Technische Universität München April 2012 Tina Janne Schmidt (TU München) Ferienkurs Propädeutikum Diskrete
MehrRechenzeit für A. Sei t B die Rechenzeit eines Algo für B. Seien p,q,r monotone Polynome ( +).
Rechenzeit für A Sei t B die Rechenzeit eines Algo für B. Seien p,q,r monotone Polynome ( +). Rechenzeit des resultierenden Algo für A: t A (n) p(n) + q(n) t B (r(n)). Ist polynomiell, falls t B Polynom.
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
MehrDie Tangentialebene. {(x, y, z) z = f(x 0, y 0 )+ f x (x 0, y 0 )(x x 0 )+ f. y (x 0, y 0 )(y y 0 )}
Die Tangentialebene Der Graph der linearen Approximation ist Tangentialebene an den Graph der Funktion. In Symbolen: Es sei D R 2. Es sei f : D R, (x, y) f(x, y) differenzierbar. Dann ist {(x, y, z) z
MehrBayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)
Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief
MehrAnalysis II. Aufgaben zum Stoff der Analysis I und II Lösungsvorschlag
Prof Dr H Garcke, D Depner SS 9 NWF I - Mathematik 1979 Universität Regensburg Aufgabe 1 Analysis II Aufgaben zum Stoff der Analysis I und II Lösungsvorschlag i Erinnern Sie sich an die Konvergenzkriterien
MehrMap Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.
Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Ergebnis mit minimaler Fréchet-Distanz Annahme: Fahrer wählen bevorzugt kürzeste Wege im Straßennetz.
MehrProbeklausur zur Analysis 2, SoSe 2017
BERGISCHE UNIVERSITÄT WUPPERTAL 21717 Fakultät 4 - Mathematik und Naturwissenschaften Prof N V Shcherbina Dr T P Pawlaschyk wwwkanauni-wuppertalde Probeklausur zur Analysis 2, SoSe 217 Hinweis Die Lösungen
Mehr1 Einführung, Terminologie und Einteilung
Zusammenfassung Kapitel V: Differentialgleichungen 1 Einführung, Terminologie und Einteilung Eine gewöhnliche Differentialgleichungen ist eine Bestimmungsgleichung um eine Funktion u(t) einer unabhängigen
MehrGrundlagen zu neuronalen Netzen. Kristina Tesch
Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen
MehrJurij-Andrei Reichenecker 21. Juni Tessellationen
Jurij-Andrei Reichenecker 21. Juni 2010 Tessellationen Seite 2 Tessellationen 21. Juni 2010 Jurij-Andrei Reichenecker Inhalt Einführung Voronoi Tessellation Algorithmus zur Erstellung von Voronoi Tessellationen
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
MehrBayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
MehrAlgorithmische Geometrie: Rest Lokalisierung von Punkten; Voronoi Diagramme (1/2)
Algorithmische Geometrie: Rest Lokalisierung von Punkten; Voronoi Diagramme (1/2) Nico Düvelmeyer WS 2009/2010, 22.12.2009 Überblick 1 Fertigstellung Kapitel 7 2 Definition Voronoi Diagramm 3 Grundlegende
Mehr1. Aufgabe 8 Punkte. f (x) = (x 2 + 1) e x2. Es gilt. f (x) = 2xe x2 + ( x ) e x2 ( 2x) = 2x 3 e x2.
1. Aufgabe 8 Punkte Geben Sie die Bereiche, auf denen die Funktion f : R R mit f (x) = (x + 1) e x monoton wachsend oder fallend ist, an, und untersuchen Sie die Funktion auf lokale und globale Extrema.
MehrSCHNITTERHALTUNG (SPEKTRALE APPROXIMATION)
Vorlesung 12 AUSDÜNNUNG VON GRAPHEN SCHNITTERHALTUNG (SPEKTRALE APPROXIMATION) 387 Wiederholung: Approximative Schnitterhaltung Ziel: Approximationsalgorithmus: A(S(G)) Ziele bei Eingabe eines dichten
MehrKap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur
Kap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur 2.1 Lineare und generalisierte lineare Modelle Das klassische lineare Regressionsmodell
MehrVorlesung Datenstrukturen
Vorlesung Datenstrukturen Kürzeste Wege Maike Buchin 4. und 6.7.2017 Einführung Motivation: Bestimmung von kürzesten Wegen ist in vielen Anwendungen, z.b. Routenplanung, ein wichtiges Problem. Allgemeine
MehrVorlesung 12a. Schätzen von Parametern. Teil 2
Vorlesung 12a Schätzen von Parametern Teil 2 1 Unser Logo der ersten Stunde: X P ϑ (X da) = ρ ϑ (da), ϑ Θ S 2 Ein Logo der Statistik: Θ ˆϑ t X S P ϑ (X da) = ρ ϑ (da), ϑ Θ Θ... Parameterraum S... Beobachtungsraum
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen
MehrCounting the Number of Satisfying Assignments
Counting the Number of Satisfying Assignments Ferienakademie im Sarntal Kurs 1 Moderne Suchmethoden der Informatik: Trends und Potenzial Stefan Ploner Department Informatik FAU Erlangen-Nürnberg 29. September
MehrAufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph.
Aufgabe 4.2 Sei G = (V, E, l) ein ungerichteter, gewichteter und zusammenhängender Graph. a) Es seien W 1 = (V, E 1 ), W 2 = (V, E 2 ) Untergraphen von G, die beide Wälder sind. Weiter gelte E 1 > E 2.
MehrLatente Dirichlet-Allokation
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert
Mehr9 Differentialrechnung für Funktionen in n Variablen
$Id: diff.tex,v.7 29/7/2 3:4:3 hk Exp $ $Id: ntaylor.tex,v.2 29/7/2 3:26:42 hk Exp $ 9 Differentialrechnung für Funktionen in n Variablen 9.6 Lagrange Multiplikatoren Die Berechnung von Maxima und Minima
MehrVorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung
Vorlesung 7b Unabhängigkeit bei Dichten und die mehrdimensionale Standardnormalverteilung 0. Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4 4
MehrNachklausur zur Analysis 2, SoSe 2017
BERGISCHE UNIVERSITÄT WUPPERTAL 18.9.17 Fakultät 4 - Mathematik und Naturwissenschaften Prof. N. V. Shcherbina Dr. T. P. Pawlaschyk www.kana.uni-wuppertal.de Nachklausur zur Analysis 2, SoSe 217 Aufgabe
MehrKlausur Mathematik II
Technische Universität Dresden. Juli 8 Institut für Numerische Mathematik Prof. Dr. G. Matthies, Dr. M. Herrich Klausur Mathematik II Modul Dierentialgleichungen und Dierentialrechnung für Funktionen mehrerer
Mehri =1 i =2 i =3 x i y i 4 0 1
Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x
MehrFunktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen
5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 24. April 2019 [Letzte Aktualisierung: 24/04/2019,
MehrModellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
MehrOptimaler Transport. Marzena Franek. Skiseminar Februar Institut für Numerische und Angewandte Mathematik
Institut für Numerische und Angewandte Mathematik Skiseminar Februar 2009 1 Das Problem von Monge 1 Das Problem von Monge 2 1 Das Problem von Monge 2 3 1 Das Problem von Monge 2 3 4 1 Das Problem von Monge
MehrImplizite Funktionen. Ist für eine stetig differenzierbare Funktion f : R n R m R n. so lässt sich das Gleichungssystem
Implizite Funktionen Ist für eine stetig differenzierbare Funktion f : R n R m R n f (x, y ) = (0,..., 0) t, det f x (x, y ) 0, so lässt sich das Gleichungssystem f k (x 1,..., x n, y 1,..., y m ) = 0,
MehrSchätzen und Testen I in 90 Minuten. 8. Februar 2010
Schätzen und Testen I in 90 Minuten 8. Februar 2010 1. Einführung in statistische Modelle und Inferenzkonzepte 2. Klassische Schätz- und Testtheorie 3. Likelihood-Inferenz 4. Bayes-Inferenz 5. Einführung
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
Mehr