Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel

Größe: px
Ab Seite anzeigen:

Download "Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel"

Transkript

1 Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel Dr. Dominik Grimm Probelehrveranstaltung Fakultät für Informatik und Mathematik Hochschule München München, 10. Mai Mai 2017 Ridge Regression & Support Vector Machine 1

2 Inhalte & Lernziele dieser Vorlesung Einführung ins Thema Was ist Ridge Regression? Was ist eine Kernalized Support Vector Machine? Vergleich von Ridge Regression & SVM an einem Beispiel Zusammenfassung der Vorlesungsinhalte und Ausblick 10. Mai 2017 Ridge Regression & Support Vector Machine 2

3 Preis in Motivation & Einführung Rückblick: Lineare Regression Fläche Wohnung in m Mai 2017 Ridge Regression & Support Vector Machine 3

4 Motivation & Einführung Rückblick: Lineare Regression Lineare Regression: y = b + w & x x R + : Einflussgröße (Feature) y R + : Zielvariable (Target) n: Anzahl Trainingsinstanzen b, w & R: Gewichte (Parameter) 10. Mai 2017 Ridge Regression & Support Vector Machine 4

5 Motivation & Einführung Rückblick: Lineare Regression Lineare Regression: y = b + w & x Parameter b, w & sind unbekannt. Diese müssen gelernt werden. x R + : Einflussgröße (Feature) y R + : Zielvariable (Target) n: Anzahl Trainingsinstanzen b, w & R: Gewichte (Parameter) 10. Mai 2017 Ridge Regression & Support Vector Machine 5

6 Motivation & Einführung Rückblick: Lineare Regression Lineare Regression: y = b + w & x x R + : Einflussgröße (Feature) y R + : Zielvariable (Target) n: Anzahl Trainingsinstanzen b, w & R: Gewichte (Parameter) Straffunktion (Loss): n L w = 0 y 2 b + w & x & 10. Mai 2017 Ridge Regression & Support Vector Machine 6

7 Motivation & Einführung Rückblick: Lineare Regression Lineare Regression: y = b + w & x x R + : Einflussgröße (Feature) y R + : Zielvariable (Target) n: Anzahl Trainingsinstanzen b, w & R: Gewichte (Parameter) Straffunktion (Loss): n L w = 0 y 2 b + w & x & Lernen der unbekannten Parameter durch Minimierung der Straffunktion 10. Mai 2017 Ridge Regression & Support Vector Machine 7

8 Motivation & Einführung Rückblick: Lineare Regression 10. Mai 2017 Ridge Regression & Support Vector Machine 8

9 Motivation & Einführung Rückblick: Lineare Regression Unteranpassung (Underfitting) Das Modell beschreibt die Trainingsdaten nicht ausreichend 10. Mai 2017 Ridge Regression & Support Vector Machine 9

10 Motivation & Einführung Rückblick: Lineare Regression Polynomiale Regression durch Hinzufügen von Features höherer Ordnung: y = b + w & x 1 + w 5 x w : x w &== x Mai 2017 Ridge Regression & Support Vector Machine 10

11 Motivation & Einführung Rückblick: Lineare Regression Polynomiale Regression durch Hinzufügen von Features höherer Ordnung: y = b + w & x 1 + w 5 x w : x w &== x Zielvariable y 100 Features (Einflussgrößen) 120 Trainingsinstanzen 120 Trainingsinstanzen 10. Mai 2017 Ridge Regression & Support Vector Machine 11

12 Motivation & Einführung Rückblick: Polynomiale Regression (m=100; Grad des Polynoms) 10. Mai 2017 Ridge Regression & Support Vector Machine 12

13 Motivation & Einführung Rückblick: Polynomiale Regression (m=100) Überanpassung (Overfitting) Das Modell generalisiert schlecht auf unbekannten Daten 10. Mai 2017 Ridge Regression & Support Vector Machine 13

14 Einführung in Ridge Regression Ridge Regression Ridge Regression Loss: n L w = 1 n 0 y 2 b + x α w & BCDEFGH2I2CHE+DIJCHK 10. Mai 2017 Ridge Regression & Support Vector Machine 14

15 Einführung in Ridge Regression Ridge Regression Ridge Regression Loss: n L w = 1 n 0 y 2 b + x α w & BCDEFGH2I2CHE+DIJCHK w 5 5 = 0 w L 5 = w L Quadrierte L2-Norm Lernen der unbekannten Parameter durch Minimierung der Straffunktion 10. Mai 2017 Ridge Regression & Support Vector Machine 15

16 Einführung in Ridge Regression Intuition Ridge Regression w 2 LQ n L w = 1 n 0 y 2 b + x & w Mai 2017 Ridge Regression & Support Vector Machine 16

17 Einführung in Ridge Regression Intuition Ridge Regression w 2 LQ n L w = 1 n 0 y 2 b + x α w & w* w Mai 2017 Ridge Regression & Support Vector Machine 17

18 Einführung in Ridge Regression Intuition Ridge Regression w 2 LQ n L w = 1 n 0 y 2 b + x α w & w* Effekt eines kleinen α w 1 Regularisierung hat einen schwachen Effekt auf Parameter (Gefahr von Overfitting) 10. Mai 2017 Ridge Regression & Support Vector Machine 18

19 Einführung in Ridge Regression Intuition Ridge Regression w 2 LQ n L w = 1 n 0 y 2 b + x α w & w* Effekt eines großen α w 1 Regularisierung hat einen starken Effekt auf die Parameter (Gefahr von Underfitting) 10. Mai 2017 Ridge Regression & Support Vector Machine 19

20 Einführung in Ridge Regression Effekt der L2-Regularisierung auf die Gewichte/Parameter Überanpassung Unteranpassung 10. Mai 2017 Ridge Regression & Support Vector Machine 20

21 Einführung in Ridge Regression Wie findet man den optimalen Parameter α? Training Folds Test Fold Subtraining Trainiere mit kleinem alpha Erhöhe alpha Trainiere mit hohem alpha Subtest Teste Teste Trainiere mit bestem alpha Teste 10. Mai 2017 Ridge Regression & Support Vector Machine 21

22 Einführung in Ridge Regression Wie findet man den optimalen Parameter α? Verschachtelte k-fache Kreuzvalidierung mit interner Liniensuche 10. Mai 2017 Ridge Regression & Support Vector Machine 22

23 Einführung in Ridge Regression Beispiel: Ridge Regression (m=100) 10. Mai 2017 Ridge Regression & Support Vector Machine 23

24 Einführung in Ridge Regression Beispiel: Ridge Regression (m=100) Optimale Abwägung zwischen zu einfachem und zu komplexem Model durch L2-Regularisierung 10. Mai 2017 Ridge Regression & Support Vector Machine 24

25 Zusammenfassung Ridge Regression Was haben wir gelernt? Ridge Regression wird bei Regressionsproblemen verwendet, welche viele (korrelierten) Features besitzt (und/oder wenige Trainings- Instanzen), um eine Unter- oder Überanpassung des Models zu vermeiden. Ridge Regression ist eine überwachte (supervised) Lernmethode, welche einen Strafterm besitzt, um die Gewichte (Parameter) der Regressionsmethode zu regularisieren. Der Strafterm entspricht der L2-Norm. Den optimalen Hyperparameter α findet man mittels verschachtelter k- fachen Kreuzvalidierung. 10. Mai 2017 Ridge Regression & Support Vector Machine 25

26 Einführung in Support Vector Machines Regression vs. Klassifikation Regression y R + : Zielvariable (Target) Klassifikation y { 1,1} + : Zielvariable (Label) 10. Mai 2017 Ridge Regression & Support Vector Machine 26

27 Einführung in Support Vector Machines Klassifizieren mit einer Entscheidungsfunktion w T x + b < 0 w T x + b > 0 w T x + b = Mai 2017 Ridge Regression & Support Vector Machine 27

28 Einführung in Support Vector Machines Klassifizieren mit einer Entscheidungsfunktion Entscheidungsfunktion (Decision Function): f x = x + b) Vorzeichenfunktion (Sign Function): +1 falls z > 0 sgn z = Z 0 falls z = 0 1 falls z < Mai 2017 Ridge Regression & Support Vector Machine 28

29 Einführung in Support Vector Machines Klassifizieren mit einer Entscheidungsfunktion w T x + b = Mai 2017 Ridge Regression & Support Vector Machine 29

30 Einführung in Support Vector Machines Klassifizieren mit einer Entscheidungsfunktion w T x + b = 0? 10. Mai 2017 Ridge Regression & Support Vector Machine 30

31 Einführung in Support Vector Machines Klassifizieren mit einer Entscheidungsfunktion w T x + b = 0? 10. Mai 2017 Ridge Regression & Support Vector Machine 31

32 Einführung in Support Vector Machines Klassifizieren mit einer Entscheidungsfunktion Falls zwei Klassen mit einer linearen Funktion trennbar sind, gibt es unendlich viele Entscheidungsfunktionen 10. Mai 2017 Ridge Regression & Support Vector Machine 32

33 Einführung in Support Vector Machines Hard-Margin SVM (Vapnik und Chervonenkis, 1974) 10. Mai 2017 Ridge Regression & Support Vector Machine 33

34 Einführung in Support Vector Machines Hard-Margin SVM (Vapnik und Chervonenkis, 1974) Margin = 2 w `` Support Vectors w T x + b = 1 w T x + b = 0 w w T x + b = Mai 2017 Ridge Regression & Support Vector Machine 34

35 Einführung in Support Vector Machines Hard-Margin SVM (Vapnik und Chervonenkis, 1974) Optimierungsproblem mit Nebenbedingung um w zu lernen 1 min w,h 2 w 5 5 subject to y 2 x 2 + b 1, i {1,, n} Je kleiner w desto größer die Margin: 2 w Die Nebenbedingung stellt sicher, dass alle Trainingsinstanzen der selben Klasse außerhalb oder auf dem Margin liegen 10. Mai 2017 Ridge Regression & Support Vector Machine 35

36 Einführung in Support Vector Machines Hard-Margin SVM (Vapnik und Chervonenkis, 1974) 10. Mai 2017 Ridge Regression & Support Vector Machine 36

37 Einführung in Support Vector Machines Hard-Margin SVM (Vapnik und Chervonenkis, 1974) Es gibt keine Lösung für nicht vollständig linear trennbare Probleme Support Vectors 10. Mai 2017 Ridge Regression & Support Vector Machine 37

38 Einführung in Support Vector Machines Hard-Margin SVM (Vapnik und Chervonenkis, 1974) Es gibt keine Lösung für nicht vollständig linear trennbare Probleme Support Vectors Erlaube die Fehlklassifikation von Trainingsinstanzen 10. Mai 2017 Ridge Regression & Support Vector Machine 38

39 Einführung in Support Vector Machines Soft-Margin SVM: C-SVM (Cortes und Vapnik, 1995) 10. Mai 2017 Ridge Regression & Support Vector Machine 39

40 Einführung in Support Vector Machines Soft-Margin SVM: C-SVM (Cortes und Vapnik, 1995) Erlaube die Fehlklassifikation von Trainingsinstanzen min w,h,k w C 0 ξ 2 2 subject to y 2 x 2 + b 1 ξ 2, i 1,, n, ξ 2 0 ξ ist ein Schlupfvariable (Slackvariable): Misst den Grad der Fehlklassifikation für jede Trainingsinstanz C R ist ein Regularisierungsparameter: Tradeoff zwischen Maximierung der Margin und Minimierung des Trainingsfehlers 10. Mai 2017 Ridge Regression & Support Vector Machine 40

41 Einführung in Support Vector Machines Soft-Margin SVM: C-SVM (Cortes und Vapnik, 1995) Erlaube die Fehlklassifikation von Trainingsinstanzen + 1 min w,h,k 2 w C 0 ξ 2 2 subject to y 2 x 2 + b 1 ξ 2, i 1,, n, ξ 2 0 = min w,h + 1 n 0 max(0,1 y x 2 + b)) + λ 2 w & p2+dc qrii λ = 2 nc x 2 + b 10. Mai 2017 Ridge Regression & Support Vector Machine

42 Einführung in Support Vector Machines Soft-Margin SVM: C-SVM (Cortes und Vapnik, 1995) Kleines C führt zu einer großen Margin (à Gefahr von Underfitting) 10. Mai 2017 Ridge Regression & Support Vector Machine 42

43 Einführung in Support Vector Machines Soft-Margin SVM: C-SVM (Cortes und Vapnik, 1995) Großes C führt zu einer kleinen Margin (à Gefahr von Overfitting) 10. Mai 2017 Ridge Regression & Support Vector Machine 43

44 Einführung in Support Vector Machines Nicht-Linear-Trennbare Daten 10. Mai 2017 Ridge Regression & Support Vector Machine 44

45 Einführung in Support Vector Machines Nicht-Linear-Trennbare Daten Nicht trennbar mit einer linearen Entscheidungsfunktion 10. Mai 2017 Ridge Regression & Support Vector Machine 45

46 Einführung in Support Vector Machines Transformation der Daten in einen höherdimensionalen Raum Transformation in 3-dimensionalen Raum R 5 R : x &, x 5 z &, z 5, z : (x &, x 5, x 5 & + x 5 5 ) 10. Mai 2017 Ridge Regression & Support Vector Machine 46

47 Einführung in Support Vector Machines Transformation der Daten in einen höherdimensionalen Raum z : z & z Mai 2017 Ridge Regression & Support Vector Machine 47

48 Einführung in Support Vector Machines Transformation der Daten in einen höherdimensionalen Raum z : z & z Mai 2017 Ridge Regression & Support Vector Machine 48

49 Einführung in Support Vector Machines Transformation der Daten in einen höherdimensionalen Raum Feature Transformation muss explizit berechnet werden à Unmöglich für unendlich-dimensionale Daten 10. Mai 2017 Ridge Regression & Support Vector Machine 49

50 Einführung in Support Vector Machines Kerntrick + f x = sgn 0 α 2 y 2 x 2 + b 27& 10. Mai 2017 Ridge Regression & Support Vector Machine 50

51 Einführung in Support Vector Machines Kerntrick f x = sgn + 0 α 2 y 2 x 2 + b 27& + = sgn 0 α 2 y 2 φ φ(x 2 ) + b 27& Entscheidungsfunktion hängt von Trainingsinstanzen x nur über Skalarprodukt φ φ(x 2 ) ab 10. Mai 2017 Ridge Regression & Support Vector Machine 51

52 Einführung in Support Vector Machines Kerntrick f x = sgn + 0 α 2 y 2 φ φ(x 2 ) + b 27& + = sgn 0 α 2 y 2 k(x, x 2 ) + b 27& Entscheidungsfunktion hängt von Trainingsinstanzen x nur über Skalarprodukt φ φ(x 2 ) ab k(x, x 2 ) = φ φ(x 2 ) Ersetzt Skalarprodukt und Transformation durch einen Kern (Kernel) 10. Mai 2017 Ridge Regression & Support Vector Machine 52

53 Einführung in Support Vector Machines Warum handelt es sich dabei um einen Trick? Wenn man Kernfunktionen verwendet, muss man nichts über den genauen Feature Space wissen. Man benötigt nur eine Funktion, welche ein Ähnlichkeitsmaß zwischen den Features berechnet. Ein optimaler Kern weist Trainingsinstanzen einen höheren Ähnlichkeitswert zu, wenn diese zur gleichen Klasse gehören einen niedrigeren Ähnlichkeitswert, wenn diese zu unterschiedlichen Klassen gehören. 10. Mai 2017 Ridge Regression & Support Vector Machine 53

54 Einführung in Support Vector Machines Beispiele von Kernen Linearer Kern Polynomialer Kern k x, x = x k x, x = x y + c { Gaußsche Radiale Basisfunktion (RBF) Kern k x, x = exp 1 5 x xy 2σ5 10. Mai 2017 Ridge Regression & Support Vector Machine 54

55 Zusammenfassung Kernalized Support Vector Machine Was haben wir gelernt? Die Support Vector Machine wird im (klassischen Sinne) bei Klassifikationsproblemen verwendet. Die Hard-Margin SVM ist eine überwachte (supervised) Lernmethode, welche sich nur auf vollständig linear-trennbare Probleme anwenden lässt. Die Soft-Margin SVM (C-SVM) besitzt einen zusätzlichen Strafterm, um einen optimalen Tradeoff zwischen der Maximierung der Margin und der Minimierung des Trainingsfehler zu finden. Der Kerntrick besteht darin, mittels Kernfunktionen nicht-lineare Probleme in einem höherdimensionalen Raum zu lösen, ohne die Punkte explizit in diesen Raum projizieren zu müssen. 10. Mai 2017 Ridge Regression & Support Vector Machine 55

56 Anwendungsbeispiel Vergleich von Ridge Regression und SVM an einem Anwendungsbeispiel Neues Medikament für die Therapie eines speziellen Tumors 10. Mai 2017 Ridge Regression & Support Vector Machine 56

57 Anwendungsbeispiel Vergleich von Ridge Regression und SVM an einem Anwendungsbeispiel Neues Medikament für die Therapie eines speziellen Tumors Medikament zeigt eine Wirkung innerhalb von 50 Tagen Medikament zeigt Wirkung erst nach 50 Tagen, aber mit erheblichen Nebenwirkungen 10. Mai 2017 Ridge Regression & Support Vector Machine 57

58 Anwendungsbeispiel Vergleich von Ridge Regression und SVM an einem Anwendungsbeispiel Können wir anhand der genetischen Unterschiede (z. B. der Mutationen) zwischen den Patienten die Anzahl der Tage vorhersagen, ab wann das Medikament eine Wirkung zeigt? 10. Mai 2017 Ridge Regression & Support Vector Machine 58

59 Anwendungsbeispiel Vergleich von Ridge Regression und SVM an einem Anwendungsbeispiel Anzahl Patienten (Trainingsinstanzen): 400 Anzahl Mutationen (Features): 600 Zielvariable y: Anzahl der Tage bis Medikament Wirkung zeigt Können wir anhand der genetischen Unterschiede (z. B. der Mutationen) zwischen den Patienten die Anzahl der Tage vorhersagen, ab wann das Medikament eine Wirkung zeigt? 10. Mai 2017 Ridge Regression & Support Vector Machine 59

60 Anwendungsbeispiel Vergleich von Ridge Regression und SVM an einem Anwendungsbeispiel Ergebnis Ridge Regression auf Testdaten: Mittlerer Quadratische Fehler (MSE): Ergebnis SVM mit linearen Kern auf Testdaten: Genauigkeit (Accuracy): 82% Ergebnis SVM mit RBF Kern auf Testdaten: Genauigkeit (Accuracy): 93% 10. Mai 2017 Ridge Regression & Support Vector Machine 60

61 Ausblick auf die nächste Vorlesung Was kommt als nächstes? Ridge Regression Herleitung der Lösung für das Optimierungsproblem, um die Parameter w zu lernen Implementierung des Algorithmus in Python Support Vector Machine Detaillierte Betrachtung des Optimierungsproblems für Hard-Margin SVM Detaillierte Betrachtung des Optimierungsproblems für Soft-Margin SVM Praktische Evaluierung unterschiedlicher Kerne 10. Mai 2017 Ridge Regression & Support Vector Machine 61

62 Danksagung Berufungsausschuss Allen Zuhörern und Zuhörerinnen Folien und Code zur Vorlesung Zusätzliche Referenzen Friedman, J., Hastie, T., & Tibshirani, R. (2001). The elements of statistical learning (Vol. 1). Springer, Berlin: Springer series in statistics. Murphy, K. P. (2012). Machine learning: a probabilistic perspective. MIT press. Schölkopf, B., & Smola, A. J. (2002). Learning with kernels: support vector machines, regularization, optimization, and beyond. MIT press. Icons made by Freepik from is licensed under CC BY Mai 2017 Ridge Regression & Support Vector Machine 62

Einführung in Support Vector Machines (SVMs)

Einführung in Support Vector Machines (SVMs) Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation

Mehr

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Support Vector Machine Nico Piatkowski und Uwe Ligges 30.05.2017 1 von 14 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung

Mehr

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines Mustererkennung R. Neubecker, WS 018 / 019 (SVM) kommen aus der statistischen Lerntheorie gehören zu den optimalen Klassifikatoren = SVMs minimieren nicht nur den Trainingsfehler, sondern auch den (voraussichtlichen)

Mehr

Neuronale Netze. Prof. Dr. Rudolf Kruse

Neuronale Netze. Prof. Dr. Rudolf Kruse Neuronale Netze Prof. Dr. Rudolf Kruse Computational Intelligence Institut für Intelligente Kooperierende Systeme Fakultät für Informatik rudolf.kruse@ovgu.de Rudolf Kruse Neuronale Netze 1 Überwachtes

Mehr

Maschinelles Lernen Vorlesung

Maschinelles Lernen Vorlesung Maschinelles Lernen Vorlesung SVM Kernfunktionen, Regularisierung Katharina Morik 15.11.2011 1 von 39 Gliederung 1 Weich trennende SVM 2 Kernfunktionen 3 Bias und Varianz bei SVM 2 von 39 SVM mit Ausnahmen

Mehr

Support Vector Machines (SVM)

Support Vector Machines (SVM) Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik Technische Universität Dortmund 12.11.2013 1 von 39 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften

Mehr

Machine Learning. ML Kapitel 7: Support Vector Machines. Prof. Dr. Johannes Maucher. Version November HdM CSM

Machine Learning. ML Kapitel 7: Support Vector Machines. Prof. Dr. Johannes Maucher. Version November HdM CSM Machine Learning Kapitel 7: Support Vector Machines HdM CSM Version 1.5 16. November 2017 Document History Version Date Changes Nr. 1.0 18.06.2009 1.1 14.06.2010 Eigene Beispiele hinzugefügt 1.2 16.05.2011

Mehr

Support Vector Machines (SVM)

Support Vector Machines (SVM) Seminar Statistische Lerntheorie und ihre Anwendungen Support Vector Machines (SVM) Jasmin Fischer 12. Juni 2007 Inhaltsverzeichnis Seite 1 Inhaltsverzeichnis 1 Grundlagen 2 2 Lineare Trennung 3 2.1 Aufstellung

Mehr

Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen

Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen 5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Stützvektormethode Katharina Morik, Uwe Ligges 10.6.2010 1 von 40 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 2 von

Mehr

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation Validation Oktober, 2013 1 von 20 Validation Lernziele Konzepte des maschinellen Lernens Validierungsdaten Model Selection Kreuz-Validierung (Cross Validation) 2 von 20 Validation Outline 1 Validation

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Gliederung Vorlesung Wissensentdeckung Stützvektormethode 1 Hinführungen zur SVM Katharina Morik, Claus Weihs 26.5.2009 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 1 von 40 2 von

Mehr

Grundlagen von Support Vector Machines (SVM)

Grundlagen von Support Vector Machines (SVM) Grundlagen von Support Vector Machines (SVM) Jens Pönisch 2019-03-16 1 / 31 Motivation Masterarbeit Sandy Bitterlich 2016 Optimierungsverfahren im Machine Learning ADMM SVM MPI Eigene Implementierung des

Mehr

Lineare Klassifikatoren. Volker Tresp

Lineare Klassifikatoren. Volker Tresp Lineare Klassifikatoren Volker Tresp 1 Einführung Lineare Klassifikatoren trennen Klassen durch eine lineare Hyperebene (genauer: affine Menge) In hochdimensionalen Problemen trennt schon eine lineare

Mehr

Algorithmen und Anwendungen zur Kartierung von Genomen

Algorithmen und Anwendungen zur Kartierung von Genomen Algorithmen und Anwendungen zur Kartierung von Genomen Dr. Dominik Grimm Probelehrveranstaltung Wissenschaftszentrum Straubing Hochschule Weihenstephan-Triesdorf Straubing, 14. Juli 2017 14. Juli 2017

Mehr

Überwachtes Lernen / Support Vector Machines. Rudolf Kruse Neuronale Netze 246

Überwachtes Lernen / Support Vector Machines. Rudolf Kruse Neuronale Netze 246 Überwachtes Lernen / Support Vector Machines Rudolf Kruse Neuronale Netze 246 Überwachtes Lernen, Diagnosesystem für Krankheiten Trainingsdaten: Expressionsprofile von Patienten mit bekannter Diagnose

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Dominik Lahmann Tobias Scheffer Überblick Hypothesenbewertung, Risikoschätzung

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Stützvektormethode Katharina Morik, Uwe Ligges 23.5.2013 1 von 48 Gliederung 1 Geometrie linearer Modelle: Hyperebenen Einführung von Schölkopf/Smola 2 Lagrange-Optimierung

Mehr

Grundlagen von Support Vector Maschinen und Anwendungen in der Bildverarbeitung

Grundlagen von Support Vector Maschinen und Anwendungen in der Bildverarbeitung Grundlagen von Support Vector Maschinen und Anwendungen in der Bildverarbeitung Jan Eichhorn jan.eichhorn@tuebingen.mpg.de Max-Planck-Institut für biologische Kybernetik 72076 Tübingen Danksagung Olivier

Mehr

Übersicht. Definition Daten Problemklassen Fehlerfunktionen

Übersicht. Definition Daten Problemklassen Fehlerfunktionen Übersicht 1 Maschinelle Lernverfahren Definition Daten Problemklassen Fehlerfunktionen 2 Entwickeln von maschinellen Lernverfahren Aufteilung der Daten Underfitting und Overfitting Erkennen Regularisierung

Mehr

Support Vector Machines, Kernels

Support Vector Machines, Kernels Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen

Mehr

Nichtlineare Klassifikatoren

Nichtlineare Klassifikatoren Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern

Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Chahine Abid Bachelor Arbeit Betreuer: Prof. Johannes Fürnkranz Frederik Janssen 28. November 2013 Fachbereich Informatik Fachgebiet Knowledge

Mehr

Efficient Learning of Label Ranking by Soft Projections onto Polyhedra

Efficient Learning of Label Ranking by Soft Projections onto Polyhedra Efficient Learning of Label Ranking by Soft Projections onto Polyhedra Technische Universität Darmstadt 18. Januar 2008 Szenario Notation duales Problem Weitere Schritte Voraussetzungen Tests Szenario

Mehr

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta Multivariate Lineare Regression Christian Herta Oktober, 2013 1 von 34 Christian Herta Multivariate Lineare Regression Lernziele Multivariate Lineare Regression Konzepte des Maschinellen Lernens: Kostenfunktion

Mehr

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches

Mehr

MULTI-CLASS PROTEIN CLASSIFICATION USING ADAPTIVE CODES

MULTI-CLASS PROTEIN CLASSIFICATION USING ADAPTIVE CODES 1 MULTI-CLASS PROTEIN CLASSIFICATION USING ADAPTIVE CODES Jérôme Kirchhoff Seminar maschinelles Lernen Einleitung 2 Motivation Ohne Proteine kein Stoffwechsel keine Zellteilung Verstehen der Proteine kein

Mehr

Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen

Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Rückblick Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Ridge Regression vermeidet Überanpassung, indem einfachere Modelle mit

Mehr

5. Klassifikation. 5.6 Support Vector Maschines (SVM)

5. Klassifikation. 5.6 Support Vector Maschines (SVM) 5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus

Mehr

Modell Komplexität und Generalisierung

Modell Komplexität und Generalisierung Modell Komplexität und Generalisierung Christian Herta November, 2013 1 von 41 Christian Herta Bias-Variance Lernziele Konzepte des maschinellen Lernens Targetfunktion Overtting, Undertting Generalisierung

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr Universität Potsdam Institut für Informatik ehrstuhl Maschinelles ernen Modellevaluierung Niels andwehr ernen und Vorhersage Klassifikation, Regression: ernproblem Eingabe: Trainingsdaten Ausgabe: Modell

Mehr

Pareto optimale lineare Klassifikation

Pareto optimale lineare Klassifikation Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung

Mehr

Lineare Klassifikationsmethoden

Lineare Klassifikationsmethoden Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung

Mehr

Die Datenmatrix für Überwachtes Lernen

Die Datenmatrix für Überwachtes Lernen Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x

Mehr

Marina Sedinkina Folien von Benjamin Roth Planen (CIS LMU andmünchen) Evaluieren von Machine Learning Experimenten 1 / 38

Marina Sedinkina Folien von Benjamin Roth Planen (CIS LMU andmünchen) Evaluieren von Machine Learning Experimenten 1 / 38 Planen and Evaluieren von Machine Learning Eperimenten Marina Sedinkina Folien von Benjamin Roth CIS LMU München Evaluieren von Machine Learning Eperimenten 1 / 38 Übersicht 1 Entwickeln von maschinellen

Mehr

One-class Support Vector Machines

One-class Support Vector Machines One-class Support Vector Machines Seminar Wissensbasierte Systeme Dietrich Derksen 3. Januar 204 Motivation One-class Support Vector Machines: Detektion von Ausreißern (Systemfehlererkennung) Klassifikation

Mehr

Einführung in die Bioinformatik: Lernen mit Kernen

Einführung in die Bioinformatik: Lernen mit Kernen Einführung in die Bioinformatik: Lernen mit Kernen Dr. Karsten Borgwardt Forschungsgruppe für Maschinelles Lernen und Bioinformatik Max-Planck-Institut für Intelligente Systeme & Max-Planck-Institut für

Mehr

Hauptseminar Machine Learning: Support Vector Machines, Kernels. Katja Kunze

Hauptseminar Machine Learning: Support Vector Machines, Kernels. Katja Kunze Hauptseminar Machine Learning: Support Vector Machines, Kernels Katja Kunze 13.01.2004 Inhaltsverzeichnis 1 Einführung 2 1.1 Grundlagen............................ 2 2 Lineare Seperation 5 2.1 Maximum

Mehr

Thema: Support Vector Machines Johannes Lächele

Thema: Support Vector Machines Johannes Lächele Proseminar: Machine Learning 26. Juli 2006 Johannes Lächele Zusammenfassung: In dieser Seminararbeit wird das Basiswissen für das Verständnis von Support Vector Machines oder SVM vermittelt. Nach einer

Mehr

Regularisierung (Shrinkage Methoden) Steve Finger

Regularisierung (Shrinkage Methoden) Steve Finger Regularisierung (Shrinkage Methoden) Steve Finger Inhalt 1. Motivation 2. Regularisierung 3. Vergleich der Shrinkage Methoden 4. Zusammenfassung 1. Motivation 1. Kleinste Quadrate Methode Lineare Regression:

Mehr

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus 3. Klassifikation Motivation Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus Beispiel: Bestimme die Herkunft eines Autos

Mehr

Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten

Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten 16.08.2016 David Spisla Albert Ludwigs Universität Freiburg Technische Fakultät Institut für Informatik Gliederung Motivation Schwierigkeiten bei

Mehr

Einführung in das Maschinelle Lernen I

Einführung in das Maschinelle Lernen I Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL

Mehr

Approximate Maximum Margin Algorithms with Rules Controlled by the Number of Mistakes

Approximate Maximum Margin Algorithms with Rules Controlled by the Number of Mistakes Approximate Maximum Margin Algorithms with Rules Controlled by the Number of Mistakes Seminar Maschinelles Lernen VORTRAGENDER: SEBASTIAN STEINMETZ BETREUT VON: ENELDO LOZA MENCÍA Inhalt Vorbedingungen

Mehr

Lineare Klassifikatoren IV

Lineare Klassifikatoren IV Universität Potsdam Institut für Informatik Lehrstuhl Lineare Klassifikatoren IV Christoph Sawade, Blaine Nelson, Tobias Scheffer Inhalt Klassifikationsproblem Bayes sche Klassenentscheidung MAP-Modell

Mehr

Lernen unterschiedlich starker Bewertungsfunktionen aus Schach-Spielprotokollen

Lernen unterschiedlich starker Bewertungsfunktionen aus Schach-Spielprotokollen Lernen unterschiedlich starker Bewertungsfunktionen aus Schach-Spielprotokollen Philip Paulsen Diplomarbeit Übersicht Spielstärke im Schach MiniMax-Algorithmus Details zur Bewertungsfunktion Erzeugen der

Mehr

Data Mining Kapitel 11: Machine Learning. Johannes Zschache Wintersemester 2018/19

Data Mining Kapitel 11: Machine Learning. Johannes Zschache Wintersemester 2018/19 Data Mining Kapitel 11: Machine Learning Johannes Zschache Wintersemester 2018/19 Abteilung Datenbanken, Universität Leipzig http://dbs.unileipzig.de Data Mining 111 112 Data Mining Übersicht Hochdimension.

Mehr

Einführung in das statistische Lernen

Einführung in das statistische Lernen Universität Ulm 24. April 2007 Inhalt Motivation Grundbegriffe Kleinste Quadrate und k-nächste-nachbar-methode Statistische Entscheidungstheorie Regressionsmodelle und Kernmethoden Zusammenfassung Modellwahl

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Modellklassen, Verlustfunktionen Nico Piatkowski und Uwe Ligges 02.05.2017 1 von 15 Literatur Trevor Hastie, Robert Tibshirani, Jerome Friedman. The Elements of Statistical

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen Universität Potsdam Institut für Informatik Lehrstuhl Niels Landwehr, Silvia Makowski, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Di 10:00-11:30

Mehr

Support-Vektor Maschinen: Feature-Funktionen. 27. Juni / 62

Support-Vektor Maschinen: Feature-Funktionen. 27. Juni / 62 Support-Vektor Maschinen: Feature-Funktionen 27. Juni 2017 1 / 62 Feature Funktionen Beispiele werden durch Zusatzinformationen, Features, aufbereitet. Eine Funktion φ : X R N heißt eine Feature-Funktion.

Mehr

Semiüberwachte Paarweise Klassifikation

Semiüberwachte Paarweise Klassifikation Semiüberwachte Paarweise Klassifikation Andriy Nadolskyy Bachelor-Thesis Betreuer: Prof. Dr. Johannes Fürnkranz Dr. Eneldo Loza Mencía 1 Überblick Motivation Grundbegriffe Einleitung Übersicht der Verfahren

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Strukturelle Modelle SVMstruct Katharina Morik LS 8 Künstliche Intelligenz Fakultät für Informatik 16.12.2008 1 von 35 Gliederung LS 8 Künstliche Intelligenz Fakultät für

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen. Tobias Scheffer Michael Brückner

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen. Tobias Scheffer Michael Brückner Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Tobias Scheffer Michael Brückner Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Mo 10:00-11:30

Mehr

Erkennung eines geprägten Zifferncodes mittels maschinellen Lernens

Erkennung eines geprägten Zifferncodes mittels maschinellen Lernens Montanuniversität Leoben Department für Mathematik und Infomationstechnologie Lehrstuhl für Informationstechnologie Erkennung eines geprägten Zifferncodes mittels maschinellen Lernens Bakkalaureatsarbeit

Mehr

SVMs und Kategorisierung der Spieler

SVMs und Kategorisierung der Spieler SVMs und Kategorisierung der Spieler Benjamin Herbert bherbert@rbg.informatik.tu-darmstadt.de Abstract 1. Einleitung Texas Hold em ist eine sehr populäre Pokervariante, die in den letzten Jahren vermehrt

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische

Mehr

Logistische Regression

Logistische Regression Logistische Regression Christian Herta August, 2013 1 von 45 Christian Herta Logistische Regression Lernziele Logistische Regression Konzepte des maschinellen Lernens (insb. der Klassikation) Entscheidungsgrenze,

Mehr

Symbolumwandlung der Kernfunktionen

Symbolumwandlung der Kernfunktionen 91 Symbolumwandlung der Kernfunktionen Positiv definierte, konvexe Kernfunktionen können als Fuzzy-Mengen betrachtet werden. z.b.: µ B (x) = 1 1 + ( x 50 10 ) 2 92 ZF-Funktionen 1 1 0-5 0 5 (a) 1 0-5 0

Mehr

Statistisches Lernen

Statistisches Lernen Statistisches Lernen Einheit 12: Modellwahl und Regularisierung Dr. rer. nat. Christine Pausch Institut für Medizinische Informatik, Statistik und Epidemiologie Universität Leipzig WS 2014/2015 1 / 28

Mehr

(1) Der Anwender hat stets die Möglichkeit, die Beispiele durch Zusatzinformationen (Features) aufzubereiten.

(1) Der Anwender hat stets die Möglichkeit, die Beispiele durch Zusatzinformationen (Features) aufzubereiten. Feature Funktionen Eine unbekannte Klassifizierung f : X {0, 1} sei zu erlernen. (1) Der Anwender hat stets die Möglichkeit, die Beispiele durch Zusatzinformationen (Features) aufzubereiten. Eine Funktion

Mehr

Learning to Rank Sven Münnich

Learning to Rank Sven Münnich Learning to Rank Sven Münnich 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 1 Übersicht 1. Einführung 2. Methoden 3. Anwendungen 4. Zusammenfassung & Fazit 06.12.12 Fachbereich 20 Seminar

Mehr

Technische Universität

Technische Universität Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik IX Support Vector Machines Hauptseminar Robert Rackl Betreuer: Abgabetermin: 8. Juli.2004 Dipl.-Inform. Simone

Mehr

Statistical Learning

Statistical Learning Statistical Learning M Gruber KW 45 Rev 1 1 Support Vector Machines Definition 1 (Lineare Trennbarkeit) Eine Menge Ü µ Ý µ Ü Æµ Ý Æµ R ist linear trennbar, wenn mindestens ein Wertepaar Û R µ existiert

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Gliederung Vorlesung Maschinelles Lernen Strukturelle Modelle SVMstruct Katharina Morik 6.2.2008 Überblick Lernaufgaben 2 Primales Problem 3 Duales Problem 4 Optimierung der SVMstruct 5 Anwendungen von

Mehr

Lineare Klassifikatoren

Lineare Klassifikatoren Universität Potsdam Institut für Informatik Lehrstuhl Lineare Klassifikatoren Christoph Sawade, Blaine Nelson, Tobias Scheffer Inhalt Klassifikationsproblem Bayes sche Klassenentscheidung Lineare Klassifikator,

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten

Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten M. Siebers 1 U. Schmid 2 1 Otto-Friedrich-Universität Bamberg 2 Fakultät für Wirtschaftsinformatik und Angewandte Informatik

Mehr

Website. Vorlesung Statistisches Lernen. Dozenten. Termine. Einheit 1: Einführung

Website. Vorlesung Statistisches Lernen. Dozenten. Termine. Einheit 1: Einführung Website Vorlesung Statistisches Lernen Einheit 1: Einführung Dr. rer. nat. Christine Pausch Institut für Medizinische Informatik, Statistik und Epidemiologie Universität Leipzig (Aktuelle) Informationen

Mehr

Klassische Klassifikationsalgorithmen

Klassische Klassifikationsalgorithmen Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at

Mehr

Vorlesung Statistisches Lernen

Vorlesung Statistisches Lernen Vorlesung Statistisches Lernen Einheit 1: Einführung Dr. rer. nat. Christine Pausch Institut für Medizinische Informatik, Statistik und Epidemiologie Universität Leipzig WS 2014/2015 1 / 20 Organisatorisches

Mehr

Kurze Einführung in das maschinelle Lernen mit einem Fokus auf Support Vector Maschinen

Kurze Einführung in das maschinelle Lernen mit einem Fokus auf Support Vector Maschinen Seminararbeit Kurze Einführung in das maschinelle Lernen mit einem Fokus auf Support Vector Maschinen für das Mathematische Seminar im WS2014 Harald Burgsteiner 28. Januar 2015 In dieser Seminararbeit

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Gliederung Vorlesung Maschinelles Lernen SVM SMO, Kernfunktionen, Anwendungen Katharina Morik 5.11.008 1 Lösung des Optimierungsproblems mit SMO Kernfunktionen 3 Bias und Varianz bei SVM 4 Anwendungen

Mehr

Analytics Entscheidungsbäume

Analytics Entscheidungsbäume Analytics Entscheidungsbäume Professional IT Master Prof. Dr. Ingo Claßen Hochschule für Technik und Wirtschaft Berlin Regression Klassifikation Quellen Regression Beispiel Baseball-Gehälter Gehalt: gering

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr Paul Prasse

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr Paul Prasse Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Paul Prasse Tobias Scheffer Sawade/Landwehr/Prasse/Scheffer, Maschinelles Lernen

Mehr

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume 4. Klassifikation Inhalt 4.1 Motivation 4.2 Evaluation 4.3 Logistische Regression 4.4 k-nächste Nachbarn 4.5 Naïve Bayes 4.6 Entscheidungsbäume 4.7 Support Vector Machines 4.8 Neuronale Netze 4.9 Ensemble-Methoden

Mehr

Mustererkennung und Klassifikation

Mustererkennung und Klassifikation Mustererkennung und Klassifikation WS 2007/2008 Fakultät Informatik Technische Informatik Prof. Dr. Matthias Franz mfranz@htwg-konstanz.de www-home.htwg-konstanz.de/~mfranz/heim.html Grundlagen Überblick

Mehr

Anwendung der Regressions-SVM zur Vorhersage studentischer Leistungen

Anwendung der Regressions-SVM zur Vorhersage studentischer Leistungen Anwendung der Regressions-SVM zur Vorhersage studentischer Leistungen Alexander Askinadze Institut für Informatik Heinrich-Heine-Universität Düsseldorf Universitätsstr. 1 40225 Düsseldorf, Deutschland

Mehr

Überwachtes Lernen II: Netze und Support-Vektor-Maschinen

Überwachtes Lernen II: Netze und Support-Vektor-Maschinen Überwachtes Lernen II: Klassifikation und Regression - Neuronale Netze und Support-Vektor-Maschinen Praktikum: Data Warehousing und Data Mining Praktikum Data Warehousing und Mining, Sommersemester 2009

Mehr

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2 Tom Schelthoff 30.11.2018 Inhaltsverzeichnis Deep Learning Seed-Stabilität Regularisierung Early Stopping Dropout Batch Normalization

Mehr

Automatisierte Hyperparameter Optimierung im Maschinellen Lernen

Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Nicolas Schilling Information Systems and Machine Learning Lab (ISMLL)

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Strukturelle Modelle SVMstruct Katharina Morik, Claus Weihs LS 8 Informatik 16.6.2009 1 von 37 Gliederung LS 8 Informatik 1 Überblick Lernaufgaben 2 Primales Problem 3

Mehr

9.5 Entscheidungsbäume

9.5 Entscheidungsbäume 9.5. ENTSCHEIDUNGSBÄUME 149 9.5 Entscheidungsbäume Wir betrachten wieder einen Datensatz von Ereignissen mit jeweils m Merkmalen, zusammengefasst in x, die zwei verschiedenen Klassen angehören, zum Beispiel

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung

Mehr

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil

Mehr

Entwicklung chemometrischer Methoden fur die Klassifikation von Bakterien mittels Mikro-Raman-Spektroskopie

Entwicklung chemometrischer Methoden fur die Klassifikation von Bakterien mittels Mikro-Raman-Spektroskopie Entwicklung chemometrischer Methoden fur die Klassifikation von Bakterien mittels Mikro-Raman-Spektroskopie Von der Fakultat fur Lebenswissenschaften der Technischen Universitat Carolo-Wilhelmina zu Braunschweig

Mehr

Naive Bayes für Regressionsprobleme

Naive Bayes für Regressionsprobleme Naive Bayes für Regressionsprobleme Vorhersage numerischer Werte mit dem Naive Bayes Algorithmus Nils Knappmeier Fachgebiet Knowledge Engineering Fachbereich Informatik Technische Universität Darmstadt

Mehr

Automatic segmentation for dental operation planning. Diplomarbeit. Nguyen The Duy

Automatic segmentation for dental operation planning. Diplomarbeit. Nguyen The Duy Automatic segmentation for dental operation planning Diplomarbeit Nguyen The Duy 24.02.2012 Motivation Quelle: bestbudapestdentist.com Aufgabenstellung Segmentierung des Oberkiefers (Maxilla) Detektion

Mehr

Unüberwachte Nächste Nachbarn

Unüberwachte Nächste Nachbarn Unüberwachte Nächste Nachbarn Ein effizientes Verfahren zur Dimensionsreduktion Oliver Kramer Department für Informatik Carl von Ossietzky Universität Oldenburg 4. Mai 2012 (Oliver Kramer, Abteilung CI)

Mehr

Statistische Lerntheorie und Empirische Inferenz Statistical Learning Theorie and Empirical Inference

Statistische Lerntheorie und Empirische Inferenz Statistical Learning Theorie and Empirical Inference Statistische Lerntheorie und Empirische Inferenz Statistical Learning Theorie and Empirical Inference Schölkopf, Bernhard Max-Planck-Institut für biologische Kybernetik, Tübingen Korrespondierender Autor

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Gauß-Prozess-Regression

Gauß-Prozess-Regression Bayessche Regression und Gaußprozesse Dr. rer. nat. Johannes Riesterer Motivation Kriging Der südafrikanische Bergbauingenieur Danie Krige versuchte 1951, eine optimale Interpolationsmethode für den Bergbau

Mehr

Kapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017

Kapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017 10.1 Sommersemester 2017 Problemstellung Welche Gerade? Gegeben sind folgende Messungen: Masse (kg) 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 Kraft (N) 1.6 2.2 3.2 3.0 4.9 5.7 7.1 7.3 8.1 Annahme: Es gibt eine Funktion

Mehr

Klassische Klassifikationsalgorithmen

Klassische Klassifikationsalgorithmen Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at

Mehr