Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel
|
|
- Gundi Gerhardt
- vor 5 Jahren
- Abrufe
Transkript
1 Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel Dr. Dominik Grimm Probelehrveranstaltung Fakultät für Informatik und Mathematik Hochschule München München, 10. Mai Mai 2017 Ridge Regression & Support Vector Machine 1
2 Inhalte & Lernziele dieser Vorlesung Einführung ins Thema Was ist Ridge Regression? Was ist eine Kernalized Support Vector Machine? Vergleich von Ridge Regression & SVM an einem Beispiel Zusammenfassung der Vorlesungsinhalte und Ausblick 10. Mai 2017 Ridge Regression & Support Vector Machine 2
3 Preis in Motivation & Einführung Rückblick: Lineare Regression Fläche Wohnung in m Mai 2017 Ridge Regression & Support Vector Machine 3
4 Motivation & Einführung Rückblick: Lineare Regression Lineare Regression: y = b + w & x x R + : Einflussgröße (Feature) y R + : Zielvariable (Target) n: Anzahl Trainingsinstanzen b, w & R: Gewichte (Parameter) 10. Mai 2017 Ridge Regression & Support Vector Machine 4
5 Motivation & Einführung Rückblick: Lineare Regression Lineare Regression: y = b + w & x Parameter b, w & sind unbekannt. Diese müssen gelernt werden. x R + : Einflussgröße (Feature) y R + : Zielvariable (Target) n: Anzahl Trainingsinstanzen b, w & R: Gewichte (Parameter) 10. Mai 2017 Ridge Regression & Support Vector Machine 5
6 Motivation & Einführung Rückblick: Lineare Regression Lineare Regression: y = b + w & x x R + : Einflussgröße (Feature) y R + : Zielvariable (Target) n: Anzahl Trainingsinstanzen b, w & R: Gewichte (Parameter) Straffunktion (Loss): n L w = 0 y 2 b + w & x & 10. Mai 2017 Ridge Regression & Support Vector Machine 6
7 Motivation & Einführung Rückblick: Lineare Regression Lineare Regression: y = b + w & x x R + : Einflussgröße (Feature) y R + : Zielvariable (Target) n: Anzahl Trainingsinstanzen b, w & R: Gewichte (Parameter) Straffunktion (Loss): n L w = 0 y 2 b + w & x & Lernen der unbekannten Parameter durch Minimierung der Straffunktion 10. Mai 2017 Ridge Regression & Support Vector Machine 7
8 Motivation & Einführung Rückblick: Lineare Regression 10. Mai 2017 Ridge Regression & Support Vector Machine 8
9 Motivation & Einführung Rückblick: Lineare Regression Unteranpassung (Underfitting) Das Modell beschreibt die Trainingsdaten nicht ausreichend 10. Mai 2017 Ridge Regression & Support Vector Machine 9
10 Motivation & Einführung Rückblick: Lineare Regression Polynomiale Regression durch Hinzufügen von Features höherer Ordnung: y = b + w & x 1 + w 5 x w : x w &== x Mai 2017 Ridge Regression & Support Vector Machine 10
11 Motivation & Einführung Rückblick: Lineare Regression Polynomiale Regression durch Hinzufügen von Features höherer Ordnung: y = b + w & x 1 + w 5 x w : x w &== x Zielvariable y 100 Features (Einflussgrößen) 120 Trainingsinstanzen 120 Trainingsinstanzen 10. Mai 2017 Ridge Regression & Support Vector Machine 11
12 Motivation & Einführung Rückblick: Polynomiale Regression (m=100; Grad des Polynoms) 10. Mai 2017 Ridge Regression & Support Vector Machine 12
13 Motivation & Einführung Rückblick: Polynomiale Regression (m=100) Überanpassung (Overfitting) Das Modell generalisiert schlecht auf unbekannten Daten 10. Mai 2017 Ridge Regression & Support Vector Machine 13
14 Einführung in Ridge Regression Ridge Regression Ridge Regression Loss: n L w = 1 n 0 y 2 b + x α w & BCDEFGH2I2CHE+DIJCHK 10. Mai 2017 Ridge Regression & Support Vector Machine 14
15 Einführung in Ridge Regression Ridge Regression Ridge Regression Loss: n L w = 1 n 0 y 2 b + x α w & BCDEFGH2I2CHE+DIJCHK w 5 5 = 0 w L 5 = w L Quadrierte L2-Norm Lernen der unbekannten Parameter durch Minimierung der Straffunktion 10. Mai 2017 Ridge Regression & Support Vector Machine 15
16 Einführung in Ridge Regression Intuition Ridge Regression w 2 LQ n L w = 1 n 0 y 2 b + x & w Mai 2017 Ridge Regression & Support Vector Machine 16
17 Einführung in Ridge Regression Intuition Ridge Regression w 2 LQ n L w = 1 n 0 y 2 b + x α w & w* w Mai 2017 Ridge Regression & Support Vector Machine 17
18 Einführung in Ridge Regression Intuition Ridge Regression w 2 LQ n L w = 1 n 0 y 2 b + x α w & w* Effekt eines kleinen α w 1 Regularisierung hat einen schwachen Effekt auf Parameter (Gefahr von Overfitting) 10. Mai 2017 Ridge Regression & Support Vector Machine 18
19 Einführung in Ridge Regression Intuition Ridge Regression w 2 LQ n L w = 1 n 0 y 2 b + x α w & w* Effekt eines großen α w 1 Regularisierung hat einen starken Effekt auf die Parameter (Gefahr von Underfitting) 10. Mai 2017 Ridge Regression & Support Vector Machine 19
20 Einführung in Ridge Regression Effekt der L2-Regularisierung auf die Gewichte/Parameter Überanpassung Unteranpassung 10. Mai 2017 Ridge Regression & Support Vector Machine 20
21 Einführung in Ridge Regression Wie findet man den optimalen Parameter α? Training Folds Test Fold Subtraining Trainiere mit kleinem alpha Erhöhe alpha Trainiere mit hohem alpha Subtest Teste Teste Trainiere mit bestem alpha Teste 10. Mai 2017 Ridge Regression & Support Vector Machine 21
22 Einführung in Ridge Regression Wie findet man den optimalen Parameter α? Verschachtelte k-fache Kreuzvalidierung mit interner Liniensuche 10. Mai 2017 Ridge Regression & Support Vector Machine 22
23 Einführung in Ridge Regression Beispiel: Ridge Regression (m=100) 10. Mai 2017 Ridge Regression & Support Vector Machine 23
24 Einführung in Ridge Regression Beispiel: Ridge Regression (m=100) Optimale Abwägung zwischen zu einfachem und zu komplexem Model durch L2-Regularisierung 10. Mai 2017 Ridge Regression & Support Vector Machine 24
25 Zusammenfassung Ridge Regression Was haben wir gelernt? Ridge Regression wird bei Regressionsproblemen verwendet, welche viele (korrelierten) Features besitzt (und/oder wenige Trainings- Instanzen), um eine Unter- oder Überanpassung des Models zu vermeiden. Ridge Regression ist eine überwachte (supervised) Lernmethode, welche einen Strafterm besitzt, um die Gewichte (Parameter) der Regressionsmethode zu regularisieren. Der Strafterm entspricht der L2-Norm. Den optimalen Hyperparameter α findet man mittels verschachtelter k- fachen Kreuzvalidierung. 10. Mai 2017 Ridge Regression & Support Vector Machine 25
26 Einführung in Support Vector Machines Regression vs. Klassifikation Regression y R + : Zielvariable (Target) Klassifikation y { 1,1} + : Zielvariable (Label) 10. Mai 2017 Ridge Regression & Support Vector Machine 26
27 Einführung in Support Vector Machines Klassifizieren mit einer Entscheidungsfunktion w T x + b < 0 w T x + b > 0 w T x + b = Mai 2017 Ridge Regression & Support Vector Machine 27
28 Einführung in Support Vector Machines Klassifizieren mit einer Entscheidungsfunktion Entscheidungsfunktion (Decision Function): f x = x + b) Vorzeichenfunktion (Sign Function): +1 falls z > 0 sgn z = Z 0 falls z = 0 1 falls z < Mai 2017 Ridge Regression & Support Vector Machine 28
29 Einführung in Support Vector Machines Klassifizieren mit einer Entscheidungsfunktion w T x + b = Mai 2017 Ridge Regression & Support Vector Machine 29
30 Einführung in Support Vector Machines Klassifizieren mit einer Entscheidungsfunktion w T x + b = 0? 10. Mai 2017 Ridge Regression & Support Vector Machine 30
31 Einführung in Support Vector Machines Klassifizieren mit einer Entscheidungsfunktion w T x + b = 0? 10. Mai 2017 Ridge Regression & Support Vector Machine 31
32 Einführung in Support Vector Machines Klassifizieren mit einer Entscheidungsfunktion Falls zwei Klassen mit einer linearen Funktion trennbar sind, gibt es unendlich viele Entscheidungsfunktionen 10. Mai 2017 Ridge Regression & Support Vector Machine 32
33 Einführung in Support Vector Machines Hard-Margin SVM (Vapnik und Chervonenkis, 1974) 10. Mai 2017 Ridge Regression & Support Vector Machine 33
34 Einführung in Support Vector Machines Hard-Margin SVM (Vapnik und Chervonenkis, 1974) Margin = 2 w `` Support Vectors w T x + b = 1 w T x + b = 0 w w T x + b = Mai 2017 Ridge Regression & Support Vector Machine 34
35 Einführung in Support Vector Machines Hard-Margin SVM (Vapnik und Chervonenkis, 1974) Optimierungsproblem mit Nebenbedingung um w zu lernen 1 min w,h 2 w 5 5 subject to y 2 x 2 + b 1, i {1,, n} Je kleiner w desto größer die Margin: 2 w Die Nebenbedingung stellt sicher, dass alle Trainingsinstanzen der selben Klasse außerhalb oder auf dem Margin liegen 10. Mai 2017 Ridge Regression & Support Vector Machine 35
36 Einführung in Support Vector Machines Hard-Margin SVM (Vapnik und Chervonenkis, 1974) 10. Mai 2017 Ridge Regression & Support Vector Machine 36
37 Einführung in Support Vector Machines Hard-Margin SVM (Vapnik und Chervonenkis, 1974) Es gibt keine Lösung für nicht vollständig linear trennbare Probleme Support Vectors 10. Mai 2017 Ridge Regression & Support Vector Machine 37
38 Einführung in Support Vector Machines Hard-Margin SVM (Vapnik und Chervonenkis, 1974) Es gibt keine Lösung für nicht vollständig linear trennbare Probleme Support Vectors Erlaube die Fehlklassifikation von Trainingsinstanzen 10. Mai 2017 Ridge Regression & Support Vector Machine 38
39 Einführung in Support Vector Machines Soft-Margin SVM: C-SVM (Cortes und Vapnik, 1995) 10. Mai 2017 Ridge Regression & Support Vector Machine 39
40 Einführung in Support Vector Machines Soft-Margin SVM: C-SVM (Cortes und Vapnik, 1995) Erlaube die Fehlklassifikation von Trainingsinstanzen min w,h,k w C 0 ξ 2 2 subject to y 2 x 2 + b 1 ξ 2, i 1,, n, ξ 2 0 ξ ist ein Schlupfvariable (Slackvariable): Misst den Grad der Fehlklassifikation für jede Trainingsinstanz C R ist ein Regularisierungsparameter: Tradeoff zwischen Maximierung der Margin und Minimierung des Trainingsfehlers 10. Mai 2017 Ridge Regression & Support Vector Machine 40
41 Einführung in Support Vector Machines Soft-Margin SVM: C-SVM (Cortes und Vapnik, 1995) Erlaube die Fehlklassifikation von Trainingsinstanzen + 1 min w,h,k 2 w C 0 ξ 2 2 subject to y 2 x 2 + b 1 ξ 2, i 1,, n, ξ 2 0 = min w,h + 1 n 0 max(0,1 y x 2 + b)) + λ 2 w & p2+dc qrii λ = 2 nc x 2 + b 10. Mai 2017 Ridge Regression & Support Vector Machine
42 Einführung in Support Vector Machines Soft-Margin SVM: C-SVM (Cortes und Vapnik, 1995) Kleines C führt zu einer großen Margin (à Gefahr von Underfitting) 10. Mai 2017 Ridge Regression & Support Vector Machine 42
43 Einführung in Support Vector Machines Soft-Margin SVM: C-SVM (Cortes und Vapnik, 1995) Großes C führt zu einer kleinen Margin (à Gefahr von Overfitting) 10. Mai 2017 Ridge Regression & Support Vector Machine 43
44 Einführung in Support Vector Machines Nicht-Linear-Trennbare Daten 10. Mai 2017 Ridge Regression & Support Vector Machine 44
45 Einführung in Support Vector Machines Nicht-Linear-Trennbare Daten Nicht trennbar mit einer linearen Entscheidungsfunktion 10. Mai 2017 Ridge Regression & Support Vector Machine 45
46 Einführung in Support Vector Machines Transformation der Daten in einen höherdimensionalen Raum Transformation in 3-dimensionalen Raum R 5 R : x &, x 5 z &, z 5, z : (x &, x 5, x 5 & + x 5 5 ) 10. Mai 2017 Ridge Regression & Support Vector Machine 46
47 Einführung in Support Vector Machines Transformation der Daten in einen höherdimensionalen Raum z : z & z Mai 2017 Ridge Regression & Support Vector Machine 47
48 Einführung in Support Vector Machines Transformation der Daten in einen höherdimensionalen Raum z : z & z Mai 2017 Ridge Regression & Support Vector Machine 48
49 Einführung in Support Vector Machines Transformation der Daten in einen höherdimensionalen Raum Feature Transformation muss explizit berechnet werden à Unmöglich für unendlich-dimensionale Daten 10. Mai 2017 Ridge Regression & Support Vector Machine 49
50 Einführung in Support Vector Machines Kerntrick + f x = sgn 0 α 2 y 2 x 2 + b 27& 10. Mai 2017 Ridge Regression & Support Vector Machine 50
51 Einführung in Support Vector Machines Kerntrick f x = sgn + 0 α 2 y 2 x 2 + b 27& + = sgn 0 α 2 y 2 φ φ(x 2 ) + b 27& Entscheidungsfunktion hängt von Trainingsinstanzen x nur über Skalarprodukt φ φ(x 2 ) ab 10. Mai 2017 Ridge Regression & Support Vector Machine 51
52 Einführung in Support Vector Machines Kerntrick f x = sgn + 0 α 2 y 2 φ φ(x 2 ) + b 27& + = sgn 0 α 2 y 2 k(x, x 2 ) + b 27& Entscheidungsfunktion hängt von Trainingsinstanzen x nur über Skalarprodukt φ φ(x 2 ) ab k(x, x 2 ) = φ φ(x 2 ) Ersetzt Skalarprodukt und Transformation durch einen Kern (Kernel) 10. Mai 2017 Ridge Regression & Support Vector Machine 52
53 Einführung in Support Vector Machines Warum handelt es sich dabei um einen Trick? Wenn man Kernfunktionen verwendet, muss man nichts über den genauen Feature Space wissen. Man benötigt nur eine Funktion, welche ein Ähnlichkeitsmaß zwischen den Features berechnet. Ein optimaler Kern weist Trainingsinstanzen einen höheren Ähnlichkeitswert zu, wenn diese zur gleichen Klasse gehören einen niedrigeren Ähnlichkeitswert, wenn diese zu unterschiedlichen Klassen gehören. 10. Mai 2017 Ridge Regression & Support Vector Machine 53
54 Einführung in Support Vector Machines Beispiele von Kernen Linearer Kern Polynomialer Kern k x, x = x k x, x = x y + c { Gaußsche Radiale Basisfunktion (RBF) Kern k x, x = exp 1 5 x xy 2σ5 10. Mai 2017 Ridge Regression & Support Vector Machine 54
55 Zusammenfassung Kernalized Support Vector Machine Was haben wir gelernt? Die Support Vector Machine wird im (klassischen Sinne) bei Klassifikationsproblemen verwendet. Die Hard-Margin SVM ist eine überwachte (supervised) Lernmethode, welche sich nur auf vollständig linear-trennbare Probleme anwenden lässt. Die Soft-Margin SVM (C-SVM) besitzt einen zusätzlichen Strafterm, um einen optimalen Tradeoff zwischen der Maximierung der Margin und der Minimierung des Trainingsfehler zu finden. Der Kerntrick besteht darin, mittels Kernfunktionen nicht-lineare Probleme in einem höherdimensionalen Raum zu lösen, ohne die Punkte explizit in diesen Raum projizieren zu müssen. 10. Mai 2017 Ridge Regression & Support Vector Machine 55
56 Anwendungsbeispiel Vergleich von Ridge Regression und SVM an einem Anwendungsbeispiel Neues Medikament für die Therapie eines speziellen Tumors 10. Mai 2017 Ridge Regression & Support Vector Machine 56
57 Anwendungsbeispiel Vergleich von Ridge Regression und SVM an einem Anwendungsbeispiel Neues Medikament für die Therapie eines speziellen Tumors Medikament zeigt eine Wirkung innerhalb von 50 Tagen Medikament zeigt Wirkung erst nach 50 Tagen, aber mit erheblichen Nebenwirkungen 10. Mai 2017 Ridge Regression & Support Vector Machine 57
58 Anwendungsbeispiel Vergleich von Ridge Regression und SVM an einem Anwendungsbeispiel Können wir anhand der genetischen Unterschiede (z. B. der Mutationen) zwischen den Patienten die Anzahl der Tage vorhersagen, ab wann das Medikament eine Wirkung zeigt? 10. Mai 2017 Ridge Regression & Support Vector Machine 58
59 Anwendungsbeispiel Vergleich von Ridge Regression und SVM an einem Anwendungsbeispiel Anzahl Patienten (Trainingsinstanzen): 400 Anzahl Mutationen (Features): 600 Zielvariable y: Anzahl der Tage bis Medikament Wirkung zeigt Können wir anhand der genetischen Unterschiede (z. B. der Mutationen) zwischen den Patienten die Anzahl der Tage vorhersagen, ab wann das Medikament eine Wirkung zeigt? 10. Mai 2017 Ridge Regression & Support Vector Machine 59
60 Anwendungsbeispiel Vergleich von Ridge Regression und SVM an einem Anwendungsbeispiel Ergebnis Ridge Regression auf Testdaten: Mittlerer Quadratische Fehler (MSE): Ergebnis SVM mit linearen Kern auf Testdaten: Genauigkeit (Accuracy): 82% Ergebnis SVM mit RBF Kern auf Testdaten: Genauigkeit (Accuracy): 93% 10. Mai 2017 Ridge Regression & Support Vector Machine 60
61 Ausblick auf die nächste Vorlesung Was kommt als nächstes? Ridge Regression Herleitung der Lösung für das Optimierungsproblem, um die Parameter w zu lernen Implementierung des Algorithmus in Python Support Vector Machine Detaillierte Betrachtung des Optimierungsproblems für Hard-Margin SVM Detaillierte Betrachtung des Optimierungsproblems für Soft-Margin SVM Praktische Evaluierung unterschiedlicher Kerne 10. Mai 2017 Ridge Regression & Support Vector Machine 61
62 Danksagung Berufungsausschuss Allen Zuhörern und Zuhörerinnen Folien und Code zur Vorlesung Zusätzliche Referenzen Friedman, J., Hastie, T., & Tibshirani, R. (2001). The elements of statistical learning (Vol. 1). Springer, Berlin: Springer series in statistics. Murphy, K. P. (2012). Machine learning: a probabilistic perspective. MIT press. Schölkopf, B., & Smola, A. J. (2002). Learning with kernels: support vector machines, regularization, optimization, and beyond. MIT press. Icons made by Freepik from is licensed under CC BY Mai 2017 Ridge Regression & Support Vector Machine 62
Einführung in Support Vector Machines (SVMs)
Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation
MehrOptimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp
Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Support Vector Machine Nico Piatkowski und Uwe Ligges 30.05.2017 1 von 14 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrMustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines
Mustererkennung R. Neubecker, WS 018 / 019 (SVM) kommen aus der statistischen Lerntheorie gehören zu den optimalen Klassifikatoren = SVMs minimieren nicht nur den Trainingsfehler, sondern auch den (voraussichtlichen)
MehrNeuronale Netze. Prof. Dr. Rudolf Kruse
Neuronale Netze Prof. Dr. Rudolf Kruse Computational Intelligence Institut für Intelligente Kooperierende Systeme Fakultät für Informatik rudolf.kruse@ovgu.de Rudolf Kruse Neuronale Netze 1 Überwachtes
MehrMaschinelles Lernen Vorlesung
Maschinelles Lernen Vorlesung SVM Kernfunktionen, Regularisierung Katharina Morik 15.11.2011 1 von 39 Gliederung 1 Weich trennende SVM 2 Kernfunktionen 3 Bias und Varianz bei SVM 2 von 39 SVM mit Ausnahmen
MehrSupport Vector Machines (SVM)
Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik Technische Universität Dortmund 12.11.2013 1 von 39 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften
MehrMachine Learning. ML Kapitel 7: Support Vector Machines. Prof. Dr. Johannes Maucher. Version November HdM CSM
Machine Learning Kapitel 7: Support Vector Machines HdM CSM Version 1.5 16. November 2017 Document History Version Date Changes Nr. 1.0 18.06.2009 1.1 14.06.2010 Eigene Beispiele hinzugefügt 1.2 16.05.2011
MehrSupport Vector Machines (SVM)
Seminar Statistische Lerntheorie und ihre Anwendungen Support Vector Machines (SVM) Jasmin Fischer 12. Juni 2007 Inhaltsverzeichnis Seite 1 Inhaltsverzeichnis 1 Grundlagen 2 2 Lineare Trennung 3 2.1 Aufstellung
MehrFunktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen
5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Stützvektormethode Katharina Morik, Uwe Ligges 10.6.2010 1 von 40 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 2 von
MehrValidation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation
Validation Oktober, 2013 1 von 20 Validation Lernziele Konzepte des maschinellen Lernens Validierungsdaten Model Selection Kreuz-Validierung (Cross Validation) 2 von 20 Validation Outline 1 Validation
MehrVorlesung Wissensentdeckung
Gliederung Vorlesung Wissensentdeckung Stützvektormethode 1 Hinführungen zur SVM Katharina Morik, Claus Weihs 26.5.2009 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 1 von 40 2 von
MehrGrundlagen von Support Vector Machines (SVM)
Grundlagen von Support Vector Machines (SVM) Jens Pönisch 2019-03-16 1 / 31 Motivation Masterarbeit Sandy Bitterlich 2016 Optimierungsverfahren im Machine Learning ADMM SVM MPI Eigene Implementierung des
MehrLineare Klassifikatoren. Volker Tresp
Lineare Klassifikatoren Volker Tresp 1 Einführung Lineare Klassifikatoren trennen Klassen durch eine lineare Hyperebene (genauer: affine Menge) In hochdimensionalen Problemen trennt schon eine lineare
MehrAlgorithmen und Anwendungen zur Kartierung von Genomen
Algorithmen und Anwendungen zur Kartierung von Genomen Dr. Dominik Grimm Probelehrveranstaltung Wissenschaftszentrum Straubing Hochschule Weihenstephan-Triesdorf Straubing, 14. Juli 2017 14. Juli 2017
MehrÜberwachtes Lernen / Support Vector Machines. Rudolf Kruse Neuronale Netze 246
Überwachtes Lernen / Support Vector Machines Rudolf Kruse Neuronale Netze 246 Überwachtes Lernen, Diagnosesystem für Krankheiten Trainingsdaten: Expressionsprofile von Patienten mit bekannter Diagnose
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Dominik Lahmann Tobias Scheffer Überblick Hypothesenbewertung, Risikoschätzung
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Stützvektormethode Katharina Morik, Uwe Ligges 23.5.2013 1 von 48 Gliederung 1 Geometrie linearer Modelle: Hyperebenen Einführung von Schölkopf/Smola 2 Lagrange-Optimierung
MehrGrundlagen von Support Vector Maschinen und Anwendungen in der Bildverarbeitung
Grundlagen von Support Vector Maschinen und Anwendungen in der Bildverarbeitung Jan Eichhorn jan.eichhorn@tuebingen.mpg.de Max-Planck-Institut für biologische Kybernetik 72076 Tübingen Danksagung Olivier
MehrÜbersicht. Definition Daten Problemklassen Fehlerfunktionen
Übersicht 1 Maschinelle Lernverfahren Definition Daten Problemklassen Fehlerfunktionen 2 Entwickeln von maschinellen Lernverfahren Aufteilung der Daten Underfitting und Overfitting Erkennen Regularisierung
MehrSupport Vector Machines, Kernels
Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen
MehrNichtlineare Klassifikatoren
Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrVergleich von SVM und Regel- und Entscheidungsbaum-Lernern
Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Chahine Abid Bachelor Arbeit Betreuer: Prof. Johannes Fürnkranz Frederik Janssen 28. November 2013 Fachbereich Informatik Fachgebiet Knowledge
MehrEfficient Learning of Label Ranking by Soft Projections onto Polyhedra
Efficient Learning of Label Ranking by Soft Projections onto Polyhedra Technische Universität Darmstadt 18. Januar 2008 Szenario Notation duales Problem Weitere Schritte Voraussetzungen Tests Szenario
MehrSo lösen Sie das multivariate lineare Regressionsproblem von Christian Herta
Multivariate Lineare Regression Christian Herta Oktober, 2013 1 von 34 Christian Herta Multivariate Lineare Regression Lernziele Multivariate Lineare Regression Konzepte des Maschinellen Lernens: Kostenfunktion
MehrVorlesung Digitale Bildverarbeitung Sommersemester 2013
Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches
MehrMULTI-CLASS PROTEIN CLASSIFICATION USING ADAPTIVE CODES
1 MULTI-CLASS PROTEIN CLASSIFICATION USING ADAPTIVE CODES Jérôme Kirchhoff Seminar maschinelles Lernen Einleitung 2 Motivation Ohne Proteine kein Stoffwechsel keine Zellteilung Verstehen der Proteine kein
MehrPolynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen
Rückblick Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Ridge Regression vermeidet Überanpassung, indem einfachere Modelle mit
Mehr5. Klassifikation. 5.6 Support Vector Maschines (SVM)
5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus
MehrModell Komplexität und Generalisierung
Modell Komplexität und Generalisierung Christian Herta November, 2013 1 von 41 Christian Herta Bias-Variance Lernziele Konzepte des maschinellen Lernens Targetfunktion Overtting, Undertting Generalisierung
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr
Universität Potsdam Institut für Informatik ehrstuhl Maschinelles ernen Modellevaluierung Niels andwehr ernen und Vorhersage Klassifikation, Regression: ernproblem Eingabe: Trainingsdaten Ausgabe: Modell
MehrPareto optimale lineare Klassifikation
Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung
MehrLineare Klassifikationsmethoden
Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung
MehrDie Datenmatrix für Überwachtes Lernen
Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x
MehrMarina Sedinkina Folien von Benjamin Roth Planen (CIS LMU andmünchen) Evaluieren von Machine Learning Experimenten 1 / 38
Planen and Evaluieren von Machine Learning Eperimenten Marina Sedinkina Folien von Benjamin Roth CIS LMU München Evaluieren von Machine Learning Eperimenten 1 / 38 Übersicht 1 Entwickeln von maschinellen
MehrOne-class Support Vector Machines
One-class Support Vector Machines Seminar Wissensbasierte Systeme Dietrich Derksen 3. Januar 204 Motivation One-class Support Vector Machines: Detektion von Ausreißern (Systemfehlererkennung) Klassifikation
MehrEinführung in die Bioinformatik: Lernen mit Kernen
Einführung in die Bioinformatik: Lernen mit Kernen Dr. Karsten Borgwardt Forschungsgruppe für Maschinelles Lernen und Bioinformatik Max-Planck-Institut für Intelligente Systeme & Max-Planck-Institut für
MehrHauptseminar Machine Learning: Support Vector Machines, Kernels. Katja Kunze
Hauptseminar Machine Learning: Support Vector Machines, Kernels Katja Kunze 13.01.2004 Inhaltsverzeichnis 1 Einführung 2 1.1 Grundlagen............................ 2 2 Lineare Seperation 5 2.1 Maximum
MehrThema: Support Vector Machines Johannes Lächele
Proseminar: Machine Learning 26. Juli 2006 Johannes Lächele Zusammenfassung: In dieser Seminararbeit wird das Basiswissen für das Verständnis von Support Vector Machines oder SVM vermittelt. Nach einer
MehrRegularisierung (Shrinkage Methoden) Steve Finger
Regularisierung (Shrinkage Methoden) Steve Finger Inhalt 1. Motivation 2. Regularisierung 3. Vergleich der Shrinkage Methoden 4. Zusammenfassung 1. Motivation 1. Kleinste Quadrate Methode Lineare Regression:
MehrMotivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus
3. Klassifikation Motivation Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus Beispiel: Bestimme die Herkunft eines Autos
MehrBachelorarbeit Erkennung von Fließtext in PDF-Dokumenten
Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten 16.08.2016 David Spisla Albert Ludwigs Universität Freiburg Technische Fakultät Institut für Informatik Gliederung Motivation Schwierigkeiten bei
MehrEinführung in das Maschinelle Lernen I
Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL
MehrApproximate Maximum Margin Algorithms with Rules Controlled by the Number of Mistakes
Approximate Maximum Margin Algorithms with Rules Controlled by the Number of Mistakes Seminar Maschinelles Lernen VORTRAGENDER: SEBASTIAN STEINMETZ BETREUT VON: ENELDO LOZA MENCÍA Inhalt Vorbedingungen
MehrLineare Klassifikatoren IV
Universität Potsdam Institut für Informatik Lehrstuhl Lineare Klassifikatoren IV Christoph Sawade, Blaine Nelson, Tobias Scheffer Inhalt Klassifikationsproblem Bayes sche Klassenentscheidung MAP-Modell
MehrLernen unterschiedlich starker Bewertungsfunktionen aus Schach-Spielprotokollen
Lernen unterschiedlich starker Bewertungsfunktionen aus Schach-Spielprotokollen Philip Paulsen Diplomarbeit Übersicht Spielstärke im Schach MiniMax-Algorithmus Details zur Bewertungsfunktion Erzeugen der
MehrData Mining Kapitel 11: Machine Learning. Johannes Zschache Wintersemester 2018/19
Data Mining Kapitel 11: Machine Learning Johannes Zschache Wintersemester 2018/19 Abteilung Datenbanken, Universität Leipzig http://dbs.unileipzig.de Data Mining 111 112 Data Mining Übersicht Hochdimension.
MehrEinführung in das statistische Lernen
Universität Ulm 24. April 2007 Inhalt Motivation Grundbegriffe Kleinste Quadrate und k-nächste-nachbar-methode Statistische Entscheidungstheorie Regressionsmodelle und Kernmethoden Zusammenfassung Modellwahl
MehrLineare Regression. Volker Tresp
Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Modellklassen, Verlustfunktionen Nico Piatkowski und Uwe Ligges 02.05.2017 1 von 15 Literatur Trevor Hastie, Robert Tibshirani, Jerome Friedman. The Elements of Statistical
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen
Universität Potsdam Institut für Informatik Lehrstuhl Niels Landwehr, Silvia Makowski, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Di 10:00-11:30
MehrSupport-Vektor Maschinen: Feature-Funktionen. 27. Juni / 62
Support-Vektor Maschinen: Feature-Funktionen 27. Juni 2017 1 / 62 Feature Funktionen Beispiele werden durch Zusatzinformationen, Features, aufbereitet. Eine Funktion φ : X R N heißt eine Feature-Funktion.
MehrSemiüberwachte Paarweise Klassifikation
Semiüberwachte Paarweise Klassifikation Andriy Nadolskyy Bachelor-Thesis Betreuer: Prof. Dr. Johannes Fürnkranz Dr. Eneldo Loza Mencía 1 Überblick Motivation Grundbegriffe Einleitung Übersicht der Verfahren
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Strukturelle Modelle SVMstruct Katharina Morik LS 8 Künstliche Intelligenz Fakultät für Informatik 16.12.2008 1 von 35 Gliederung LS 8 Künstliche Intelligenz Fakultät für
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen. Tobias Scheffer Michael Brückner
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Tobias Scheffer Michael Brückner Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Mo 10:00-11:30
MehrErkennung eines geprägten Zifferncodes mittels maschinellen Lernens
Montanuniversität Leoben Department für Mathematik und Infomationstechnologie Lehrstuhl für Informationstechnologie Erkennung eines geprägten Zifferncodes mittels maschinellen Lernens Bakkalaureatsarbeit
MehrSVMs und Kategorisierung der Spieler
SVMs und Kategorisierung der Spieler Benjamin Herbert bherbert@rbg.informatik.tu-darmstadt.de Abstract 1. Einleitung Texas Hold em ist eine sehr populäre Pokervariante, die in den letzten Jahren vermehrt
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische
MehrLogistische Regression
Logistische Regression Christian Herta August, 2013 1 von 45 Christian Herta Logistische Regression Lernziele Logistische Regression Konzepte des maschinellen Lernens (insb. der Klassikation) Entscheidungsgrenze,
MehrSymbolumwandlung der Kernfunktionen
91 Symbolumwandlung der Kernfunktionen Positiv definierte, konvexe Kernfunktionen können als Fuzzy-Mengen betrachtet werden. z.b.: µ B (x) = 1 1 + ( x 50 10 ) 2 92 ZF-Funktionen 1 1 0-5 0 5 (a) 1 0-5 0
MehrStatistisches Lernen
Statistisches Lernen Einheit 12: Modellwahl und Regularisierung Dr. rer. nat. Christine Pausch Institut für Medizinische Informatik, Statistik und Epidemiologie Universität Leipzig WS 2014/2015 1 / 28
Mehr(1) Der Anwender hat stets die Möglichkeit, die Beispiele durch Zusatzinformationen (Features) aufzubereiten.
Feature Funktionen Eine unbekannte Klassifizierung f : X {0, 1} sei zu erlernen. (1) Der Anwender hat stets die Möglichkeit, die Beispiele durch Zusatzinformationen (Features) aufzubereiten. Eine Funktion
MehrLearning to Rank Sven Münnich
Learning to Rank Sven Münnich 06.12.12 Fachbereich 20 Seminar Recommendersysteme Sven Münnich 1 Übersicht 1. Einführung 2. Methoden 3. Anwendungen 4. Zusammenfassung & Fazit 06.12.12 Fachbereich 20 Seminar
MehrTechnische Universität
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik IX Support Vector Machines Hauptseminar Robert Rackl Betreuer: Abgabetermin: 8. Juli.2004 Dipl.-Inform. Simone
MehrStatistical Learning
Statistical Learning M Gruber KW 45 Rev 1 1 Support Vector Machines Definition 1 (Lineare Trennbarkeit) Eine Menge Ü µ Ý µ Ü Æµ Ý Æµ R ist linear trennbar, wenn mindestens ein Wertepaar Û R µ existiert
MehrVorlesung Maschinelles Lernen
Gliederung Vorlesung Maschinelles Lernen Strukturelle Modelle SVMstruct Katharina Morik 6.2.2008 Überblick Lernaufgaben 2 Primales Problem 3 Duales Problem 4 Optimierung der SVMstruct 5 Anwendungen von
MehrLineare Klassifikatoren
Universität Potsdam Institut für Informatik Lehrstuhl Lineare Klassifikatoren Christoph Sawade, Blaine Nelson, Tobias Scheffer Inhalt Klassifikationsproblem Bayes sche Klassenentscheidung Lineare Klassifikator,
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrGlobale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten
Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten M. Siebers 1 U. Schmid 2 1 Otto-Friedrich-Universität Bamberg 2 Fakultät für Wirtschaftsinformatik und Angewandte Informatik
MehrWebsite. Vorlesung Statistisches Lernen. Dozenten. Termine. Einheit 1: Einführung
Website Vorlesung Statistisches Lernen Einheit 1: Einführung Dr. rer. nat. Christine Pausch Institut für Medizinische Informatik, Statistik und Epidemiologie Universität Leipzig (Aktuelle) Informationen
MehrKlassische Klassifikationsalgorithmen
Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at
MehrVorlesung Statistisches Lernen
Vorlesung Statistisches Lernen Einheit 1: Einführung Dr. rer. nat. Christine Pausch Institut für Medizinische Informatik, Statistik und Epidemiologie Universität Leipzig WS 2014/2015 1 / 20 Organisatorisches
MehrKurze Einführung in das maschinelle Lernen mit einem Fokus auf Support Vector Maschinen
Seminararbeit Kurze Einführung in das maschinelle Lernen mit einem Fokus auf Support Vector Maschinen für das Mathematische Seminar im WS2014 Harald Burgsteiner 28. Januar 2015 In dieser Seminararbeit
MehrVorlesung Maschinelles Lernen
Gliederung Vorlesung Maschinelles Lernen SVM SMO, Kernfunktionen, Anwendungen Katharina Morik 5.11.008 1 Lösung des Optimierungsproblems mit SMO Kernfunktionen 3 Bias und Varianz bei SVM 4 Anwendungen
MehrAnalytics Entscheidungsbäume
Analytics Entscheidungsbäume Professional IT Master Prof. Dr. Ingo Claßen Hochschule für Technik und Wirtschaft Berlin Regression Klassifikation Quellen Regression Beispiel Baseball-Gehälter Gehalt: gering
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr Paul Prasse
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Paul Prasse Tobias Scheffer Sawade/Landwehr/Prasse/Scheffer, Maschinelles Lernen
MehrInhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume
4. Klassifikation Inhalt 4.1 Motivation 4.2 Evaluation 4.3 Logistische Regression 4.4 k-nächste Nachbarn 4.5 Naïve Bayes 4.6 Entscheidungsbäume 4.7 Support Vector Machines 4.8 Neuronale Netze 4.9 Ensemble-Methoden
MehrMustererkennung und Klassifikation
Mustererkennung und Klassifikation WS 2007/2008 Fakultät Informatik Technische Informatik Prof. Dr. Matthias Franz mfranz@htwg-konstanz.de www-home.htwg-konstanz.de/~mfranz/heim.html Grundlagen Überblick
MehrAnwendung der Regressions-SVM zur Vorhersage studentischer Leistungen
Anwendung der Regressions-SVM zur Vorhersage studentischer Leistungen Alexander Askinadze Institut für Informatik Heinrich-Heine-Universität Düsseldorf Universitätsstr. 1 40225 Düsseldorf, Deutschland
MehrÜberwachtes Lernen II: Netze und Support-Vektor-Maschinen
Überwachtes Lernen II: Klassifikation und Regression - Neuronale Netze und Support-Vektor-Maschinen Praktikum: Data Warehousing und Data Mining Praktikum Data Warehousing und Mining, Sommersemester 2009
MehrWeitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff
Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2 Tom Schelthoff 30.11.2018 Inhaltsverzeichnis Deep Learning Seed-Stabilität Regularisierung Early Stopping Dropout Batch Normalization
MehrAutomatisierte Hyperparameter Optimierung im Maschinellen Lernen
Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Nicolas Schilling Information Systems and Machine Learning Lab (ISMLL)
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Strukturelle Modelle SVMstruct Katharina Morik, Claus Weihs LS 8 Informatik 16.6.2009 1 von 37 Gliederung LS 8 Informatik 1 Überblick Lernaufgaben 2 Primales Problem 3
Mehr9.5 Entscheidungsbäume
9.5. ENTSCHEIDUNGSBÄUME 149 9.5 Entscheidungsbäume Wir betrachten wieder einen Datensatz von Ereignissen mit jeweils m Merkmalen, zusammengefasst in x, die zwei verschiedenen Klassen angehören, zum Beispiel
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Probabilistische Nico Piatkowski und Uwe Ligges 22.06.2017 1 von 32 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung Regularisierung
MehrTextmining Klassifikation von Texten Teil 2: Im Vektorraummodell
Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil
MehrEntwicklung chemometrischer Methoden fur die Klassifikation von Bakterien mittels Mikro-Raman-Spektroskopie
Entwicklung chemometrischer Methoden fur die Klassifikation von Bakterien mittels Mikro-Raman-Spektroskopie Von der Fakultat fur Lebenswissenschaften der Technischen Universitat Carolo-Wilhelmina zu Braunschweig
MehrNaive Bayes für Regressionsprobleme
Naive Bayes für Regressionsprobleme Vorhersage numerischer Werte mit dem Naive Bayes Algorithmus Nils Knappmeier Fachgebiet Knowledge Engineering Fachbereich Informatik Technische Universität Darmstadt
MehrAutomatic segmentation for dental operation planning. Diplomarbeit. Nguyen The Duy
Automatic segmentation for dental operation planning Diplomarbeit Nguyen The Duy 24.02.2012 Motivation Quelle: bestbudapestdentist.com Aufgabenstellung Segmentierung des Oberkiefers (Maxilla) Detektion
MehrUnüberwachte Nächste Nachbarn
Unüberwachte Nächste Nachbarn Ein effizientes Verfahren zur Dimensionsreduktion Oliver Kramer Department für Informatik Carl von Ossietzky Universität Oldenburg 4. Mai 2012 (Oliver Kramer, Abteilung CI)
MehrStatistische Lerntheorie und Empirische Inferenz Statistical Learning Theorie and Empirical Inference
Statistische Lerntheorie und Empirische Inferenz Statistical Learning Theorie and Empirical Inference Schölkopf, Bernhard Max-Planck-Institut für biologische Kybernetik, Tübingen Korrespondierender Autor
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
MehrGauß-Prozess-Regression
Bayessche Regression und Gaußprozesse Dr. rer. nat. Johannes Riesterer Motivation Kriging Der südafrikanische Bergbauingenieur Danie Krige versuchte 1951, eine optimale Interpolationsmethode für den Bergbau
MehrKapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017
10.1 Sommersemester 2017 Problemstellung Welche Gerade? Gegeben sind folgende Messungen: Masse (kg) 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 Kraft (N) 1.6 2.2 3.2 3.0 4.9 5.7 7.1 7.3 8.1 Annahme: Es gibt eine Funktion
MehrKlassische Klassifikationsalgorithmen
Klassische Klassifikationsalgorithmen Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at
Mehr