Maschinelles Lernen Vorlesung

Ähnliche Dokumente
Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen

5. Klassifikation. 5.6 Support Vector Maschines (SVM)

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines

Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen

Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel

Vorlesung Wissensentdeckung

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp

Lineare Klassifikatoren. Volker Tresp

Support Vector Machines (SVM)

Wissensentdeckung in Datenbanken

Support Vector Machines, Kernels

Einführung in Support Vector Machines (SVMs)

Nichtlineare Klassifikatoren

Support Vector Machines (SVM)

Neuronale Netze. Prof. Dr. Rudolf Kruse

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

Die Datenmatrix für Überwachtes Lernen

Lineare Regression. Volker Tresp

Machine Learning. ML Kapitel 7: Support Vector Machines. Prof. Dr. Johannes Maucher. Version November HdM CSM

Innere-Punkt-Methoden

Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

BZQ II: Stochastikpraktikum

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung

Überwachtes Lernen / Support Vector Machines. Rudolf Kruse Neuronale Netze 246

3 Optimierung mehrdimensionaler Funktionen f : R n R

Support-Vektor Maschinen: Feature-Funktionen. 27. Juni / 62

Proseminar Lineare Algebra WS 08/09 Prof. Dr. O. Bogopolski 1. Vortrag: Lineare Gleichungen. am 11. März von Maximilian Wahner

Linear nichtseparable Probleme

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Unüberwachtes Lernen

Statistical Learning

Einführung in die Bioinformatik: Lernen mit Kernen

Vorlesung Wissensentdeckung

Numerische Methoden und Algorithmen in der Physik

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation

Modell Komplexität und Generalisierung

Hauptseminar Machine Learning: Support Vector Machines, Kernels. Katja Kunze

1/19. Kern-Methoden zur Extraktion von Informationen. Sebastian Marius Kirsch Back Close

Vorlesung Maschinelles Lernen

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Vorlesung Einführung in die Mathematische Optimierung (Wintersemester 2013/14)

Optimierung unter Nebenbedingungen

Das Trust-Region-Verfahren

Wissensentdeckung in Datenbanken

Lineare Klassifikationsmethoden

(1) Der Anwender hat stets die Möglichkeit, die Beispiele durch Zusatzinformationen (Features) aufzubereiten.

Clusteranalyse: Gauß sche Mischmodelle

Grundlagen zu neuronalen Netzen. Kristina Tesch

Wissensentdeckung in Datenbanken

Hypothesenbewertungen: Übersicht

1 0, x C X (A). = 1 χ A(x).

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff

2 Extrema unter Nebenbedingungen

NICHTRESTRINGIERTE OPTIMIERUNG

Biostatistik, Winter 2011/12

Pareto optimale lineare Klassifikation

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Klausur zu Analysis II - Lösungen

Elemente der Analysis II

RL und Funktionsapproximation

Klassische Klassifikationsalgorithmen

Grundlagen von Support Vector Maschinen und Anwendungen in der Bildverarbeitung

Approximate Maximum Margin Algorithms with Rules Controlled by the Number of Mistakes

R 3 und U := [e 2, e 3 ] der von e 2, e 3 erzeugte

Inhaltsübersicht für heute:

Lernalgorithmen SoSe 2008 in Trier. Henning Fernau Universität Trier

Data Mining - Wiederholung

Kapitel 5. Peter Becker (H-BRS) Operations Research I Sommersemester / 298

Lineare Gleichungssysteme

Strukturelle SVM zum Graph-labelling

Allgemeine lineare Modelle

Lösungsvorschlag zur Modulprüfung Numerische Methoden Sommersemester 2016

16. FUNKTIONEN VON MEHREREN VARIABLEN

Nachklausur (Modulprüfung) zum Lehrerweiterbildungskurs 6 Lineare Algebra/Analytische Geometrie I WiSe 2016/17

Elemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren

1 Einführung in Lineare Programme und Dualität

Vorlesung Maschinelles Lernen

Probeklausur zur Analysis 2, SoSe 2017

9 Differentialrechnung für Funktionen in n Variablen

Unüberwachte Nächste Nachbarn

Klausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016

Von schwachen zu starken Lernern

Least Absolute Shrinkage And Seletion Operator (LASSO)

1 Umkehrfunktionen und implizite Funktionen

Lernalgorithmen SoSe 2008 in Trier. Henning Fernau Universität Trier

3. Approximation von Funktionen und Extremwertprobleme im R n

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr

Übersicht. Definition Daten Problemklassen Fehlerfunktionen

Kapitel 15 Lineare Gleichungssysteme

Statistische Entscheidungstheorie

Institut für Analysis und Scientific Computing Dr. E. Weinmüller SS 2015

Efficient Learning of Label Ranking by Soft Projections onto Polyhedra

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Transkript:

Maschinelles Lernen Vorlesung SVM Kernfunktionen, Regularisierung Katharina Morik 15.11.2011 1 von 39

Gliederung 1 Weich trennende SVM 2 Kernfunktionen 3 Bias und Varianz bei SVM 2 von 39

SVM mit Ausnahmen Was passiert, wenn die Beispiele nicht komplett trennbar sind? 3 von 39

Nicht linear trennbare Daten In der Praxis sind linear trennbare Daten selten: 1. Ansatz: Entferne eine minimale Menge von Datenpunkten, so dass die Daten linear trennbar werden (minimale Fehlklassifikation). + + + Problem: Algorithmus wird exponentiell.? + + + 4 von 39

SVM mit Ausnahmen Ein anderer Ansatz basiert wieder auf einer Relaxation: Punkte, die nicht am Rand oder auf der richtigen Seite der Ebene liegen, bekommen einen Strafterm ξ j > 0. Korrekt klassifizierte Punkte erhalten eine Variable ξ j = 0. Dies führt zu folgenden Minimierungsproblem 1 2 β 2 + C N ξ j für ein festes C R >0 (1) j=1 Daraus folgt insbesondere 0 α i C 5 von 39

Weich trennende Hyperebene Relaxiertes Optimierungsproblem Sei C R mit C > 0 fest. Minimiere β 2 + C unter den Nebenbedingungen N i=1 x i, β + β 0 +1 ξ i für y i = +1 x i, β + β 0 1 + ξ i für y i = 1 Durch Umformung erhalten wir wieder Bedingungen für die Lagrange-Optimierung: ξ i y i ( x i, β + β 0 ) 1 ξ i i = 1,..., N 6 von 39

Bedeutung von ξ und α ξ = 0, α = 0 ξ = 0, 0 α C ξ > 1, α = C 0 ξ 1, 0 α C f( x) = 1 f( x) = 0 f( x) = +1 Beispiele x i mit α i > 0 sind Stützvektoren. 7 von 39

Wo sind wir? Maximieren der Breite einer separierenden Hyperebene (maximum margin method) ergibt eindeutige, optimale trennende Hyperebene. Transformation des Datenraums durch Kernfunktion behandelt Nichtlinearität. Das kam nur einmal am Rande vor. Wir sehen es nachher genauer. Regularisierung minimiert nicht nur den Fehler, sondern auch die Komplexität des Modells. Später! 8 von 39

Nicht-lineare Daten 9 von 39

Nicht-lineare Daten Neue SVM-Theorie entwickeln? (Neeee!) Lineare SVM benutzen? If all you ve got is a hammer, every problem looks like a nail Transformation in lineares Problem! 10 von 39

Kernfunktionen Erinnerung: L D (α) = n α i 1 2 i=1 N N y i y j α i α j x i, x j i=1 j=1 f( x) = α i y i x i, x + β 0 SVM hängt von x nur über Skalarprodukt x, x ab. Ersetze Transformation Φ und Skalarprodukt durch Kernfunktion K( x 1, x 2 ) = Φ( x 1 ), Φ( x 2 ) Φ X Z R K 11 von 39

Kernfunktionen II Angabe von φ nicht nötig, einzige Bedingung: Kernmatrix (K( x i, x j )) i,j=1...n muss positiv definit sein. Radial-Basisfunktion: K( x i, x j ) = exp( γ x i x j 2 ) Polynom: K( x i, x j ) = x i, x j d Neuronale Netze: K( x i, x j ) = tanh( α x i, x j + b) Konstruktion von Spezialkernen durch Summen und Produkte von Kernfunktionen, Multiplikation mit positiver Zahl, Weglassen von Attributen 12 von 39

Polynom-Kernfunktionen K d ( x i, x j ) = x i, x j d Beispiel: d = 2, x i, x j R 2. K 2 ( x i, x j ) = x i, x j 2 = ((x i1, x i2 ) (x j1, x j2 )) 2 = (x i1 x j1 + x i2 x j2 ) 2 = x 2 i 1 x 2 j 1 + 2x i1 x j1 x i2 x j2 + x 2 i 2 x 2 j 2 = (x 2 i 1, 2x i1 x i2, x 2 i 2 ) (x 2 j 1, 2x j1 x j2, x 2 j 2 ) =: φ( x i ), φ( x j 13 von 39

RBF-Kernfunktion 14 von 39

Kernfunktionen Die Kernfunktionen werden nicht als Vorverarbeitungsschritt durchgeführt. Man muss lediglich bei der Berechnung des Skalarprodukts die Kernfunktion berücksichtigen. Allerdings kann β jetzt nicht mehr so einfach interpretiert werden als Bedeutung der Variablen (Merkmale) X i. 15 von 39

Interpretation der SVM Wenn das Skalarprodukt als Kernfunktion gewählt wird, entspricht jede Komponente des β einem Gewicht des Merkmals und jedes α dem Gewicht eines Beispiels x, φ( x) = x. Wenn nicht, wie finden wir zu jedem φ( x) den Ursprung x? f( x) = = = N α i K( x i, x) i=1 s α i φ( x i ) φ( x) i=1 ( N ) α i φ( x i ) φ( x) i=1 =: β φ( x) 16 von 39

Pre-Image Problem von Mika et al. 1998 Mika, Schölkopf, Smola, Müller, Scholz, Rätsch (1998) Kernel PCA and de-noising in feature spaces, in: NIPS, vol 11. Rüping (2006) Learning Interpretable Models, Diss. TU Dortmund Pre-Image Problem Gegeben die Abbildung φ : X X und ein Element aus dem Merkmalsraum, β X, finde ein x X, so dass φ( x) = β. Approximatives Pre-Image Problem Gegeben die Abbildung φ : X X und ein Element aus dem Merkmalsraum, β X, finde ein x X mit minimalem Fehler β φ( x) 2. 17 von 39

Den Ursprung im Merkmalsraum suchen Weil wir die genaue Abbildung φ nicht kennen, müssen wir den quadratischen Fehler im Merkmalsraum minimieren, um x zu finden. x = argmin β φ( x) 2 = argmin β, β 2β, φ( x) + φ( x), φ( x) = argmin β, β 2f( x) + K( x, x) Minimum von K( x, x) 2f( x) (Gradientenabstieg) kann das Pre-Image von β liefern (oder ein lokales Minimum). 18 von 39

Pre-Images lernen! Wenn wir häufiger für den selben Merkmalsraum den Ursprung x von φ( x) bestimmen wollen, dann lohnt es sich, die umgekehrte Abbildung Γ : X X zu lernen. Allerdings müssen wir dann für den Merkmalsraum eine geeignete Basis finden, z.b. durch eine Hauptkomponentenanalyse mit Kernfunktion. Auf dieser Basis wird dann für eine kleinere Menge x i die Abbildung Γ approximiert. Bair, Weston, Schölkopf (2003) Learning to find pre-images, in: NIPS, vol. 16 19 von 39

Reduced Set Problem Reduced Set Problem Gegeben die Abbildung φ : X X und eine natürliche Zahl s, finde z 1,..., z s X und Koeffizienten γ 1,..., γ s so dass β s i=1 γ iφ( z i ) 2 minimal ist. Das gelernte β = N i=1 α iφ( x) ist eine Linearkombination der Stützvektoren. Diese sind die erste Lösung des Problems. Wir wollen aber nicht alle Daten bearbeiten, sondern nur s << N! Wir wollen γ aus weniger Beispielen lernen. Das ist möglich, weil hier nicht die Nebenbedingungen gelten wie bei dem Optimierungsproblem der SVM. 20 von 39

Neues Optimierungsproblem SVM liefert β = N i α i φ( x i ) Wir wollen die Distanz der Approximation zur originalen SVM minimieren: N N α i φ(x i ) γ i φ(x i ) 2 +λ γ i i=1 i=1 und γ soll spärlich besetzt sein. λ > 0 gewichtet die Spärlichkeit gegen die Präzision. Schölkopf, Mika, Burges, Knirsch, Müller, Rätsch, Smola (1999) Input space versus feature space in kernel-based methods. IEEE Neural Networks Vol.10, No. 5 21 von 39

Iterativer Algorithmus Skizze 1 k=:0; Z k =: {} 2 finde z k, so dass gilt K zx α = K z γ Kernmatrix K zx = φ( z i ), φ( x i ), Kernmatrix K z = φ( z i ), φ( z j ) der neue Punkt z mit γ verhält sich wie mit β bei allen Beispielen. 3 k=: k+1; Z k =: Z k 1 z k 4 berechne γ = (K z ) 1 K zx α 5 Wenn N i=1 α iφ(x i ) N i=1 γ iφ(x i ) 2 +λ γ i < θ, stop, sonst Schritt 2! 22 von 39

Reduced Set Approximation Bild Bei einem eindimensionalen Datensatz mit Klassen blau und rot, sieht man die Funktionswerte der tatsächlichen Funktion (grün), die Approximation lt. Schölkopf et al (1999) (lila) und die Approximation lt. Rüping (2006) (schwarz): 23 von 39

Was wissen Sie jetzt? Lineare SVM sind leicht zu interpretieren: α gewichtet Beispiele, β gewichtet Merkmale. Bei Kernfunktionen wissen wir für gegebene Wert φ( x) nicht, welches x dahinter steht. Ansatz: zu einer SVM noch eine Approximation der SVM lernen! Die gelernte SVM klassifiziert mit max margin. Die Approximation gibt eine Vorstellung von der Funktion. Das Reduced Set Problem findet eine Approximation für wenige Beispiele mit γ statt β auf der Grundlage eines gelernten Modells. 24 von 39

Was ist gutes Lernen? Fauler Botaniker: klar ist das ein Baum - ist ja grün. Übergeneralisierung Wenig Kapazität Bias Botaniker mit fotografischem Gedächtnis: nein, dies ist kein Baum, er hat 15 267 Blätter und kein anderer hatte genau so viele. Overfitting Viel Kapazität Varianz Kontrolle der Kapazität! 25 von 39

Bias-Varianz-Problem Zu kleiner Hypothesenraum: Zielfunktion nicht gut genug approximierbar (Bias) Zu großer Hypothesenraum: Zuviel Einfluss zufälliger Abweichungen (Varianz) Lösung: Minimiere obere Schranke des Fehlers: R(α) η R emp (α) + V ar(α) 26 von 39

Risikoschranke nach Vapnik Strukturelles Risiko Gegeben eine unbekannte Wahrscheinlichkeitsverteilung P ( x, y), nach der Daten gezogen werden. Die Abbildungen x f( x, α) werden dadurch gelernt, dass α bestimmt wird. Mit einer Wahrscheinlichkeit 1 µ ist das Risiko R( α) nach dem Sehen von N Beispielen beschränkt: η R( α) R emp ( α) + ( log ( 2N η ) ) + 1 log ( µ ) 4 } N {{ } VC confidence Bevor wir η ergründen (Vapnik-Chervonenkis-Dimension), erst einmal festhalten, was die Bedeutung dieser Schranke ist! 27 von 39

Strukturelle Risikoschranke Unabhängig von einer Verteilungsannahme. Alles, was die Schranke braucht, ist, dass Trainings- und Testdaten gemäß der selben Wahrscheinlichkeitsverteilung gezogen werden. Das tatsächliche Risiko können wir nicht berechnen. Die rechte Seite der Ungleichung können wir berechnen, sobald wir η kennen, die Vapnik-Chervonenkis-Dimension. Gegeben eine Menge Hypothesen für f( x, α), wähle immer die mit dem niedrigsten Wert für die rechte Seite der Schranke (R emp oder VC confidence niedrig). 28 von 39

Strukturelle Risikominimierung 1. Ordne die Hypothesen in Teilmengen gemäß ihrer Komplexität. 2. Wähle in jeder Teilmenge die Hypothese mit dem geringsten empirischen Fehler. 3. Wähle insgesamt die Hypothese mit minimaler Risikoschranke. 29 von 39

Vapnik-Chervonenkis-Dimension Definition: Eine Menge H von Hypothesen zerschmettert eine Menge E von Beispielen, wenn jede Teilmenge von E durch ein h H abgetrennt werden kann. Definition: Die VC-Dimension einer Menge von Hypothesen H ist die maximale Anzahl von Beispielen E, die von H zerschmettert wird. Eine Menge von 3 Punkten kann von geraden Linien zerschmettert werden, keine Menge von 4 Punkten kann von geraden Linien zerschmettert werden. 30 von 39

ACHTUNG Für eine Klasse von Lernaufgaben gibt es mindestens eine Menge E, die zerschmettert werden kann - NICHT jede Menge E kann zerschmettert werden! Zum Beweis der VC Dimension n muss man also zeigen: Es gibt eine Menge E aus n Punkten, die von H zerschmettert werden kann. V Cdim(H) n Es kann keine Menge E aus n + 1 Punkten geben, die von H zerschmettert werden könnte. V Cdim(H) n 31 von 39

VC-Dimension von Hyperebenen Satz: Die VC-Dimension der Hyperebenen im R p ist p + 1. Beweis: V Cdim(R p ) p + 1 : Wähle x 0 = 0 und x i = (0,..., 0, 1, 0,... 0). Für eine beliebige Teilmenge A von ( x 0,..., x n ) setze y i = 1, falls x i A, sonst y i = 1. Definiere β = y k x k und β 0 = y 0 2. Dann gilt β x 0 + β 0 = y 0 2 und β x i + β 0 = y i + y 0 2. Also: β x + β 0 trennt A. V Cdim(R p ) p + 1 : Zurückführen auf die beiden Fälle rechts. 32 von 39

VCdim misst Kapazität Eine Funktion mit nur 1 Parameter kann unendliche V Cdim haben: H kann Mengen von n Punkten zerschmettern, egal wie groß n ist. H kann unendliche V Cdim haben und trotzdem kann ich eine kleine Zahl von Punkten finden, die H nicht zerschmettern kann. V Cdim ist also nicht groß, wenn die Anzahl der Parameter bei der Klasse von Funktionen H groß ist. 33 von 39

VC-Dimension der SVM Gegeben seien Beispiele x 1,..., x N R p mit x i < D für alle i. Für die VC-Dimension der durch den Vektor β gegebenen optimalen Hyperebene H gilt: { V Cdim(H) min D 2 β } 2, p + 1 Die Komplexität einer SVM ist auch durch die Struktur der Lösung begrenzt! Die SVM minimiert nicht nur das empirische Risiko, sondern auch das strukturelle Regularisierung. 34 von 39

Zusicherungen Strukturelle Risikominimierung garantiert, dass die einfachste Hypothese gewählt wird, die noch an die Daten anpassbar ist. Strukturelle Risikominimierung kontrolliert die Kapazität des Lernens (weder fauler noch fotografischer Botaniker). Die Strukturen von Klassen von Funktionen werden durch die V Cdim ausgedrückt. Große V Cdim große VC-confidence. Wir haben nun also ein Verfahren, dass ohne zusätzlichen Aufwand die Komplexität regularisiert, wie wir es bei der Modellselektion für lineare und lokale Modelle mal wollten. 35 von 39

Performanzschätzer Welches erwartete Risiko R(α) erreicht SVM? R( α) selbst nicht berechenbar Trainingsfehler (zu optimistisch - Overfitting) Obere Schranke mittels VC-Dimension (zu locker) Kreuzvalidierung / Leave-One-Out-Schätzer (ineffizient) 36 von 39

Performanzschätzer II Satz: Der Leave-One-Out-Fehler einer SVM ist beschränkt durch R l1o SV N Beweis (Skizze): Falsch klassifizierte Beispiele werden Stützvektoren (SV). Also: Nicht-Stützvektoren werden korrekt klassifiziert. Weglassen eines Nicht-Stützvektors ändert die Hyperebene nicht, daher wird es auch beim l1o-test richtig klassifiziert. Nur der Anteil der Stützvektoren an den Beispielen macht den Fehler aus. 37 von 39

Performanzschätzer III Satz: Der Leave-One-Out-Fehler einer SVM ist beschränkt durch R l1o {i:(2α id 2 +ξ i ) 1} N (D = Radius des Umkreises um die Beispiele im transformierten Raum). Beweis: Betrachte folgende drei Fälle: ξ = 0, α = 0 ξ > 1, α = C 0 ξ 1, 0 α C 38 von 39

Was wissen wir jetzt? Kernfunktionen - eine Transformation, die man nicht erst durchführen und dann mit ihr rechnen muss, sondern bei der nur das Skalarprodukt gerechnet wird. Idee der Regularisierung: obere Schranke für das Risiko Schrittweise Steigerung der Komplexität Formalisierung der Komplexität: VC-Dimension Regularisierung als strukturelle Risikominimierung der SVM Garantie für die Korrektheit der Lernstrategie 39 von 39