Vorlesung Wissensentdeckung

Ähnliche Dokumente
Vorlesung Wissensentdeckung

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen

Vorlesung Wissensentdeckung

5. Klassifikation. 5.6 Support Vector Maschines (SVM)

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp

Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen

Wissensentdeckung in Datenbanken

Support Vector Machines (SVM)

Maschinelles Lernen Vorlesung

Lineare Klassifikatoren. Volker Tresp

Neuronale Netze. Prof. Dr. Rudolf Kruse

Support Vector Machines (SVM)

Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel

Lineare Klassifikationsmethoden

Wissensentdeckung in Datenbanken

Support Vector Machines, Kernels

2 Extrema unter Nebenbedingungen

Kuhn-Tucker Bedingung

Überwachtes Lernen / Support Vector Machines. Rudolf Kruse Neuronale Netze 246

Vorlesung Maschinelles Lernen

6 Extremwerte mit Nebenbedingungen: Die Lagrange-Multiplikatoren-Methode

Vorlesung Maschinelles Lernen

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

KAPITEL 3. Konvexe Funktionen

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

Mathematische Grundlagen für Wirtschaftswissenschaftler Leseprobe - Abschnitt 6.5 (das agraökonomische Schaf )

Vorlesung Wissensentdeckung

Optimieren unter Nebenbedingungen

Einführung in Support Vector Machines (SVMs)

Substitutionsverfahren

Vorlesung Maschinelles Lernen

Statistical Learning

7 Anwendungen der Linearen Algebra

(3D-)Extrema unter Nebenbedingungen. Problemstellung (lokale Optimierung)

Mathematik 2 für Wirtschaftsinformatik

Inhalt. 8.1 Motivation. 8.2 Optimierung ohne Nebenbedingungen. 8.3 Optimierung unter Nebenbedingungen. 8.4 Lineare Programmierung

Serie 4. Analysis D-BAUG Dr. Cornelia Busch FS 2015

Optimierungstheorie Scheinklausur Sommersemester Juli 2007

Musterlösung zu Blatt 1

Technische Universität

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

FK WMS: Wirtschaftsmathematik 2, Einheit 7/8

Extrema von Funktionen mit Nebenbedingung

Rückblick auf die letzte Vorlesung

Wirtschaftsmathematik 00054: Mathematik für Wirtschaftswissenschaftler II Kurseinheit 2: Lineare Algebra II

16. FUNKTIONEN VON MEHREREN VARIABLEN

3. Übungsblatt Aufgaben mit Lösungen

Vorlesung Wissensentdeckung in Datenbanken

Dualität bei konvexer Optimierung

Machine Learning. ML Kapitel 7: Support Vector Machines. Prof. Dr. Johannes Maucher. Version November HdM CSM

Entwicklung von Optimierungsverfahren für das Lösen verschiedener Lernaufgaben mit der Stützvektormethode

Inhaltsverzeichnis. Innere-Punkte-Verfahren 3. Inhaltsverzeichnis 1

Klausurrepetitorium ABWL

Grundlagen von Support Vector Maschinen und Anwendungen in der Bildverarbeitung

Hauptseminar Machine Learning: Support Vector Machines, Kernels. Katja Kunze

Optimierung. Optimierung. Vorlesung 5 Optimierung mit Nebenbedingungen Thomas Brox, Fabian Kuhn

Support-Vektor Maschinen: Feature-Funktionen. 27. Juni / 62

Operations Research. Konvexe Funktionen. konvexe Funktionen. konvexe Funktionen. Rainer Schrader. 4. Juni Gliederung

KAPITEL 10 DIE INNERE-PUNKTE-METHODE

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Optimierung unter Nebenbedingungen

Übung 5, Analytische Optimierung

Efficient Learning of Label Ranking by Soft Projections onto Polyhedra

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema

9 Differentialrechnung für Funktionen in n Variablen

Thema: Support Vector Machines Johannes Lächele

3 Optimierung mehrdimensionaler Funktionen f : R n R

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

One-class Support Vector Machines

Kapitel 2. Mathematik für Mikroökonomie

14.4 Warum die Methode der Lagrange-Multiplikatoren funktioniert

Graphentheorie. Kürzeste Wege. Kürzeste Wege. Kürzeste Wege. Rainer Schrader. 25. Oktober 2007

2.4 Verallgemeinerte Ungleichungen

Betriebliche Optimierung

Innere-Punkt-Methoden

Übungen zur Ingenieur-Mathematik III WS 2011/12 Blatt Aufgabe 25: Berechnen Sie den kritischen Punkt der Funktion

Optimierung. Vorlesung 02

Pareto optimale lineare Klassifikation

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Grundlagen von Support Vector Machines (SVM)

2 Funktionen in mehreren Variablen: Differentiation

1 Lineare Optimierung, Simplex-Verfahren

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 3. Übung SS 17: Woche vom

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

12. Trennungssätze für konvexe Mengen 83

Kombinatorische Optimierung

5 Interpolation und Approximation

Seminar: Finanzmathematik. Portfoliooptimierung im vollständigen Finanzmarktmodell. Katharina Hasow

Betriebswirtschaftliche Optimierung

Lagrange-Multiplikatoren

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Kurze Einführung in das maschinelle Lernen mit einem Fokus auf Support Vector Maschinen

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

Transkript:

Vorlesung Wissensentdeckung Stützvektormethode Katharina Morik, Uwe Ligges 10.6.2010 1 von 40

Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 2 von 40

Übersicht über die Stützvektormethode (SVM) Eigenschaften der Stützvektormethode (SVM) (Support Vector Machine) Maximieren der Breite einer separierenden Hyperebene maximum margin method ergibt eindeutige, optimale trennende Hyperebene. Transformation des Datenraums durch Kernfunktion behandelt Nichtlinearität. Strukturelle Risikominimierung minimiert nicht nur den Fehler, sondern auch die Komplexität des Modells. 3 von 40

Einführende Literatur Vladimir Vapnik The Nature of Statistical Learning Theory Springer Vg. 1995 W.N. Wapnik, A. Tscherwonenkis Theorie der Zeichenerkennung Akademie Vg. 1979 Christopher Burges A Tutorial on Support Vector Machines for Pattern Recognition in: Data Mining and Knowledge Discovery 2, 1998, 121-167 Vertiefung: Bernhard Schölkopf, Alexander Smola Learning with Kernels, MIT Press, 2002 4 von 40

Probleme der Empirischen Risikominimierung Empirische Risikominimierung: Bisher haben wir lineare Modelle p Ŷ = ˆβ 0 X j ˆβj j=1 auf die Fehlerminimierung hin optimiert: RSS( ˆ N β) = (y i x T ˆβ) i 2 5 von 40

Wo trennen wir die Daten? Problem: Mehrere Funktionen mit minimalem Fehler existieren. Welche wählen? 1. Ausweg: Verbessertes Kriterium: maximum margin. 2. Ausweg: Zusätzliches Kriterium: möglichst geringe Komplexität des Modells (Strukturelle Risikominimierung) 6 von 40

Klassifikationsproblem Gegeben sei ein Klassifikationsproblem mit Y = {1; 1} und X R p. Sei X = C C die Menge der Trainingsbeispiele mit C = {( x, y) y = 1} und C = {( x, y) y = 1} Zur Klassifikation ist nun eine Hyperebene { H = x β 0 x, β } = 0 gesucht, die die Mengen C und C bestmöglichst trennt Für eine gegebene Hyperebene H erfolgt die Klassifikation dann durch ( ŷ = sign β 0 x, β ) 7 von 40

Notationen... Und warum jetzt x, β statt x T β? Wir bewegen uns derzeit in einem R-Vektorraum der Beispiele mit dem Standardskalarprodukt x, β = x T β }{{} Matrixmultiplikation = x β }{{} ImplizitesSkalarprodukt Die Notation x, β sollte aus der linearen Algebra (Schule?) bekannt sein. 8 von 40

Klassifikation mit Hyperebenen Ist eine Ebene H mit H = { } x β 0 x, β = 0 gegeben, können wir diese in Hesse-Normalenform überführen H = { x β0 x, β } = 0 mit β := β β, β 0 := β 0 β und erhalten die vorzeichenbehaftete Distanz eines Punktes x zu H durch d( x, H) = x x 0, β = 1 ( β x, β ) β 0 (Übungsaufgabe) 9 von 40

Klassifikation mit Hyperebenen Die vorzeichenbehaftete Distanz d( x, H) drückt aus 1 den Abstand d( x, H) von x zu Ebene H 2 die Lage von x relativ zur Orientierung ( β) von H, d.h. { 1, falls cos ( x, β) 0 sign (d( x, H)) = 1, sonst Auf diese Weise lassen sich die Punkte klassifizieren mit ( ŷ = sign β 0 x, β ) 10 von 40

Einfacher Ansatz nach Schölkopf/Smola Ein einfacher Ansatz zu einer separierenden Hyperebene zu kommen, geht über die Zentroiden von C und C : Seien c := 1 C x und c := 1 C ( x,y) C ( x,y) C x Wähle nun x 0 := c c 2 und β := c c als Hyperebene mit Normalenvektor β durch den Punkt x 0 11 von 40

Separierende Hyperebene über Zentroiden Durch β und x 0 ist die Hyperebene gegeben als { H = x x x 0, β } { = 0 = x x, β x 0, β } = 0 }{{} =:β 0 Damit erfolgt die Klassifikation durch ( ŷ = sign x c, β ) = sign ( x, c x, c β 0 ) (Übung) 12 von 40

Lernalgorithmus im Bild c c x c x c 13 von 40

Fast...... wäre das schon die Stützvektormethode. Aber: Einfach den Mittelpunkt der Beispiele einer Klasse zu berechnen ist zu einfach, um ein ordentliches β zu bekommen. Man erhält so nicht die optimale Hyperebene. 14 von 40

Die optimale Hyperebene Eine Menge von Beispielen heißt linear trennbar, falls es eine Hyperebene H gibt, die die positiven und negativen Beispiele trennt. 5.1: Optimale Hyperebene Eine separierende Hyperebene H heißt optimal, wenn ihr Abstand d zum nächsten positiven und nächsten negativen Beispiel maximal ist. d d 5.2: Satz (Eindeutigkeit) Es existiert eine eindeutig bestimmte optimale Hyperebene. 15 von 40

Bild H = { x x, β } β 0 = 0 H 1 H 2 Nach 5.1 wird die optimale Hyperebene durch die nächstliegenende Punkte aus C und C bestimmt. Skalierung von β und β 0, so dass β, x β 0 = 1 β 0 x 0 für alle Beispiele am nächsten zur Hyperebene liefert die Hyperebenen H 1 und H 2 { H j = x x, β β 0 = (1) j} 16 von 40

Abstand der Hyperebenen zum Ursprung H = { x x, β } β 0 = 0 Der Abstand der mittleren Ebene H zum Ursprung beträgt H 2 d( 0, H ) = β 0 β H 1 Die Abstände der grauen Ebenen H 1 und H 2 sind β 0 x 0 d( 0, H j ) = β 0 (1) j β H 1 H 2 d(h1, H 2 ) = 2 β 17 von 40

Margin Nach Konstruktion liegt kein Beispiel zwischen H 1 und H 2, d.h. x, β β 0 1 x C (1) x, β β 0 1 x C (2) Der Abstand d(h 1, H 2 ) = 2 β H 1 H d d heißt Margin und soll maximiert werden! H 2 18 von 40

Maximimum Margin Mit der Maximierung des Margin finden wir eine optimale Hyperebene innerhalb der Menge der möglichen trennenden Hyperebenen. Durch die Minimierung von 1 2 β 2 erhalten wir ein konvexes, quadratisches Optimierungsproblem, d.h. Es existiert eine eindeutig bestimmte, optimale Hyperebene { H = x x, β } β 0 = 0 Das quadratische Optimierungsproblem läßt sich in Zeit O(N 3 ) lösen. 19 von 40

Optimierungsaufgabe Nach diesen Vorüberlegungen haben wir also (nur noch) die folgende Optimierungsaufgabe zu lösen: Optimierungsaufgabe Minimiere 1 2 β 2 unter den Nebenbedingungen x, β x, β β 0 1 x C β 0 1 x C Die Nebenbedingungen lassen sich zusammenfassen zu y( x, β β 0 ) 1 0 ( x, y) X (3) 20 von 40

Optimierung mit Nebenbedingungen Sei die optimierende Funktion f : R R gegeben als f(x) = (x 1) 2 unter der einzigen Nebenbedingung g(x) = x 2 1, d.h. für die möglichen Lösungen x muss gelten x {x R g(x) 0} 21 von 40

Optimierung mit Lagrange Die Optimierung nach Lagrange ermöglicht die Optimierung einer Funktion f(x) unter Nebenbedingungen durch Relaxation. Mit der Lagrange-Methode lassen sich Nebenbedingungen g i und h j der Art g i (x) 0 und h j (x) = 0 behandeln, indem diese zur zu optimierenden Funktion f hinzugefügt werden, im Falle eines Minimierungsproblems als min f(x) i α i g i (x) j µ j h j (x) mit α i, µ j 0 i, j Die α i und µ j heißen auch Lagrange-Multiplikatoren. 22 von 40

Lagrange-Funktion Die Umformung der Nebenbedingungen (3) erlaubt nun die Anwendung von Lagrange (nur Ungleichheitsbedingungen): Lagrange-Funktion Sei das Optimierungsproblem gegeben, f( β) zu minimieren unter den Nebenbedingungen g i ( β) 0, i = 1,..., m dann ist die Lagrange-Funktion: ( ) L β, α = f( β) m α i g i ( β) (4) Dabei muss gelten α i 0, Gleichheitsbedingungen sind nicht gegeben. 23 von 40

Optimierungsfunktion als Lagrange Die Nebenbedingungen g i sind gegeben durch g i ( β, β 0 ) = y i ( x i, β ) β 0 1 0 x i X Die Formulierung des Optimierungsproblems nach Lagrange wird auch als Primales Problem bezeichnet: Primales Problem Die Funktion L P ( β, β 0, α) = 1 2 β 2 ( α i y i ( x i, β ) ) β 0 1 soll L P bezüglich β und β 0 minimiert und bezüglich α maximiert werden! (5) 24 von 40

Karush-Kuhn-Tucker Bedingungen Durch die partiellen Ableitung nach β und β 0 erhalten wir β L P ( β, β 0, α) = β i α i y i x i und β 0 L P ( β, β 0, α) = i α i y i Nullsetzen der Ableitungen und die Berücksichtigung der Nebenbedingungen führt zu den KKT-Bedingungen für eine Lösung für L P : β = α i y i x i und α i y i = 0 (6) α i 0 i = 1,..., N (7) ( α i y i ( x i, β ) ) β 0 1 = 0 i = 1,..., N (8) 25 von 40

Duales Problem Das primale Problem soll bezüglich β und β 0 minimiert und bezüglich α maximiert werden: Mit den Bedingungen aus L P β Lagrange-Ausdruck L D ( α) und L P β 0 erhalten wir den dualen Der duale Lagrange-Ausdruck L( α) soll maximiert werden. Das Minimum des ursprünglichen Optimierungsproblems tritt genau bei jenen Werten von β,β 0, α auf wie das Maximum des dualen Problems. 26 von 40

Umformung des primalen in das duale Problem 1 2 β 2 = 1 2 β 2 = 1 2 β 2 (6) = 1 2 β 2 [ α i y i ( x i, β ) ] β 0 1 α i y i ( x i, β ) β 0 α i y i x i, β α i y i x i, β α i y i β 0 α i α i α i 27 von 40

Umformung II Einsetzen von β = N α i y i x i führt zu = 1 2 1 2 β 2 = j=1 α i α j y i y j x i, x j α i 1 2 j=1 α i y i x i, β α i α j y i y j x i, x j j=1 α i α j y i y j x i, x j α i α i unter den Nebenbedingungen 0 = N α i y i und α i 0 i 28 von 40

SVM Optimierungsproblem (Duales Problem) Die Umformungen führen nach Einsetzen der KKT-Bedingungen zum dualen Problem: Duales Problem Maximiere L D ( α) = α i 1 2 y i y j α i α j x i, x j (9) j=1 unter den Bedingungen α i 0 i = 1,..., N und α i y i = 0 29 von 40

Stützvektoren Die Lösung α des dualen Problems L D ( α) = α i 1 2 y i y j α i α j x i, x j j=1 muss die KKT-Bedingungen erfüllen, d.h. es gilt unter anderem ( α i y i ( x i, β ) ) β 0 1 = 0 i = 1,..., N α enthält für jedes Beispiel x i genau ein α i mit α i = 0, falls x i im richtigen Halbraum liegt α i > 0, falls x i auf der Hyperebene H 1 oder H 2 liegt Ein Beispiel x i mit α i > 0 heißt Stützvektor. 30 von 40

Optimale Hyperebene Haben wir das optimale α bestimmt, erhalten wir unsere optimale Hyperebene: Nach (6) gilt β = α i y i x i d.h. der optimale Normalenvektor β ist eine Linearkombination von Stützvektoren. Um β 0 zu bestimmen können wir ( α i y i ( x i, β ) ) β 0 1 = 0 für ein beliebiges i und unser berechnetes β nutzen. 31 von 40

Berechnung der α i? Das prinzipielle Vorgehen ist bei der SVM wie bei anderen Lernverfahren auch: Parametrisierung der Modelle, hier über Umwege durch α Festlegung eines Optimalitätskriteriums, hier: Maximum Margin Formulierung als Optimierungsproblem Das finale Optimierungsproblem läßt sich mit unterschiedlichen Ansätzen lösen Numerische Verfahren (quadratic problem solver) Sequential Minimal Optimization (SMO, [J. C. Platt, 1998]) Evolutionäre Algorithmen (EvoSVM, [I. Mierswa, 2006]) 32 von 40

Zusammenfassung der Lagrange-Optimierung für SVM Das Lagrange-Optimierungs-Problem (5) ist definiert als: L P = 1 2 β 2 α i [y i ( x i, β ] β 0 ) 1 mit den Lagrange-Multiplikatoren α i 0. Notwendige Bedingung für ein Minimum liefern die Ableitungen nach β und β 0 L P β = β α i y i x i und Diese führen zum dualen Problem (9) L D = α i 1 2 i =1 L P β 0 = α i y i α i α i y i y i x i, x i 33 von 40

Was wissen wir jetzt? Maximieren des Margins einer Hyperebene ergibt eine eindeutige Festlegung der optimalen trennenden Hyperebene. Dazu minimieren wir die Länge des Normalenvektors β Formulierung als Lagrange-Funktion Formulierung als duales Optimierungsproblem Das Lernergebnis ist eine Linearkombination von Stützvektoren. Mit den Beispielen müssen wir nur noch das Skalarprodukt rechnen. 34 von 40

SVM mit Ausnahmen Was passiert, wenn die Beispiele nicht komplett trennbar sind? 35 von 40

Nicht linear trennbare Daten In der Praxis sind linear trennbare Daten selten: 1. Ansatz: Entferne eine minimale Menge von Datenpunkten, so dass die Daten linear trennbar werden (minimale Fehlklassifikation). Problem: Algorithmus wird exponentiell.? 36 von 40

SVM mit Ausnahmen Ein anderer Ansatz basiert wieder auf einer Relaxation: Punkte, die nicht am Rand oder auf der richtigen Seite der Ebene liegen, bekommen einen Strafterm ξ j > 0. Korrekt klassifizierte Punkte erhalten eine Variable ξ j = 0. Dies führt zu folgenden Minimierungsproblem 1 2 β 2 C ξ j für ein festes C R >0 (10) j=1 Daraus folgt insbesondere 0 α i C 37 von 40

Weich trennende Hyperebene Relaxiertes Optimierungsproblem Sei C R mit C > 0 fest. Minimiere β 2 C unter den Nebenbedingungen x i, β β 0 1 ξ i für y i = 1 x i, β β 0 1 ξ i für y i = 1 ξ i Durch Umformung erhalten wir wieder Bedingungen für die Lagrange-Optimierung: y i ( x i, β β 0 ) 1 ξ i i = 1,..., N 38 von 40

Bedeutung von ξ und α ξ = 0, α = 0 ξ = 0, 0 α C ξ > 1, α = C 0 ξ 1, 0 α C f( x) = 1 f( x) = 0 f( x) = 1 Beispiele x i mit α i > 0 sind Stützvektoren. 39 von 40

Wo sind wir? Maximieren der Breite einer separierenden Hyperebene (maximum margin method) ergibt eindeutige, optimale trennende Hyperebene. Das haben wir heute in der Theorie für linear separierbare Beispielmengen und mit weicher Trennung gesehen wie es praktisch geht, sehen wir nächstes Mal. Die Grundlagen waren die selben wie bei den linearen Modellen. Transformation des Datenraums durch Kernfunktion behandelt Nichtlinearität. Das kam nur einmal am Rande vor. Wir sehen es nächstes Mal genauer. Es baut auf die Behandlung der Nichtlinearität durch die Basisexpansion auf. Strukturelle Risikominimierung minimiert nicht nur den Fehler, sondern auch die Komplexität des Modells. Später! 40 von 40