Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Größe: px
Ab Seite anzeigen:

Download "Vorlesung Digitale Bildverarbeitung Sommersemester 2013"

Transkript

1 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben Institut für Neuroinformatik

2 Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches K-Nearest-Neighbour-Klassifizierer (KNN) Linear Discriminant Analysis (LDA)

3 Was ist ein Klassifikator? Im Rahmen dieser Vorlesung behandeln wir nur binäre Klassifikation, Label = 0 / 1 Training (Daten, Label) Klassifikator Test (Daten,?) Vorfahrt achten / Fahrtrichtichtung links / Gefahr Baustelle Gesicht / kein Gesicht Heimmannschaft / Auswärtsmannschaft / Torwart / Schiedsrichter

4 Feature-Räume Zu klassifizierende Beispiele werden durch Charakteristika (Features) beschrieben Diese lassen sich durch Punkte in einem Vektorraum abstrahieren Wir betrachten bis auf Weiteres nur binäre Klassifikation (genau zwei Klassen)

5 K-Nearest-Neighbour Merke Dir alle Beispiele aus dem Training Gib beim Test die Klasse DER MEHRHEIT DER K TRAININGSBEISPIELE zurück, die am nächsten zum betrachteten liegen

6 Linear Discriminant Analysis (LDA) Idee: Stelle Menge der Beispiele einer Klasse durch parametrisierte Verteilung dar Mehrdimensionale Normalverteilung ist parametrisiert durch Mittelwert und Kovarianzmatrix

7 Linear Discriminant Analysis (LDA) Mathematische Einfachheit durch Annahme gleicher Kovarianz Es existiert dann eine Trennebene

8 Einfaches Beispiel Training

9 Dimension des Feature-Raums Dimension => Komplexität des Klassifikators Komplexität vs. Generalisierung Trainings-Performance vs. Test-Performance Um in einem Feature-Raum hoher Dimension zu lernen, benötigt man viele Trainings- Beispiele.

10 Feature Extractor Bilder sind komplexe, hochdimensionale Datenstrukturen Feature Extractor Reduziert die Feature-Dimension Implementiert Vorwissen Feature Extractor Vorfahrt / Links abbiegen Klassifikator Gesicht / Kein Gesicht Heim / Auswärts

11 Haar(-like) Feature Ähnlich zu den Haar-Wavelets (daher der Name) Gesichtsdetektion (2001) Heute in genereller Objektdetektion einsetzbar

12 Feature Selection Problem: Welche Features (z.b. Haar-Features) sind wichtig für mein Klassifikationsproblem? Zwei Features können abhängig sein, d.h., wenn man das eine Feature kennt, hat das andere weniger Information für die Klassifikation Beispiel: Klassifikation von Männern und Frauen Größe und Gewicht korrelieren stark, daher braucht man von diesen Merkmalen nur eines zu nehmen Zwei Features können einzeln wenig Information enthalten, zusammen aber viel Hüft- und Taillenumfang können allein nicht stark zur Klassifikation von Männern und Frauen beitragen, erst ihr Verhältnis liefert wichtige Information

13 Feature Selection Problem: Welche Features (z.b. Haar-Features) sind wichtig für mein Klassifikationsproblem? Zwei Features können abhängig sein, d.h., wenn man das eine Feature kennt, hat das andere weniger Information für die Klassifikation Zwei Features können einzeln wenig Information enthalten, zusammen aber viel. Theoretisch müssen alle Kombinationen von Features durchprobiert werden Aufwand: Um k Features aus n auszuwählen, müsste man theoretisch auf Feature-Mengen trainieren und testen

14 Feature Selection Problem: Welche Features (z.b. Haar-Features) sind wichtig für mein Klassifikationsproblem? Ansätze zur Lösung dieses Problems werden später eingeführt

15 Haar(-like) Feature Vorteile: Schnell (sehr schnell) Skalierbarkeit (für größere Bilder kann man die Feature entsprechend skalieren, ohne zusätzlichen Rechenaufwand) Nachteile: nicht so aussagekräftig

16 Histogram of Oriented Gradients (HOG) Dalal & Triggs 2005 Zuerst bei Fußgängererkennung verwendet Lokale Gradientenverteilung

17 HOG - Methodik Unterteile Bildausschnitt in Zellen (Cells)

18 HOG - Methodik Berechne Gradientenbilder horizontal und vertikal

19 HOG - Methodik Unterteile Bildausschnitt in Zellen Berechne Orientierungshistogramme

20 HOG - Methodik Unterteile Bildausschnitt in Zellen Berechne Orientierungshistogramme Orientierung des Gradientenpixels bestimmt den Balken (das Bin) Betrag des Gradientenpixels bestimmt das Gewicht

21 HOG - Methodik Unterteile Bildausschnitt in Zellen Fasse mehrere benachbarte Zellen in Blöcke zusammen Idee: Setze lokale Gradientenverteilung in Relation zu einer größeren Umgebung

22 HOG - Methodik Unterteile Bildausschnitt in Zellen Fasse mehrere Zellen in Blöcke zusammen Eine Zelle wird i.d.r. von mehreren Blöcken überlappt

23 HOG - Methodik Unterteile Bildausschnitt in Zellen Fasse mehrere Zellen in Blöcke zusammen Eine Zelle wird i.d.r. von mehreren Blöcken überlappt

24 HOG - Methodik Unterteile Bildausschnitt in Zellen Fasse mehrere Zellen in Blöcke zusammen Eine Zelle wird i.d.r. von mehreren Blöcken überlappt

25 HOG - Methodik Unterteile Bildausschnitt in Zellen Fasse mehrere Zellen in Blöcke zusammen Eine Zelle wird i.d.r. von mehreren Blöcken überlappt Normiere die Histogramme mit der Summe der Gewichte aller Gradienten im Block

26 HOG - Methodik

27 HOG - Methodik

28 HOG - Hallo, wach! Wie viele Einträge hat ein Feature-Vektor eines Bildausschnitts der Größe 35 x 65, auf dem HOG-Features mit 9 Bins pro Histogramm, 8 x 8 Pixel Zellgröße und 2 x 2 Blocks gerechnet werden?

29 HOG - Hallo, wach! Wie viele Einträge hat ein Feature-Vektor eines Bildausschnitts der Größe 35 x 65, auf dem HOG-Features mit 9 Bins pro Histogramm, 8 x 8 Pixel Zellgröße und 2 x 2 Blocks gerechnet werden? (gehen Sie davon aus, dass die Zellen am Rand des Bildes, die nicht von 4 Blocks überdeckt werden können für die Berechnung ignoriert werden)

30 Hallo, wach! Wie viele Einträge hat ein Feature-Vektor eines Bildausschnitts der Größe 35 x 65, auf dem HOG-Features mit 9 Bins pro Histogramm, 8 x 8 Pixel Zellgröße und 2 x 2 Blocks gerechnet werden? (gehen Sie davon aus, dass die Zellen am Rand des Bildes, die nicht von 4 Blocks überdeckt werden können für die Berechnung ignoriert werden)

31 HOG - German Traffic Sign Recognition Benchmark 50,000 Bildausschnitte 43 Klassen IJCNN loss

32 HOG - German Traffic Sign Detection Benchmark 600 Einzelbilder IJCNN 2013 Area-Under-Curve

33 HOG - German Traffic Sign Detection Benchmark 600 Einzelbilder IJCNN 2013 Area-Under-Curve

34 HOG - German Traffic Sign Detection Benchmark 600 Einzelbilder IJCNN 2013 Area-Under-Curve

35 HOG - Interpolation Trilineare Interpolation: das Gewicht eines Gradientenpixels wird auf die angrenzenden Zellen und Bins verteilt

36 HOG - Interpolation Trilineare Interpolation: das Gewicht eines Gradientenpixels wird auf die angrenzenden Zellen und Bins verteilt A 1 A 2 A 3 A 4 Jede Zelle erhält für sein Histogramm den Betrag des Gradientenpixels gewichtet mit der Fläche des ihm gegenüber liegenden Rechtecks

37 HOG - Interpolation Trilineare Interpolation: das Gewicht eines Gradientenpixels wird auf die angrenzenden Zellen und Bins verteilt A 1 A 2 A 3 A 4 Jede Zelle erhält für sein Histogramm den Betrag des Gradientenpixels gewichtet mit der Fläche des ihm gegenüber liegenden Rechtecks (z.b. oben links)

38 HOG - Interpolation Trilineare Interpolation: das Gewicht eines Gradientenpixels wird auf die angrenzenden Zellen und Bins verteilt: w 1 w 2

39 HOG - Interpolation Trilineare Interpolation: das Gewicht eines Gradientenpixels wird auf die angrenzenden Zellen und Bins verteilt Trilineare Interpolation (= bilineare Interpolation zwischen angrenzenden Zellen + lineare Interpolation zwischen angrenzenden Bins) erhöht die Performance der HOG-Features In laufzeitkritischen Anwendungen kann sie vernachlässigt werden w 1 w 2

40 HOG Farbe HOG-Features können für jeden Farbkanal (R, G,B) einzeln berechnet werden (dies verdreifacht die Dimension des Feature- Vektors) R G B

41 HOG Pro und Contra Was sind Vor- und Nachteile der HOG-Features? PRO: gute Ergebnisse PRO: relativ einfaches Verfahren CON: langsam (verglichen z.b. mit Haar-Features) CON: viele Parameter (Binzahl, Zellgröße, Blockgröße) CON: Ergebnis hängt stark von der Wahl der Parameter ab

42 Rückblick Handwerkzeug um Bildausschnitte binär (!) zu klassifizieren Haar(-like)-Features, HOG-Features K-Nearest-Neughbour, LDA Feature Extractor Klassifikator Vorfahrt / Gefahr Baustelle Gesicht / kein Gesicht Heim / Auswärts

43 Detektion: Sliding-Window Klassifikation: Ordne Bildausschnitte ein Detektion: Finde Objekte von Interesse in größeren Bildern (z.b.) suche Stoppschilder in Kamerabildern

44 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

45 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

46 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

47 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

48 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

49 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

50 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

51 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

52 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

53 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)

54 Detektion Welche Fehler kann ein Detektor machen? Er findet ein Objekt, wo keines ist. (Falsch positiv, FP) Er findet kein Objekt, wo eines ist. (Falsch negativ, FN) Bewertung über zwei Kenngrößen (TP = richtig erkannte Objekte) Verschiedene Einstellungen (Empfindlichkeit) des Detektors können verschiedene Precision-Recall-Wertepaare ergeben

55 Detektion Verschiedene Einstellungen (Empfindlichkeit) des Detektors können verschiedene Precision-Recall-Wertepaare ergeben

56 AdaBoost Verwende viele einfache ( schwache ) Klassifikatoren, um einen sehr guten Klassifikator zu konstruieren AdaBoost kann auch für Feature-Selection verwendet werden Einfachster denkbarer Klassifikator:

57 AdaBoost Verwende viele einfache ( schwache ) Klassifikatoren, um einen sehr guten Klassifikator zu konstruieren AdaBoost kann auch für Feature-Selection verwendet werden Einfachster denkbarer Klassifikator: Linearer Klassifikator im 1D-Featureraum (Schwellwert auf einem Skalar)

58 AdaBoost Idee 1: Baue den starken Klassifikator schrittweise auf, indem man den schwachen Klassifikator dazunimmt, der im aktuellen Schritt am wertvollsten ist. Idee 2: Gebe jedem Trainingsbeispiel ein Wichtigkeit. Falls das Beispiel vom aktuellen Klassifikator richtig klassifiziert wird, senke sein Gewicht. Falls das Beispiel vom aktuellen Klassifikator falsch klassifiziert wird, erhöhe sein Gewicht. D.h. schwache Klassifikatoren, die aktuell falsch klassifizierte Beispiele richtig klassifizieren, werden wertvoller. Idee 3: Bilde (irgendwie) eine Linearkombination der schwachen Klassifikatoren, um den starken Klassifikator zu konstruieren.

59 AdaBoost Pseudocode Gegeben: Trainingsdaten mit Gewichten und Schwache Klassifikatoren Initialisiere: Wiederhole: 1,..., T die m positiven Trainingsbeispiele die l negativen Trainingsbeispiele Normalisiere Gewichte Trainiere alle Klassifikatoren, so dass der gewichteten Trainingsfehler Merke als schwachen Klassifikator mit minimalem Trainingsfehler minimiert wird

60 AdaBoost Pseudocode Gegeben: Trainingsdaten mit Gewichten und Schwache Klassifikatoren Wiederhole: t = 1,..., T Normalisiere Gewichte Trainiere alle Klassifikatoren, so dass der gewichteten Trainingsfehler Merke als schwachen Klassifikator mit minimalem Trainingsfehler Aktualisiere Gewichte für richtig klassifizierte Beispiele Merke Starker Klassifikator: minimiert wird

61 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature

62 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature

63 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature Feature 1 Feature 2 Feature 3

64 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature Feature 1 Fehler: 0,0515 Feature 2 Fehler: 0,039 Feature 3 Fehler: 0,09

65 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature 1,231 1,5219 0,9658 Feature 1 Fehler: 0,0515 Feature 2 Fehler: 0,039 Feature 3 Fehler: 0,09

66 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature Fehler: Neue Trainings-Gewichte: 1,5219 Normieren. Klassifikator-Gewicht: Feature 2 Aktueller starker Klassifikator: Fehler: 0,039

67 AdaBoost Beispiel Aktueller starker Klassifikator:

68 AdaBoost - Beispiel Verbleiben zwei weitere schwache Klassifikatoren Feature 1 Feature 3

69 AdaBoost - Beispiel Verbleiben zwei weitere schwache Klassifikatoren Neue Gewichte! Feature 1 Feature 3

70 AdaBoost - Beispiel Verbleiben zwei weitere schwache Klassifikatoren Neue Gewichte! 1,7577 1,2499 Feature 1 Fehler: 0,0848 Feature 3 Fehler: 0,1523

71 AdaBoost - Beispiel Verbleiben zwei weitere schwache Klassifikatoren Neue Gewichte! 1,7577 1,2499 Feature 1 Fehler: 0,0848 Feature 3 Fehler: 0,1523

72 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature Fehler: Neue Trainings-Gewichte: 1,7577 Normieren. Klassifikator-Gewicht: Feature 1 Aktueller starker Klassifikator: Fehler: 0,0848

73 AdaBoost Beispiel Aktueller starker Klassifikator:

74 AdaBoost Beispiel Aktueller starker Klassifikator: Warum sind die Ergebnisse gleich? Vorheriger Klassifikator Aktueller Klassifikator

75 AdaBoost - Beispiel Verbleibt ein weiterer schwacher Klassifikator Neue Gewichte! Feature 3 Fehler: 0,0818

76 AdaBoost Beispiel Aktueller starker Klassifikator: Vorheriger Klassifikator (Fehler: 7,8 %) Aktueller Klassifikator (Fehler: 4,6 %)

77 Viola-Jones-Detektor Schwacher Klassifikator: Schwellwert für ein Haar-Feature Menge der Klassifikatoren: Ein Klassifikator für jedes Haar-Feature (Position, Größe, Art)

78 Viola-Jones Bei vielen Bildausschnitten kann man schnell (d.h. mit wenigen Features) entscheiden, ob es sich um die relevante Klasse (hier: Gesicht) handelt An diesen einfachen Beispielen sollte man keine Zeit verschwenden Reihenschaltung von mehreren AdaBoost-trainierten Klassifikatoren Jeder starke Klassifikator besteht nur aus wenigen Features Nein Ende Nein Ende Nein Ende Starker Klassifikator Nr. 1 ja Starker Klassifikator Nr. 2 ja Starker Klassifikator Nr. 3 ja

79 Viola-Jones Reihenschaltung von mehreren AdaBoost-trainierten Klassifikatoren Jeder starke Klassifikator besteht nur aus wenigen Features Wähle die Schwelle des starken Klassifikators so, dass ein hoher Recall (z.b. 99%) entsteht Dies verursacht i.d.r. auch eine hohe Precision (z.b. 40 %) Nein Ende Nein Ende Nein Ende Starker Klassifikator Nr. 1 ja Starker Klassifikator Nr. 2 ja Starker Klassifikator Nr. 3 ja

80 Viola-Jones Wähle die Schwelle des starken Klassifikators so, dass ein hoher Recall (z.b. 99%) entsteht Dies verursacht i.d.r. auch eine hohe Precision (z.b. 40 %) Somit werden in der ersten Stufe z.b. 60% der falschen Beispiele aussortiert Nein Ende Nein Ende Starker Klassifikator Nr. 1 ja Starker Klassifikator Nr. 2 ja Starker Klassifikator Nr. 3 Nein Ende ja

81 Viola-Jones Somit werden in der ersten Stufe z.b. 60% der falschen Beispiele aussortiert Die verbleibenden Beispiele sind schwerer und benötigen weitere Klassifikatoren Nimm beim AdaBoost-Training so lange neue Features hinzu, bis die Recall-Precision- Anforderungen eintreten Eventuell ist dies nicht möglich (z.b. wenn der Recall zu hoch gewählt ist)! Trainiere spätere Stufe nur auf Beispielen, die alle bisherigen Stufen als relevant klassifiziert haben Nein Ende Nein Ende Nein Ende Starker Klassifikator Nr. 1 ja Starker Klassifikator Nr. 2 ja Starker Klassifikator Nr. 3 ja

82 Viola-Jones Original-Paper 38 Kaskadenstufe 4916 Gesichtsbeispiele Gegenbeispiele pro Stufe Die ersten Kaskadenstufen haben jeweils 1, 10, 25, 25 und 50 Features Insgesamt verwenden alle Stufen 6061 Features Im Durchschnitt müssen nur die ersten 10 Features ausgewertet werden Nein Ende Nein Ende Nein Ende Starker Klassifikator Nr. 1 ja Starker Klassifikator Nr. 2 ja Starker Klassifikator Nr. 3 ja

83 Hallo wach! Viola-Jones Bei einem Viola-Jones-Detektor werden in jeder Stufe genau 60% der Beispiele aussortiert. Insgesamt besteht der Detektor aus 5 Stufen. Die erste Stufe wertet 3 Features aus, die zweite 4, die dritte 5, die vierte 6 und die fünfte 7 Features. Wie viele Features müssen im Durchschnitt pro Beispiel ausgewertet werden?

84 Hallo wach! Viola-Jones Bei einem Viola-Jones-Detektor werden in jeder Stufe genau 60% der Beispiele aussortiert. Insgesamt besteht der Detektor aus 5 Stufen. Die erste Stufe wertet 3 Features aus, die zweite 4, die dritte 5, die vierte 6 und die fünfte 7 Features. Wie viele Features müssen im Durchschnitt pro Beispiel ausgewertet werden?

85 Hallo wach! Viola-Jones Wieso braucht man i.d.r. immer mehr Features in den späteren Kaskadenstufen als in den frühen?

86 Hallo wach! Viola-Jones Wieso braucht man i.d.r. immer mehr Features in den späteren Kaskadenstufen als in den frühen? Die Beispiele werden schwieriger. Hierdurch sind die einzelnen Features weniger aussagekräftig und das Klassifikationsproblem kann nur mit vielen schwachen Klassifikatoren gelöst werden.

87 Hallo wach! Viola-Jones Was geschieht (qualitativ) mit Recall und Precision des Detektors wenn man eine Kaskadenstufe hinten anhängt?

88 Hallo wach! Viola-Jones Was geschieht (qualitativ) mit Recall und Precision des Detektors wenn man eine Kaskadenstufe hinten anhängt? Der Recall sinkt oder bleibt bestenfalls gleich, da richtige Beispiele fälschlicherweise von der neuen Kaskadenstufe ausgeschlossen werden können. Über die Precision lässt sich keine Aussage machen. Die Erfahrung zeigt, dass sie gerade zu Anfang stark steigt, da viele Gegenbeispiele korrekterweise ausgeschlossen werden. In späteren Kaskadenstufen muss dies nicht mehr der Fall sein.

89 Viola-Jones - Zusammenfassung Kaskade erlaubt frühzeitiges Verwerfen offensichtlich falscher Hypothesen Berechnung der Haar-Features erlaubt schnelle Entscheidung über die meisten Detektionsfenster 40% der Fenster können nach Berechnung von 1-2 Haar-Features verworfen werden Training benötigt viele Beispiele Training benötigt viel Zeit, weil viele schwache Klassifikatoren durchprobiert werden müssen

90 Pro und Contra Viola-Jones Viola-Jones Einfache und schnelle Detektion von Objekten mit bestimmten Eigenschaften Relativ feste Geometrie Geringe perspektivische Veränderung Funktioniert daher gut mit z.b. Gesichtern Schriftzeichen Verkehrsschildern z.t. Fußgängern (aus der Ferne) Ausblick Detektion von beliebigen Objekten (teilweise ungelöst) Fahrzeuge (Perspektive, Geometrie, variable Erscheinung) Fußgängern (Geometrie, nichtrigide Objekte, variable Erscheinung, z.b. Kleidung, Pose) Pflanzen (Geometrie, variable Erscheinung)

91 Ausblick Ausblick Detektion von beliebigen Objekten (teilweise ungelöst) Fahrzeuge (Perspektive, Geometrie, variable Erscheinung) Fußgänger (Geometrie, nichtrigide Objekte, variable Erscheinung, z.b. Kleidung, Pose) Pflanzen (Geometrie, variable Erscheinung) Mit stärkeren Modellen teilweise maschinen-erlernbar Fahrzeugmodelle Skelett- und Gelenkmodelle Part-basierte Ansätze Verwende klassische Detektoren (z.b. Viola-Jones) zur Detektion von Teilen, des Objekts, für die die Einschränkungen (unbeweglich, kaum Perspektive) näherungsweise gelten und erstellt aus den Teilen eine Hypothese des Gesamtobjekts

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben Institut für Neuroinformatik Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem

Mehr

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches

Mehr

Seminar: Multi-Core Architectures and Programming. Viola-Jones Gesichtsdetektor

Seminar: Multi-Core Architectures and Programming. Viola-Jones Gesichtsdetektor Seminar: Multi-Core Architectures and Programming Viola-Jones Gesichtsdetektor Hardware-Software-Co-Design Universität Erlangen-Nürnberg 1 Übersicht Einleitung Viola-Jones Gesichtsdetektor Aufbau Blockmerkmale

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion

Mehr

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Computer Vision: AdaBoost D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Idee Gegeben sei eine Menge schwacher (einfacher, schlechter) Klassifikatoren Man bilde einen guten durch eine geschickte Kombination

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen

INTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

k-nächste-nachbarn-schätzung

k-nächste-nachbarn-schätzung k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Proseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung"

Proseminar Aufgabenstellungen der Bildanalyse und Mustererkennung Fakultät Informatik, Institut für künstliche Intelligenz, Intelligent Systems Proseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung" Lokale Merkmalsdeskriptoren Jens Stormberg - Dresden, 19.06.2009

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB

INTELLIGENTE DATENANALYSE IN MATLAB INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Sh Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und

Mehr

3. Analyse der Kamerabewegung Video - Inhaltsanalyse

3. Analyse der Kamerabewegung Video - Inhaltsanalyse 3. Analyse der Kamerabewegung Video - Inhaltsanalyse Stephan Kopf Bewegungen in Videos Objektbewegungen (object motion) Kameraoperationen bzw. Kamerabewegungen (camera motion) Semantische Informationen

Mehr

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume 4. Klassifikation Inhalt 4.1 Motivation 4.2 Evaluation 4.3 Logistische Regression 4.4 k-nächste Nachbarn 4.5 Naïve Bayes 4.6 Entscheidungsbäume 4.7 Support Vector Machines 4.8 Neuronale Netze 4.9 Ensemble-Methoden

Mehr

Linear nichtseparable Probleme

Linear nichtseparable Probleme Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Von schwachen zu starken Lernern

Von schwachen zu starken Lernern Von schwachen zu starken Lernern Wir nehmen an, dass ein schwacher Lernalgorithmus L mit vielen Beispielen, aber großem Fehler ε = 1 2 θ gegeben ist. - Wie lässt sich der Verallgemeinerungsfehler ε von

Mehr

Feature Selection / Preprocessing

Feature Selection / Preprocessing 1 Feature Selection / Preprocessing 2 Was ist Feature Selection? 3 Warum Feature Selection? Mehr Variablen führen nicht automatisch zu besseren Ergebnissen. Lernen von unwichtigen Daten Mehr Daten notwendig

Mehr

Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation

Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation Hochdimensionaler Eingaberaum {0,1} Z S quadratisch aufgemalt (zwecks besserer Visualisierung) als Retina bestehend

Mehr

Was bisher geschah. Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch

Was bisher geschah. Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch Was bisher geschah Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch Punktoperationen (Farbtransformation) f : col1 col

Mehr

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus 3. Klassifikation Motivation Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus Beispiel: Bestimme die Herkunft eines Autos

Mehr

Distributed Algorithms. Image and Video Processing

Distributed Algorithms. Image and Video Processing Chapter 6 Optical Character Recognition Distributed Algorithms for Übersicht Motivation Texterkennung in Bildern und Videos 1. Erkennung von Textregionen/Textzeilen 2. Segmentierung einzelner Buchstaben

Mehr

Projektionen für f r die Scanregistrierung mit Hilfe von Bildmerkmalen

Projektionen für f r die Scanregistrierung mit Hilfe von Bildmerkmalen Projektionen für f r die Scanregistrierung mit Hilfe von Bildmerkmalen Prof. Dr. Andreas Nüchter Jacobs University Bremen Campus Ring 1 28759 Bremen 1 Hintergrund (1) Automatisierung von terrestrischen

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Pareto optimale lineare Klassifikation

Pareto optimale lineare Klassifikation Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung

Mehr

Entscheidungsbäume aus großen Datenbanken: SLIQ

Entscheidungsbäume aus großen Datenbanken: SLIQ Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:

Mehr

6. Texterkennung in Videos Videoanalyse

6. Texterkennung in Videos Videoanalyse 6. Texterkennung in Videos Videoanalyse Dr. Stephan Kopf 1 Übersicht Motivation Texterkennung in Videos 1. Erkennung von Textregionen/Textzeilen 2. Segmentierung einzelner Buchstaben 3. Auswahl der Buchstabenpixel

Mehr

Automatic segmentation for dental operation planning. Diplomarbeit. Nguyen The Duy

Automatic segmentation for dental operation planning. Diplomarbeit. Nguyen The Duy Automatic segmentation for dental operation planning Diplomarbeit Nguyen The Duy 24.02.2012 Motivation Quelle: bestbudapestdentist.com Aufgabenstellung Segmentierung des Oberkiefers (Maxilla) Detektion

Mehr

Einführung in das Maschinelle Lernen I

Einführung in das Maschinelle Lernen I Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL

Mehr

Wie man dieses (Weg-)Integral berechnet, kann man sich mit der folgenden Merkregel im Kopf halten. Man schreibt d~r = d~r

Wie man dieses (Weg-)Integral berechnet, kann man sich mit der folgenden Merkregel im Kopf halten. Man schreibt d~r = d~r Vektoranalysis 3 Die Arbeit g Zum Einstieg eine kleine Veranschaulichung. Wir betrachten ein Flugzeug, das irgendeinen beliebigen Weg zurücklegt. Ausserdem seien gewisse Windverhältnisse gegeben, so dass

Mehr

Blatt 10 Lösungshinweise

Blatt 10 Lösungshinweise Lineare Algebra und Geometrie I SS 05 Akad. Rätin Dr. Cynthia Hog-Angeloni Dr. Anton Malevich Blatt 0 Lösungshinweise 0 0 Aufgabe 0. Es seien die Vektoren u =, v = und w = in R gegeben. a # Finden Sie

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 5. Juli 2011 Zunächst: PCA (Hauptkomponentenanalyse) ist eine mathematische Prozedur, die eine Anzahl von (möglicherweise korrelierten) Variablen

Mehr

Kamerabasierte Erkennung von Fußgängern in urbanen Verkehrsszenen

Kamerabasierte Erkennung von Fußgängern in urbanen Verkehrsszenen Kamerabasierte Erkennung von Fußgängern in urbanen Verkehrsszenen Vortragender: Studiengang: Betreuer: Yeyi Qiu Fahrzeugtechnik Prof. Dr. rer. nat. Toralf Trautmann M. Sc. Patrick Richter Seite 01 von

Mehr

Übungsblatt 7 - Voronoi Diagramme

Übungsblatt 7 - Voronoi Diagramme Karlsruher Institut für Technologie Algorithmische Geometrie Fakultät für Informatik Sommersemester 2012 ITI Wagner Martin Nöllenburg/Andreas Gemsa Übungsblatt 7 - Voronoi Diagramme 1 Voronoi-Zellen Sei

Mehr

Neue Ansätze für Mustererkennung und automatisches Lernen

Neue Ansätze für Mustererkennung und automatisches Lernen Z Y X Neue Ansätze für Mustererkennung und automatisches Lernen Vortrag im Rahmen des 2. Technologieforums Bildverarbeitung am 03./04. November 2015 Johannes Zügner STEMMER IMAGING GmbH, Puchheim GLIEDERUNG

Mehr

Lineare Klassifikatoren

Lineare Klassifikatoren Lineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 8 1 M. O. Franz 06.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht 1 Nächste-Nachbarn-

Mehr

Nichtlineare Klassifikatoren

Nichtlineare Klassifikatoren Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 7. Übungsblatt Aufgabe 1: Evaluierung und Kosten Gegeben sei ein Datensatz mit 300 Beispielen, davon 2 /3 positiv

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 9. Übungsblatt Aufgabe 1: Decision Trees Gegeben sei folgende Beispielmenge: Age Education Married Income Credit?

Mehr

How To Create A Panorama Image From A Photoelectric Image From An Image From The Camera (I)

How To Create A Panorama Image From A Photoelectric Image From An Image From The Camera (I) Chapter 3 Image Registration Distributed Algorithms for Einführung (I) Definition: Image Registration Gegeben: 2 Bilder der gleichen Szene aber aufgenommen aus unterschiedlichen Perspektiven Gesucht: Transformation,

Mehr

Support Vector Machines, Kernels

Support Vector Machines, Kernels Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 1. Übungsblatt Aufgabe 1: Anwendungsszenario Überlegen Sie sich ein neues Szenario des klassifizierenden Lernens (kein

Mehr

Vektorräume. Stefan Ruzika. 24. April Mathematisches Institut Universität Koblenz-Landau Campus Koblenz

Vektorräume. Stefan Ruzika. 24. April Mathematisches Institut Universität Koblenz-Landau Campus Koblenz Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 24. April 2016 Stefan Ruzika 3: Vektorräume 24. April 2016 1 / 20 Gliederung 1 Schulstoff 2 Körper 3 Vektorräume Erinnerung:

Mehr

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende

Mehr

Seminar Text- und Datamining Datamining-Grundlagen

Seminar Text- und Datamining Datamining-Grundlagen Seminar Text- und Datamining Datamining-Grundlagen Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 23.05.2013 Gliederung 1 Klassifikationsprobleme 2 Evaluation

Mehr

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren

Mehr

Voronoi-Diagramme. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK

Voronoi-Diagramme. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 29.05.2011 Das Postamt-Problem b(p, q) = {x R 2 : xp = xq } p q h(p, q) h(q, p) = {x :

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Was bisher geschah. digitale Bilder: Funktion B : pos col Matrix B col

Was bisher geschah. digitale Bilder: Funktion B : pos col Matrix B col Was bisher geschah digitale Bilder: Funktion B : pos col Matrix B col pos mit den Mengen pos von Positionen (Adressen) col von Farben, Intensitäten Aufgaben maschineller Bildverarbeitung: Erzeugung, Wiedergabe,

Mehr

Lineare Methoden zur Klassifizierung

Lineare Methoden zur Klassifizierung Lineare Methoden zur Klassifizierung Kapitel 3 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität

Mehr

Wie können Computer lernen?

Wie können Computer lernen? Wie können Computer lernen? Ringvorlesung Perspektiven der Informatik, 18.2.2008 Prof. Jun. Matthias Hein Department of Computer Science, Saarland University, Saarbrücken, Germany Inferenz I Wie lernen

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:

Mehr

Statistical Learning

Statistical Learning Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung

Mehr

Multivariate Pattern Analysis. Jan Mehnert, Christoph Korn

Multivariate Pattern Analysis. Jan Mehnert, Christoph Korn Multivariate Pattern Analysis Jan Mehnert, Christoph Korn Übersicht 1. Motivation 2. Features 3. Klassifizierung 4. Statistik 5. Annahmen & Design 6. Similarity 7. Beispiel Grenzen & Probleme der klassischen

Mehr

3. Analyse der Kamerabewegung Video - Inhaltsanalyse

3. Analyse der Kamerabewegung Video - Inhaltsanalyse 3. Analyse der Kamerabewegung Video - Inhaltsanalyse Stephan Kopf Bewegungen in Videos Objektbewegungen (object motion) Kameraoperationen bzw. Kamerabewegungen (camera motion) Semantische Informationen

Mehr

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3 Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 2.6.2015 1 von 33 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 33 Ausgangspunkt: Funktionsapproximation Die bisher

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik Technische Universität Dortmund 12.11.2013 1 von 39 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung

Mehr

Objekterkennung mit SIFT-Merkmalen

Objekterkennung mit SIFT-Merkmalen Hochschule für Angewandte Wissenschaften Hamburg 06. Januar 2010 Gliederung Problemstellung SIFT-Verfahren Merkmalsvergleich zur Identifikation von Gegenständen Zusammenfassung und Ausblick Problemstellung

Mehr

Suche nach korrespondierenden Pixeln

Suche nach korrespondierenden Pixeln Suche nach korrespondierenden Pixeln Seminar Algorithmen zur Erzeugung von Panoramabildern Philip Mildner, Gliederung 1. Motivation 2. Anforderungen 3. Moravec Detektor 4. Harris Detektor 5. Scale Invariant

Mehr

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation Überblick 4.1 Einleitung 4.2 Clustering 4.3 Klassifikation 1 Klassifikationsproblem Gegeben: eine Menge O D von Objekten o = (o 1,..., o d ) O mit Attributen A i, 1 i d eine Menge von Klassen C = {c 1,...,c

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2 Tom Schelthoff 30.11.2018 Inhaltsverzeichnis Deep Learning Seed-Stabilität Regularisierung Early Stopping Dropout Batch Normalization

Mehr

Kapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017

Kapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017 10.1 Sommersemester 2017 Problemstellung Welche Gerade? Gegeben sind folgende Messungen: Masse (kg) 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 Kraft (N) 1.6 2.2 3.2 3.0 4.9 5.7 7.1 7.3 8.1 Annahme: Es gibt eine Funktion

Mehr

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung 26.10.2016, TP 2: Arbeiten von A.R.T. TP2: Tracking und Umfelderkennung Markerloses Tracking texturierte Objekte Umfelderkennung

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Stützvektormethode Katharina Morik, Uwe Ligges 10.6.2010 1 von 40 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 2 von

Mehr

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta Multivariate Lineare Regression Christian Herta Oktober, 2013 1 von 34 Christian Herta Multivariate Lineare Regression Lernziele Multivariate Lineare Regression Konzepte des Maschinellen Lernens: Kostenfunktion

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften

Mehr

Maschinelles Lernen: Symbolische Ansätze. Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt

Maschinelles Lernen: Symbolische Ansätze. Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt Maschinelles Lernen: Symbolische Ansätze Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt 1 Aufgabe 1 Nearest Neighbour Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity

Mehr

Klassifikation und Ähnlichkeitssuche

Klassifikation und Ähnlichkeitssuche Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell

Mehr

Kapitel V. V. Ensemble Methods. Einführung Bagging Boosting Cascading

Kapitel V. V. Ensemble Methods. Einführung Bagging Boosting Cascading Kapitel V V. Ensemble Methods Einführung Bagging Boosting Cascading V-1 Ensemble Methods c Lettmann 2005 Einführung Bewertung der Generalisierungsfähigkeit von Klassifikatoren R (c) wahre Missklassifikationsrate

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Gliederung Vorlesung Wissensentdeckung Stützvektormethode 1 Hinführungen zur SVM Katharina Morik, Claus Weihs 26.5.2009 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 1 von 40 2 von

Mehr

Algorithmische Geometrie: Arrangements und

Algorithmische Geometrie: Arrangements und Algorithmische Geometrie: Arrangements und Dualität Nico Düvelmeyer WS 2009/2010, 19.1.2010 Überblick 1 Strahlenverfolgung und Diskrepanz 2 Dualität Dualitäts-Abbildung Transformation des Problems zur

Mehr

Segmentierung. Vorlesung FH-Hagenberg SEM

Segmentierung. Vorlesung FH-Hagenberg SEM Segmentierung Vorlesung FH-Hagenberg SEM Segmentierung: Definition Die Pixel eines Bildes A={a i }, i=1:n, mit N der Anzahl der Pixel, werden in Teilmengen S i unterteilt. Die Teilmengen sind disjunkt

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 3. Juli 2013 Übersicht 1 Ruf des Kleinspechts 2 Modell Vorgehen der

Mehr

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische

Mehr

Ferienkurse Mathematik Sommersemester 2009

Ferienkurse Mathematik Sommersemester 2009 Ferienkurse Mathematik Sommersemester 2009 Statistik: Grundlagen 1.Aufgabenblatt mit praktischen R-Aufgaben Aufgabe 1 Lesen Sie den Datensatz kid.weights aus dem Paket UsingR ein und lassen sie die Hilfeseite

Mehr

2. Schnitterkennung Video - Inhaltsanalyse

2. Schnitterkennung Video - Inhaltsanalyse 2. Schnitterkennung Video - Inhaltsanalyse Stephan Kopf Definition: Schnitt Schnitte (cut) liefern Informationen über den Produktionsprozess eines Filmes. trennen kontinuierliche Aufnahmen, die als Kameraeinstellungen

Mehr

Data Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt

Data Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt Data Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 1. Übungsblatt 1 1. Anwendungsszenario Überlegen

Mehr

Bivariater Zusammenhang in der Vierfeldertafel PEΣO

Bivariater Zusammenhang in der Vierfeldertafel PEΣO Bivariater Zusammenhang in der Vierfeldertafel PEΣO 12. Oktober 2001 Zusammenhang zweier Variablen und bivariate Häufigkeitsverteilung Die Bivariate Häufigkeitsverteilung gibt Auskunft darüber, wie zwei

Mehr

Implizite Modellierung zur Objekterkennung in der Fernerkundung

Implizite Modellierung zur Objekterkennung in der Fernerkundung Implizite Modellierung zur Objekterkennung in der Fernerkundung Mitarbeiterseminar 20.01.2011 (IPF) Fakultät für Bauingenieur-, Geo- und Umweltwissenschaften KIT Universität des Landes Baden-Württemberg

Mehr

10.5 Maximum-Likelihood Klassifikation (I)

10.5 Maximum-Likelihood Klassifikation (I) Klassifikation (I) Idee Für die Klassifikation sind wir interessiert an den bedingten Wahrscheinlichkeiten p(c i (x,y) D(x,y)). y Wenn man diese bedingten Wahrscheinlichkeiten kennt, dann ordnet man einem

Mehr

Kapitel 2: Mathematische Grundlagen

Kapitel 2: Mathematische Grundlagen [ Computeranimation ] Kapitel 2: Mathematische Grundlagen Prof. Dr. Stefan M. Grünvogel stefan.gruenvogel@fh-koeln.de Institut für Medien- und Phototechnik Fachhochschule Köln 2. Mathematische Grundlagen

Mehr

Einführung in die Theoretische Informatik

Einführung in die Theoretische Informatik Technische Universität München Fakultät für Informatik Prof. Tobias Nipkow, Ph.D. Sascha Böhme, Lars Noschinski Sommersemester 2011 Lösungsblatt 9 25. Juli 2011 Einführung in die Theoretische Informatik

Mehr

MERKMALSAUSWAHL ZUR OPTIMIERUNG VON PROGNOSEPROZESSEN

MERKMALSAUSWAHL ZUR OPTIMIERUNG VON PROGNOSEPROZESSEN Verteidigung der Bachelorarbeit MERKMALSAUSWAHL ZUR OPTIMIERUNG VON PROGNOSEPROZESSEN Von: Tom Fels 23.11.2015 Betreut durch: Prof. Dr.-Ing. Wolfgang Lehner Motivation Motivation PROGNOSEN Schätzung zukünftiger

Mehr

Projektgruppe. Clustering und Fingerprinting zur Erkennung von Ähnlichkeiten

Projektgruppe. Clustering und Fingerprinting zur Erkennung von Ähnlichkeiten Projektgruppe Jennifer Post Clustering und Fingerprinting zur Erkennung von Ähnlichkeiten 2. Juni 2010 Motivation Immer mehr Internet-Seiten Immer mehr digitale Texte Viele Inhalte ähnlich oder gleich

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

f(x) = x f 1 (x) = x. Aufgabe 2. Welche der folgenden Funktionen sind injektiv, surjektiv, bijektiv?

f(x) = x f 1 (x) = x. Aufgabe 2. Welche der folgenden Funktionen sind injektiv, surjektiv, bijektiv? Umkehrfunktionen Aufgabe 1. Sei A = {1, 2, 3, 4}. Definieren Sie eine bijektive Funktion f A A und geben Sie ihre Umkehrfunktion f 1 an. Lösung von Aufgabe 1. Zum Beispiel f, f 1 A A mit f(x) = x f 1 (x)

Mehr

EVC Repetitorium Blender

EVC Repetitorium Blender EVC Repetitorium Blender Michael Hecher Felix Kreuzer Institute of Computer Graphics and Algorithms Vienna University of Technology INSTITUTE OF COMPUTER GRAPHICS AND ALGORITHMS Filter Transformationen

Mehr

Signalentdeckungstheorie, Dichteschätzung

Signalentdeckungstheorie, Dichteschätzung Signalentdeckungstheorie, Dichteschätzung Mustererkennung und Klassifikation, Vorlesung No. 6 1 M. O. Franz 15.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001.

Mehr

Data Mining und Maschinelles Lernen

Data Mining und Maschinelles Lernen Data Mining und Maschinelles Lernen Wintersemester 2015/16 Musterlösung für das 7. Übungsblatt Aufgabe 1 Evaluierungsmethoden Ein Datenset enthält 2 n Beispiele, wobei genau n Beispiele positiv sind und

Mehr

Übersicht. Definition Daten Problemklassen Fehlerfunktionen

Übersicht. Definition Daten Problemklassen Fehlerfunktionen Übersicht 1 Maschinelle Lernverfahren Definition Daten Problemklassen Fehlerfunktionen 2 Entwickeln von maschinellen Lernverfahren Aufteilung der Daten Underfitting und Overfitting Erkennen Regularisierung

Mehr

Algorithmen und Komplexität Lösungsvorschlag zu Übungsblatt 8

Algorithmen und Komplexität Lösungsvorschlag zu Übungsblatt 8 ETH Zürich Institut für Theoretische Informatik Prof. Dr. Angelika Steger Florian Meier, Ralph Keusch HS 2017 Algorithmen und Komplexität Lösungsvorschlag zu Übungsblatt 8 Lösungsvorschlag zu Aufgabe 1

Mehr