Vorlesung Digitale Bildverarbeitung Sommersemester 2013
|
|
- Johann Beyer
- vor 7 Jahren
- Abrufe
Transkript
1 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben Institut für Neuroinformatik
2 Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches K-Nearest-Neighbour-Klassifizierer (KNN) Linear Discriminant Analysis (LDA)
3 Was ist ein Klassifikator? Im Rahmen dieser Vorlesung behandeln wir nur binäre Klassifikation, Label = 0 / 1 Training (Daten, Label) Klassifikator Test (Daten,?) Vorfahrt achten / Fahrtrichtichtung links / Gefahr Baustelle Gesicht / kein Gesicht Heimmannschaft / Auswärtsmannschaft / Torwart / Schiedsrichter
4 Feature-Räume Zu klassifizierende Beispiele werden durch Charakteristika (Features) beschrieben Diese lassen sich durch Punkte in einem Vektorraum abstrahieren Wir betrachten bis auf Weiteres nur binäre Klassifikation (genau zwei Klassen)
5 K-Nearest-Neighbour Merke Dir alle Beispiele aus dem Training Gib beim Test die Klasse DER MEHRHEIT DER K TRAININGSBEISPIELE zurück, die am nächsten zum betrachteten liegen
6 Linear Discriminant Analysis (LDA) Idee: Stelle Menge der Beispiele einer Klasse durch parametrisierte Verteilung dar Mehrdimensionale Normalverteilung ist parametrisiert durch Mittelwert und Kovarianzmatrix
7 Linear Discriminant Analysis (LDA) Mathematische Einfachheit durch Annahme gleicher Kovarianz Es existiert dann eine Trennebene
8 Einfaches Beispiel Training
9 Dimension des Feature-Raums Dimension => Komplexität des Klassifikators Komplexität vs. Generalisierung Trainings-Performance vs. Test-Performance Um in einem Feature-Raum hoher Dimension zu lernen, benötigt man viele Trainings- Beispiele.
10 Feature Extractor Bilder sind komplexe, hochdimensionale Datenstrukturen Feature Extractor Reduziert die Feature-Dimension Implementiert Vorwissen Feature Extractor Vorfahrt / Links abbiegen Klassifikator Gesicht / Kein Gesicht Heim / Auswärts
11 Haar(-like) Feature Ähnlich zu den Haar-Wavelets (daher der Name) Gesichtsdetektion (2001) Heute in genereller Objektdetektion einsetzbar
12 Feature Selection Problem: Welche Features (z.b. Haar-Features) sind wichtig für mein Klassifikationsproblem? Zwei Features können abhängig sein, d.h., wenn man das eine Feature kennt, hat das andere weniger Information für die Klassifikation Beispiel: Klassifikation von Männern und Frauen Größe und Gewicht korrelieren stark, daher braucht man von diesen Merkmalen nur eines zu nehmen Zwei Features können einzeln wenig Information enthalten, zusammen aber viel Hüft- und Taillenumfang können allein nicht stark zur Klassifikation von Männern und Frauen beitragen, erst ihr Verhältnis liefert wichtige Information
13 Feature Selection Problem: Welche Features (z.b. Haar-Features) sind wichtig für mein Klassifikationsproblem? Zwei Features können abhängig sein, d.h., wenn man das eine Feature kennt, hat das andere weniger Information für die Klassifikation Zwei Features können einzeln wenig Information enthalten, zusammen aber viel. Theoretisch müssen alle Kombinationen von Features durchprobiert werden Aufwand: Um k Features aus n auszuwählen, müsste man theoretisch auf Feature-Mengen trainieren und testen
14 Feature Selection Problem: Welche Features (z.b. Haar-Features) sind wichtig für mein Klassifikationsproblem? Ansätze zur Lösung dieses Problems werden später eingeführt
15 Haar(-like) Feature Vorteile: Schnell (sehr schnell) Skalierbarkeit (für größere Bilder kann man die Feature entsprechend skalieren, ohne zusätzlichen Rechenaufwand) Nachteile: nicht so aussagekräftig
16 Histogram of Oriented Gradients (HOG) Dalal & Triggs 2005 Zuerst bei Fußgängererkennung verwendet Lokale Gradientenverteilung
17 HOG - Methodik Unterteile Bildausschnitt in Zellen (Cells)
18 HOG - Methodik Berechne Gradientenbilder horizontal und vertikal
19 HOG - Methodik Unterteile Bildausschnitt in Zellen Berechne Orientierungshistogramme
20 HOG - Methodik Unterteile Bildausschnitt in Zellen Berechne Orientierungshistogramme Orientierung des Gradientenpixels bestimmt den Balken (das Bin) Betrag des Gradientenpixels bestimmt das Gewicht
21 HOG - Methodik Unterteile Bildausschnitt in Zellen Fasse mehrere benachbarte Zellen in Blöcke zusammen Idee: Setze lokale Gradientenverteilung in Relation zu einer größeren Umgebung
22 HOG - Methodik Unterteile Bildausschnitt in Zellen Fasse mehrere Zellen in Blöcke zusammen Eine Zelle wird i.d.r. von mehreren Blöcken überlappt
23 HOG - Methodik Unterteile Bildausschnitt in Zellen Fasse mehrere Zellen in Blöcke zusammen Eine Zelle wird i.d.r. von mehreren Blöcken überlappt
24 HOG - Methodik Unterteile Bildausschnitt in Zellen Fasse mehrere Zellen in Blöcke zusammen Eine Zelle wird i.d.r. von mehreren Blöcken überlappt
25 HOG - Methodik Unterteile Bildausschnitt in Zellen Fasse mehrere Zellen in Blöcke zusammen Eine Zelle wird i.d.r. von mehreren Blöcken überlappt Normiere die Histogramme mit der Summe der Gewichte aller Gradienten im Block
26 HOG - Methodik
27 HOG - Methodik
28 HOG - Hallo, wach! Wie viele Einträge hat ein Feature-Vektor eines Bildausschnitts der Größe 35 x 65, auf dem HOG-Features mit 9 Bins pro Histogramm, 8 x 8 Pixel Zellgröße und 2 x 2 Blocks gerechnet werden?
29 HOG - Hallo, wach! Wie viele Einträge hat ein Feature-Vektor eines Bildausschnitts der Größe 35 x 65, auf dem HOG-Features mit 9 Bins pro Histogramm, 8 x 8 Pixel Zellgröße und 2 x 2 Blocks gerechnet werden? (gehen Sie davon aus, dass die Zellen am Rand des Bildes, die nicht von 4 Blocks überdeckt werden können für die Berechnung ignoriert werden)
30 Hallo, wach! Wie viele Einträge hat ein Feature-Vektor eines Bildausschnitts der Größe 35 x 65, auf dem HOG-Features mit 9 Bins pro Histogramm, 8 x 8 Pixel Zellgröße und 2 x 2 Blocks gerechnet werden? (gehen Sie davon aus, dass die Zellen am Rand des Bildes, die nicht von 4 Blocks überdeckt werden können für die Berechnung ignoriert werden)
31 HOG - German Traffic Sign Recognition Benchmark 50,000 Bildausschnitte 43 Klassen IJCNN loss
32 HOG - German Traffic Sign Detection Benchmark 600 Einzelbilder IJCNN 2013 Area-Under-Curve
33 HOG - German Traffic Sign Detection Benchmark 600 Einzelbilder IJCNN 2013 Area-Under-Curve
34 HOG - German Traffic Sign Detection Benchmark 600 Einzelbilder IJCNN 2013 Area-Under-Curve
35 HOG - Interpolation Trilineare Interpolation: das Gewicht eines Gradientenpixels wird auf die angrenzenden Zellen und Bins verteilt
36 HOG - Interpolation Trilineare Interpolation: das Gewicht eines Gradientenpixels wird auf die angrenzenden Zellen und Bins verteilt A 1 A 2 A 3 A 4 Jede Zelle erhält für sein Histogramm den Betrag des Gradientenpixels gewichtet mit der Fläche des ihm gegenüber liegenden Rechtecks
37 HOG - Interpolation Trilineare Interpolation: das Gewicht eines Gradientenpixels wird auf die angrenzenden Zellen und Bins verteilt A 1 A 2 A 3 A 4 Jede Zelle erhält für sein Histogramm den Betrag des Gradientenpixels gewichtet mit der Fläche des ihm gegenüber liegenden Rechtecks (z.b. oben links)
38 HOG - Interpolation Trilineare Interpolation: das Gewicht eines Gradientenpixels wird auf die angrenzenden Zellen und Bins verteilt: w 1 w 2
39 HOG - Interpolation Trilineare Interpolation: das Gewicht eines Gradientenpixels wird auf die angrenzenden Zellen und Bins verteilt Trilineare Interpolation (= bilineare Interpolation zwischen angrenzenden Zellen + lineare Interpolation zwischen angrenzenden Bins) erhöht die Performance der HOG-Features In laufzeitkritischen Anwendungen kann sie vernachlässigt werden w 1 w 2
40 HOG Farbe HOG-Features können für jeden Farbkanal (R, G,B) einzeln berechnet werden (dies verdreifacht die Dimension des Feature- Vektors) R G B
41 HOG Pro und Contra Was sind Vor- und Nachteile der HOG-Features? PRO: gute Ergebnisse PRO: relativ einfaches Verfahren CON: langsam (verglichen z.b. mit Haar-Features) CON: viele Parameter (Binzahl, Zellgröße, Blockgröße) CON: Ergebnis hängt stark von der Wahl der Parameter ab
42 Rückblick Handwerkzeug um Bildausschnitte binär (!) zu klassifizieren Haar(-like)-Features, HOG-Features K-Nearest-Neughbour, LDA Feature Extractor Klassifikator Vorfahrt / Gefahr Baustelle Gesicht / kein Gesicht Heim / Auswärts
43 Detektion: Sliding-Window Klassifikation: Ordne Bildausschnitte ein Detektion: Finde Objekte von Interesse in größeren Bildern (z.b.) suche Stoppschilder in Kamerabildern
44 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)
45 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)
46 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)
47 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)
48 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)
49 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)
50 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)
51 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)
52 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)
53 Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem zu findenden Objekt und Gegenbeispielen Wende den Klassifikator auf alle möglichen Bildausschnitte des Kamerabildes an Dies umfasst alle Positionen, Größen (und ev. Rotationen)
54 Detektion Welche Fehler kann ein Detektor machen? Er findet ein Objekt, wo keines ist. (Falsch positiv, FP) Er findet kein Objekt, wo eines ist. (Falsch negativ, FN) Bewertung über zwei Kenngrößen (TP = richtig erkannte Objekte) Verschiedene Einstellungen (Empfindlichkeit) des Detektors können verschiedene Precision-Recall-Wertepaare ergeben
55 Detektion Verschiedene Einstellungen (Empfindlichkeit) des Detektors können verschiedene Precision-Recall-Wertepaare ergeben
56 AdaBoost Verwende viele einfache ( schwache ) Klassifikatoren, um einen sehr guten Klassifikator zu konstruieren AdaBoost kann auch für Feature-Selection verwendet werden Einfachster denkbarer Klassifikator:
57 AdaBoost Verwende viele einfache ( schwache ) Klassifikatoren, um einen sehr guten Klassifikator zu konstruieren AdaBoost kann auch für Feature-Selection verwendet werden Einfachster denkbarer Klassifikator: Linearer Klassifikator im 1D-Featureraum (Schwellwert auf einem Skalar)
58 AdaBoost Idee 1: Baue den starken Klassifikator schrittweise auf, indem man den schwachen Klassifikator dazunimmt, der im aktuellen Schritt am wertvollsten ist. Idee 2: Gebe jedem Trainingsbeispiel ein Wichtigkeit. Falls das Beispiel vom aktuellen Klassifikator richtig klassifiziert wird, senke sein Gewicht. Falls das Beispiel vom aktuellen Klassifikator falsch klassifiziert wird, erhöhe sein Gewicht. D.h. schwache Klassifikatoren, die aktuell falsch klassifizierte Beispiele richtig klassifizieren, werden wertvoller. Idee 3: Bilde (irgendwie) eine Linearkombination der schwachen Klassifikatoren, um den starken Klassifikator zu konstruieren.
59 AdaBoost Pseudocode Gegeben: Trainingsdaten mit Gewichten und Schwache Klassifikatoren Initialisiere: Wiederhole: 1,..., T die m positiven Trainingsbeispiele die l negativen Trainingsbeispiele Normalisiere Gewichte Trainiere alle Klassifikatoren, so dass der gewichteten Trainingsfehler Merke als schwachen Klassifikator mit minimalem Trainingsfehler minimiert wird
60 AdaBoost Pseudocode Gegeben: Trainingsdaten mit Gewichten und Schwache Klassifikatoren Wiederhole: t = 1,..., T Normalisiere Gewichte Trainiere alle Klassifikatoren, so dass der gewichteten Trainingsfehler Merke als schwachen Klassifikator mit minimalem Trainingsfehler Aktualisiere Gewichte für richtig klassifizierte Beispiele Merke Starker Klassifikator: minimiert wird
61 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature
62 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature
63 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature Feature 1 Feature 2 Feature 3
64 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature Feature 1 Fehler: 0,0515 Feature 2 Fehler: 0,039 Feature 3 Fehler: 0,09
65 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature 1,231 1,5219 0,9658 Feature 1 Fehler: 0,0515 Feature 2 Fehler: 0,039 Feature 3 Fehler: 0,09
66 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature Fehler: Neue Trainings-Gewichte: 1,5219 Normieren. Klassifikator-Gewicht: Feature 2 Aktueller starker Klassifikator: Fehler: 0,039
67 AdaBoost Beispiel Aktueller starker Klassifikator:
68 AdaBoost - Beispiel Verbleiben zwei weitere schwache Klassifikatoren Feature 1 Feature 3
69 AdaBoost - Beispiel Verbleiben zwei weitere schwache Klassifikatoren Neue Gewichte! Feature 1 Feature 3
70 AdaBoost - Beispiel Verbleiben zwei weitere schwache Klassifikatoren Neue Gewichte! 1,7577 1,2499 Feature 1 Fehler: 0,0848 Feature 3 Fehler: 0,1523
71 AdaBoost - Beispiel Verbleiben zwei weitere schwache Klassifikatoren Neue Gewichte! 1,7577 1,2499 Feature 1 Fehler: 0,0848 Feature 3 Fehler: 0,1523
72 AdaBoost - Beispiel Gegeben sei folgendes Klassifikationsbeispiel Schwache Klassifikatoren sind 1D-Schwellwerte für jedes Feature Fehler: Neue Trainings-Gewichte: 1,7577 Normieren. Klassifikator-Gewicht: Feature 1 Aktueller starker Klassifikator: Fehler: 0,0848
73 AdaBoost Beispiel Aktueller starker Klassifikator:
74 AdaBoost Beispiel Aktueller starker Klassifikator: Warum sind die Ergebnisse gleich? Vorheriger Klassifikator Aktueller Klassifikator
75 AdaBoost - Beispiel Verbleibt ein weiterer schwacher Klassifikator Neue Gewichte! Feature 3 Fehler: 0,0818
76 AdaBoost Beispiel Aktueller starker Klassifikator: Vorheriger Klassifikator (Fehler: 7,8 %) Aktueller Klassifikator (Fehler: 4,6 %)
77 Viola-Jones-Detektor Schwacher Klassifikator: Schwellwert für ein Haar-Feature Menge der Klassifikatoren: Ein Klassifikator für jedes Haar-Feature (Position, Größe, Art)
78 Viola-Jones Bei vielen Bildausschnitten kann man schnell (d.h. mit wenigen Features) entscheiden, ob es sich um die relevante Klasse (hier: Gesicht) handelt An diesen einfachen Beispielen sollte man keine Zeit verschwenden Reihenschaltung von mehreren AdaBoost-trainierten Klassifikatoren Jeder starke Klassifikator besteht nur aus wenigen Features Nein Ende Nein Ende Nein Ende Starker Klassifikator Nr. 1 ja Starker Klassifikator Nr. 2 ja Starker Klassifikator Nr. 3 ja
79 Viola-Jones Reihenschaltung von mehreren AdaBoost-trainierten Klassifikatoren Jeder starke Klassifikator besteht nur aus wenigen Features Wähle die Schwelle des starken Klassifikators so, dass ein hoher Recall (z.b. 99%) entsteht Dies verursacht i.d.r. auch eine hohe Precision (z.b. 40 %) Nein Ende Nein Ende Nein Ende Starker Klassifikator Nr. 1 ja Starker Klassifikator Nr. 2 ja Starker Klassifikator Nr. 3 ja
80 Viola-Jones Wähle die Schwelle des starken Klassifikators so, dass ein hoher Recall (z.b. 99%) entsteht Dies verursacht i.d.r. auch eine hohe Precision (z.b. 40 %) Somit werden in der ersten Stufe z.b. 60% der falschen Beispiele aussortiert Nein Ende Nein Ende Starker Klassifikator Nr. 1 ja Starker Klassifikator Nr. 2 ja Starker Klassifikator Nr. 3 Nein Ende ja
81 Viola-Jones Somit werden in der ersten Stufe z.b. 60% der falschen Beispiele aussortiert Die verbleibenden Beispiele sind schwerer und benötigen weitere Klassifikatoren Nimm beim AdaBoost-Training so lange neue Features hinzu, bis die Recall-Precision- Anforderungen eintreten Eventuell ist dies nicht möglich (z.b. wenn der Recall zu hoch gewählt ist)! Trainiere spätere Stufe nur auf Beispielen, die alle bisherigen Stufen als relevant klassifiziert haben Nein Ende Nein Ende Nein Ende Starker Klassifikator Nr. 1 ja Starker Klassifikator Nr. 2 ja Starker Klassifikator Nr. 3 ja
82 Viola-Jones Original-Paper 38 Kaskadenstufe 4916 Gesichtsbeispiele Gegenbeispiele pro Stufe Die ersten Kaskadenstufen haben jeweils 1, 10, 25, 25 und 50 Features Insgesamt verwenden alle Stufen 6061 Features Im Durchschnitt müssen nur die ersten 10 Features ausgewertet werden Nein Ende Nein Ende Nein Ende Starker Klassifikator Nr. 1 ja Starker Klassifikator Nr. 2 ja Starker Klassifikator Nr. 3 ja
83 Hallo wach! Viola-Jones Bei einem Viola-Jones-Detektor werden in jeder Stufe genau 60% der Beispiele aussortiert. Insgesamt besteht der Detektor aus 5 Stufen. Die erste Stufe wertet 3 Features aus, die zweite 4, die dritte 5, die vierte 6 und die fünfte 7 Features. Wie viele Features müssen im Durchschnitt pro Beispiel ausgewertet werden?
84 Hallo wach! Viola-Jones Bei einem Viola-Jones-Detektor werden in jeder Stufe genau 60% der Beispiele aussortiert. Insgesamt besteht der Detektor aus 5 Stufen. Die erste Stufe wertet 3 Features aus, die zweite 4, die dritte 5, die vierte 6 und die fünfte 7 Features. Wie viele Features müssen im Durchschnitt pro Beispiel ausgewertet werden?
85 Hallo wach! Viola-Jones Wieso braucht man i.d.r. immer mehr Features in den späteren Kaskadenstufen als in den frühen?
86 Hallo wach! Viola-Jones Wieso braucht man i.d.r. immer mehr Features in den späteren Kaskadenstufen als in den frühen? Die Beispiele werden schwieriger. Hierdurch sind die einzelnen Features weniger aussagekräftig und das Klassifikationsproblem kann nur mit vielen schwachen Klassifikatoren gelöst werden.
87 Hallo wach! Viola-Jones Was geschieht (qualitativ) mit Recall und Precision des Detektors wenn man eine Kaskadenstufe hinten anhängt?
88 Hallo wach! Viola-Jones Was geschieht (qualitativ) mit Recall und Precision des Detektors wenn man eine Kaskadenstufe hinten anhängt? Der Recall sinkt oder bleibt bestenfalls gleich, da richtige Beispiele fälschlicherweise von der neuen Kaskadenstufe ausgeschlossen werden können. Über die Precision lässt sich keine Aussage machen. Die Erfahrung zeigt, dass sie gerade zu Anfang stark steigt, da viele Gegenbeispiele korrekterweise ausgeschlossen werden. In späteren Kaskadenstufen muss dies nicht mehr der Fall sein.
89 Viola-Jones - Zusammenfassung Kaskade erlaubt frühzeitiges Verwerfen offensichtlich falscher Hypothesen Berechnung der Haar-Features erlaubt schnelle Entscheidung über die meisten Detektionsfenster 40% der Fenster können nach Berechnung von 1-2 Haar-Features verworfen werden Training benötigt viele Beispiele Training benötigt viel Zeit, weil viele schwache Klassifikatoren durchprobiert werden müssen
90 Pro und Contra Viola-Jones Viola-Jones Einfache und schnelle Detektion von Objekten mit bestimmten Eigenschaften Relativ feste Geometrie Geringe perspektivische Veränderung Funktioniert daher gut mit z.b. Gesichtern Schriftzeichen Verkehrsschildern z.t. Fußgängern (aus der Ferne) Ausblick Detektion von beliebigen Objekten (teilweise ungelöst) Fahrzeuge (Perspektive, Geometrie, variable Erscheinung) Fußgängern (Geometrie, nichtrigide Objekte, variable Erscheinung, z.b. Kleidung, Pose) Pflanzen (Geometrie, variable Erscheinung)
91 Ausblick Ausblick Detektion von beliebigen Objekten (teilweise ungelöst) Fahrzeuge (Perspektive, Geometrie, variable Erscheinung) Fußgänger (Geometrie, nichtrigide Objekte, variable Erscheinung, z.b. Kleidung, Pose) Pflanzen (Geometrie, variable Erscheinung) Mit stärkeren Modellen teilweise maschinen-erlernbar Fahrzeugmodelle Skelett- und Gelenkmodelle Part-basierte Ansätze Verwende klassische Detektoren (z.b. Viola-Jones) zur Detektion von Teilen, des Objekts, für die die Einschränkungen (unbeweglich, kaum Perspektive) näherungsweise gelten und erstellt aus den Teilen eine Hypothese des Gesamtobjekts
Vorlesung Digitale Bildverarbeitung Sommersemester 2013
Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben Institut für Neuroinformatik Sliding-Window Idee: Trainiere einen binären Klassifikator mit zwei Klassen von Bildausschnitten: dem
MehrVorlesung Digitale Bildverarbeitung Sommersemester 2013
Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches
MehrSeminar: Multi-Core Architectures and Programming. Viola-Jones Gesichtsdetektor
Seminar: Multi-Core Architectures and Programming Viola-Jones Gesichtsdetektor Hardware-Software-Co-Design Universität Erlangen-Nürnberg 1 Übersicht Einleitung Viola-Jones Gesichtsdetektor Aufbau Blockmerkmale
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion
MehrComputer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10
Computer Vision: AdaBoost D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Idee Gegeben sei eine Menge schwacher (einfacher, schlechter) Klassifikatoren Man bilde einen guten durch eine geschickte Kombination
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Evaluation & Exploitation von Modellen
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und Selektion
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
Mehrk-nächste-nachbarn-schätzung
k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrProseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung"
Fakultät Informatik, Institut für künstliche Intelligenz, Intelligent Systems Proseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung" Lokale Merkmalsdeskriptoren Jens Stormberg - Dresden, 19.06.2009
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Evaluation & Exploitation von Modellen Überblick Sh Schritte der Datenanalyse: Datenvorverarbeitung Problemanalyse Problemlösung Anwendung der Lösung Aggregation und
Mehr3. Analyse der Kamerabewegung Video - Inhaltsanalyse
3. Analyse der Kamerabewegung Video - Inhaltsanalyse Stephan Kopf Bewegungen in Videos Objektbewegungen (object motion) Kameraoperationen bzw. Kamerabewegungen (camera motion) Semantische Informationen
MehrInhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume
4. Klassifikation Inhalt 4.1 Motivation 4.2 Evaluation 4.3 Logistische Regression 4.4 k-nächste Nachbarn 4.5 Naïve Bayes 4.6 Entscheidungsbäume 4.7 Support Vector Machines 4.8 Neuronale Netze 4.9 Ensemble-Methoden
MehrLinear nichtseparable Probleme
Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrVon schwachen zu starken Lernern
Von schwachen zu starken Lernern Wir nehmen an, dass ein schwacher Lernalgorithmus L mit vielen Beispielen, aber großem Fehler ε = 1 2 θ gegeben ist. - Wie lässt sich der Verallgemeinerungsfehler ε von
MehrFeature Selection / Preprocessing
1 Feature Selection / Preprocessing 2 Was ist Feature Selection? 3 Warum Feature Selection? Mehr Variablen führen nicht automatisch zu besseren Ergebnissen. Lernen von unwichtigen Daten Mehr Daten notwendig
MehrDas Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation
Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation Hochdimensionaler Eingaberaum {0,1} Z S quadratisch aufgemalt (zwecks besserer Visualisierung) als Retina bestehend
MehrWas bisher geschah. Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch
Was bisher geschah Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch Punktoperationen (Farbtransformation) f : col1 col
MehrMotivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus
3. Klassifikation Motivation Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus Beispiel: Bestimme die Herkunft eines Autos
MehrDistributed Algorithms. Image and Video Processing
Chapter 6 Optical Character Recognition Distributed Algorithms for Übersicht Motivation Texterkennung in Bildern und Videos 1. Erkennung von Textregionen/Textzeilen 2. Segmentierung einzelner Buchstaben
MehrProjektionen für f r die Scanregistrierung mit Hilfe von Bildmerkmalen
Projektionen für f r die Scanregistrierung mit Hilfe von Bildmerkmalen Prof. Dr. Andreas Nüchter Jacobs University Bremen Campus Ring 1 28759 Bremen 1 Hintergrund (1) Automatisierung von terrestrischen
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrPareto optimale lineare Klassifikation
Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung
MehrEntscheidungsbäume aus großen Datenbanken: SLIQ
Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:
Mehr6. Texterkennung in Videos Videoanalyse
6. Texterkennung in Videos Videoanalyse Dr. Stephan Kopf 1 Übersicht Motivation Texterkennung in Videos 1. Erkennung von Textregionen/Textzeilen 2. Segmentierung einzelner Buchstaben 3. Auswahl der Buchstabenpixel
MehrAutomatic segmentation for dental operation planning. Diplomarbeit. Nguyen The Duy
Automatic segmentation for dental operation planning Diplomarbeit Nguyen The Duy 24.02.2012 Motivation Quelle: bestbudapestdentist.com Aufgabenstellung Segmentierung des Oberkiefers (Maxilla) Detektion
MehrEinführung in das Maschinelle Lernen I
Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL
MehrWie man dieses (Weg-)Integral berechnet, kann man sich mit der folgenden Merkregel im Kopf halten. Man schreibt d~r = d~r
Vektoranalysis 3 Die Arbeit g Zum Einstieg eine kleine Veranschaulichung. Wir betrachten ein Flugzeug, das irgendeinen beliebigen Weg zurücklegt. Ausserdem seien gewisse Windverhältnisse gegeben, so dass
MehrBlatt 10 Lösungshinweise
Lineare Algebra und Geometrie I SS 05 Akad. Rätin Dr. Cynthia Hog-Angeloni Dr. Anton Malevich Blatt 0 Lösungshinweise 0 0 Aufgabe 0. Es seien die Vektoren u =, v = und w = in R gegeben. a # Finden Sie
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 5. Juli 2011 Zunächst: PCA (Hauptkomponentenanalyse) ist eine mathematische Prozedur, die eine Anzahl von (möglicherweise korrelierten) Variablen
MehrKamerabasierte Erkennung von Fußgängern in urbanen Verkehrsszenen
Kamerabasierte Erkennung von Fußgängern in urbanen Verkehrsszenen Vortragender: Studiengang: Betreuer: Yeyi Qiu Fahrzeugtechnik Prof. Dr. rer. nat. Toralf Trautmann M. Sc. Patrick Richter Seite 01 von
MehrÜbungsblatt 7 - Voronoi Diagramme
Karlsruher Institut für Technologie Algorithmische Geometrie Fakultät für Informatik Sommersemester 2012 ITI Wagner Martin Nöllenburg/Andreas Gemsa Übungsblatt 7 - Voronoi Diagramme 1 Voronoi-Zellen Sei
MehrNeue Ansätze für Mustererkennung und automatisches Lernen
Z Y X Neue Ansätze für Mustererkennung und automatisches Lernen Vortrag im Rahmen des 2. Technologieforums Bildverarbeitung am 03./04. November 2015 Johannes Zügner STEMMER IMAGING GmbH, Puchheim GLIEDERUNG
MehrLineare Klassifikatoren
Lineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 8 1 M. O. Franz 06.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht 1 Nächste-Nachbarn-
MehrNichtlineare Klassifikatoren
Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 7. Übungsblatt Aufgabe 1: Evaluierung und Kosten Gegeben sei ein Datensatz mit 300 Beispielen, davon 2 /3 positiv
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 9. Übungsblatt Aufgabe 1: Decision Trees Gegeben sei folgende Beispielmenge: Age Education Married Income Credit?
MehrHow To Create A Panorama Image From A Photoelectric Image From An Image From The Camera (I)
Chapter 3 Image Registration Distributed Algorithms for Einführung (I) Definition: Image Registration Gegeben: 2 Bilder der gleichen Szene aber aufgenommen aus unterschiedlichen Perspektiven Gesucht: Transformation,
MehrSupport Vector Machines, Kernels
Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 1. Übungsblatt Aufgabe 1: Anwendungsszenario Überlegen Sie sich ein neues Szenario des klassifizierenden Lernens (kein
MehrVektorräume. Stefan Ruzika. 24. April Mathematisches Institut Universität Koblenz-Landau Campus Koblenz
Stefan Ruzika Mathematisches Institut Universität Koblenz-Landau Campus Koblenz 24. April 2016 Stefan Ruzika 3: Vektorräume 24. April 2016 1 / 20 Gliederung 1 Schulstoff 2 Körper 3 Vektorräume Erinnerung:
MehrLösungen zur Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende
MehrSeminar Text- und Datamining Datamining-Grundlagen
Seminar Text- und Datamining Datamining-Grundlagen Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 23.05.2013 Gliederung 1 Klassifikationsprobleme 2 Evaluation
MehrGibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells
Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren
MehrVoronoi-Diagramme. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK
Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 29.05.2011 Das Postamt-Problem b(p, q) = {x R 2 : xp = xq } p q h(p, q) h(q, p) = {x :
MehrWir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)
6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese
MehrWas bisher geschah. digitale Bilder: Funktion B : pos col Matrix B col
Was bisher geschah digitale Bilder: Funktion B : pos col Matrix B col pos mit den Mengen pos von Positionen (Adressen) col von Farben, Intensitäten Aufgaben maschineller Bildverarbeitung: Erzeugung, Wiedergabe,
MehrLineare Methoden zur Klassifizierung
Lineare Methoden zur Klassifizierung Kapitel 3 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität
MehrWie können Computer lernen?
Wie können Computer lernen? Ringvorlesung Perspektiven der Informatik, 18.2.2008 Prof. Jun. Matthias Hein Department of Computer Science, Saarland University, Saarbrücken, Germany Inferenz I Wie lernen
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:
MehrStatistical Learning
Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in
Mehr5 Eigenwerte und die Jordansche Normalform
Mathematik für Ingenieure II, SS 9 Freitag 6 $Id: jordantex,v 7 9/6/ :8:5 hk Exp $ 5 Eigenwerte und die Jordansche Normalform 5 Die Jordansche Normalform Nachdem wir bisher das Vorgehen zur Berechnung
MehrMultivariate Pattern Analysis. Jan Mehnert, Christoph Korn
Multivariate Pattern Analysis Jan Mehnert, Christoph Korn Übersicht 1. Motivation 2. Features 3. Klassifizierung 4. Statistik 5. Annahmen & Design 6. Similarity 7. Beispiel Grenzen & Probleme der klassischen
Mehr3. Analyse der Kamerabewegung Video - Inhaltsanalyse
3. Analyse der Kamerabewegung Video - Inhaltsanalyse Stephan Kopf Bewegungen in Videos Objektbewegungen (object motion) Kameraoperationen bzw. Kamerabewegungen (camera motion) Semantische Informationen
Mehr1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3
Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 2.6.2015 1 von 33 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 33 Ausgangspunkt: Funktionsapproximation Die bisher
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik Technische Universität Dortmund 12.11.2013 1 von 39 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung
MehrObjekterkennung mit SIFT-Merkmalen
Hochschule für Angewandte Wissenschaften Hamburg 06. Januar 2010 Gliederung Problemstellung SIFT-Verfahren Merkmalsvergleich zur Identifikation von Gegenständen Zusammenfassung und Ausblick Problemstellung
MehrSuche nach korrespondierenden Pixeln
Suche nach korrespondierenden Pixeln Seminar Algorithmen zur Erzeugung von Panoramabildern Philip Mildner, Gliederung 1. Motivation 2. Anforderungen 3. Moravec Detektor 4. Harris Detektor 5. Scale Invariant
MehrKapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation
Überblick 4.1 Einleitung 4.2 Clustering 4.3 Klassifikation 1 Klassifikationsproblem Gegeben: eine Menge O D von Objekten o = (o 1,..., o d ) O mit Attributen A i, 1 i d eine Menge von Klassen C = {c 1,...,c
MehrVorlesung Wissensentdeckung
Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der
MehrNeuronale Netze. Christian Böhm.
Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch
MehrWeitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff
Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2 Tom Schelthoff 30.11.2018 Inhaltsverzeichnis Deep Learning Seed-Stabilität Regularisierung Early Stopping Dropout Batch Normalization
MehrKapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017
10.1 Sommersemester 2017 Problemstellung Welche Gerade? Gegeben sind folgende Messungen: Masse (kg) 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 Kraft (N) 1.6 2.2 3.2 3.0 4.9 5.7 7.1 7.3 8.1 Annahme: Es gibt eine Funktion
MehrEchtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH
Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung 26.10.2016, TP 2: Arbeiten von A.R.T. TP2: Tracking und Umfelderkennung Markerloses Tracking texturierte Objekte Umfelderkennung
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Stützvektormethode Katharina Morik, Uwe Ligges 10.6.2010 1 von 40 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 2 von
MehrSo lösen Sie das multivariate lineare Regressionsproblem von Christian Herta
Multivariate Lineare Regression Christian Herta Oktober, 2013 1 von 34 Christian Herta Multivariate Lineare Regression Lernziele Multivariate Lineare Regression Konzepte des Maschinellen Lernens: Kostenfunktion
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften
MehrMaschinelles Lernen: Symbolische Ansätze. Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt 1 Aufgabe 1 Nearest Neighbour Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity
MehrKlassifikation und Ähnlichkeitssuche
Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell
MehrKapitel V. V. Ensemble Methods. Einführung Bagging Boosting Cascading
Kapitel V V. Ensemble Methods Einführung Bagging Boosting Cascading V-1 Ensemble Methods c Lettmann 2005 Einführung Bewertung der Generalisierungsfähigkeit von Klassifikatoren R (c) wahre Missklassifikationsrate
MehrVorlesung Wissensentdeckung
Gliederung Vorlesung Wissensentdeckung Stützvektormethode 1 Hinführungen zur SVM Katharina Morik, Claus Weihs 26.5.2009 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 1 von 40 2 von
MehrAlgorithmische Geometrie: Arrangements und
Algorithmische Geometrie: Arrangements und Dualität Nico Düvelmeyer WS 2009/2010, 19.1.2010 Überblick 1 Strahlenverfolgung und Diskrepanz 2 Dualität Dualitäts-Abbildung Transformation des Problems zur
MehrSegmentierung. Vorlesung FH-Hagenberg SEM
Segmentierung Vorlesung FH-Hagenberg SEM Segmentierung: Definition Die Pixel eines Bildes A={a i }, i=1:n, mit N der Anzahl der Pixel, werden in Teilmengen S i unterteilt. Die Teilmengen sind disjunkt
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte
MehrTextmining Klassifikation von Texten Teil 2: Im Vektorraummodell
Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse
Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 3. Juli 2013 Übersicht 1 Ruf des Kleinspechts 2 Modell Vorgehen der
MehrDeskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien
Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische
MehrFerienkurse Mathematik Sommersemester 2009
Ferienkurse Mathematik Sommersemester 2009 Statistik: Grundlagen 1.Aufgabenblatt mit praktischen R-Aufgaben Aufgabe 1 Lesen Sie den Datensatz kid.weights aus dem Paket UsingR ein und lassen sie die Hilfeseite
Mehr2. Schnitterkennung Video - Inhaltsanalyse
2. Schnitterkennung Video - Inhaltsanalyse Stephan Kopf Definition: Schnitt Schnitte (cut) liefern Informationen über den Produktionsprozess eines Filmes. trennen kontinuierliche Aufnahmen, die als Kameraeinstellungen
MehrData Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt
Data Mining und Maschinelles Lernen Lösungsvorschlag für das 1. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 1. Übungsblatt 1 1. Anwendungsszenario Überlegen
MehrBivariater Zusammenhang in der Vierfeldertafel PEΣO
Bivariater Zusammenhang in der Vierfeldertafel PEΣO 12. Oktober 2001 Zusammenhang zweier Variablen und bivariate Häufigkeitsverteilung Die Bivariate Häufigkeitsverteilung gibt Auskunft darüber, wie zwei
MehrImplizite Modellierung zur Objekterkennung in der Fernerkundung
Implizite Modellierung zur Objekterkennung in der Fernerkundung Mitarbeiterseminar 20.01.2011 (IPF) Fakultät für Bauingenieur-, Geo- und Umweltwissenschaften KIT Universität des Landes Baden-Württemberg
Mehr10.5 Maximum-Likelihood Klassifikation (I)
Klassifikation (I) Idee Für die Klassifikation sind wir interessiert an den bedingten Wahrscheinlichkeiten p(c i (x,y) D(x,y)). y Wenn man diese bedingten Wahrscheinlichkeiten kennt, dann ordnet man einem
MehrKapitel 2: Mathematische Grundlagen
[ Computeranimation ] Kapitel 2: Mathematische Grundlagen Prof. Dr. Stefan M. Grünvogel stefan.gruenvogel@fh-koeln.de Institut für Medien- und Phototechnik Fachhochschule Köln 2. Mathematische Grundlagen
MehrEinführung in die Theoretische Informatik
Technische Universität München Fakultät für Informatik Prof. Tobias Nipkow, Ph.D. Sascha Böhme, Lars Noschinski Sommersemester 2011 Lösungsblatt 9 25. Juli 2011 Einführung in die Theoretische Informatik
MehrMERKMALSAUSWAHL ZUR OPTIMIERUNG VON PROGNOSEPROZESSEN
Verteidigung der Bachelorarbeit MERKMALSAUSWAHL ZUR OPTIMIERUNG VON PROGNOSEPROZESSEN Von: Tom Fels 23.11.2015 Betreut durch: Prof. Dr.-Ing. Wolfgang Lehner Motivation Motivation PROGNOSEN Schätzung zukünftiger
MehrProjektgruppe. Clustering und Fingerprinting zur Erkennung von Ähnlichkeiten
Projektgruppe Jennifer Post Clustering und Fingerprinting zur Erkennung von Ähnlichkeiten 2. Juni 2010 Motivation Immer mehr Internet-Seiten Immer mehr digitale Texte Viele Inhalte ähnlich oder gleich
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?
Mehrf(x) = x f 1 (x) = x. Aufgabe 2. Welche der folgenden Funktionen sind injektiv, surjektiv, bijektiv?
Umkehrfunktionen Aufgabe 1. Sei A = {1, 2, 3, 4}. Definieren Sie eine bijektive Funktion f A A und geben Sie ihre Umkehrfunktion f 1 an. Lösung von Aufgabe 1. Zum Beispiel f, f 1 A A mit f(x) = x f 1 (x)
MehrEVC Repetitorium Blender
EVC Repetitorium Blender Michael Hecher Felix Kreuzer Institute of Computer Graphics and Algorithms Vienna University of Technology INSTITUTE OF COMPUTER GRAPHICS AND ALGORITHMS Filter Transformationen
MehrSignalentdeckungstheorie, Dichteschätzung
Signalentdeckungstheorie, Dichteschätzung Mustererkennung und Klassifikation, Vorlesung No. 6 1 M. O. Franz 15.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001.
MehrData Mining und Maschinelles Lernen
Data Mining und Maschinelles Lernen Wintersemester 2015/16 Musterlösung für das 7. Übungsblatt Aufgabe 1 Evaluierungsmethoden Ein Datenset enthält 2 n Beispiele, wobei genau n Beispiele positiv sind und
MehrÜbersicht. Definition Daten Problemklassen Fehlerfunktionen
Übersicht 1 Maschinelle Lernverfahren Definition Daten Problemklassen Fehlerfunktionen 2 Entwickeln von maschinellen Lernverfahren Aufteilung der Daten Underfitting und Overfitting Erkennen Regularisierung
MehrAlgorithmen und Komplexität Lösungsvorschlag zu Übungsblatt 8
ETH Zürich Institut für Theoretische Informatik Prof. Dr. Angelika Steger Florian Meier, Ralph Keusch HS 2017 Algorithmen und Komplexität Lösungsvorschlag zu Übungsblatt 8 Lösungsvorschlag zu Aufgabe 1
Mehr