Einführung R. Neubecker, WS 2018 / 2019
|
|
- Frank Salzmann
- vor 5 Jahren
- Abrufe
Transkript
1 Mustererkennung Einführung R. Neubecker, WS 2018 /
2 Übersicht Hyperebenen-Mathematik Anmerkungen Zusammenfassung Mustererkennung (Pattern recognition) Mustererkennung ist die Fähigkeit, in einer Menge von Daten Regelmäßigkeiten, Wiederholungen, Ähnlichkeiten oder Gesetzmäßigkeiten zu erkennen. In unserem Kontext: Zuordnung von Ereignissen / Objekten zu einer Gruppe mit ähnlichen Eigenschaften = Klasse Machine Learning Vorhersagen aus Erfahrungen treffen = Verallgemeinern von Informationen / Eigenschaften aus einem kleinen Ensemble auf bisher unbekannte Situationen Erkennen von Mustern und Gesetzmäßigkeiten Benötigt immer Lernphase (Training) mit Trainingsdaten Ganz allgemeine Definition, umfasst die unterschiedlichsten Algorithmen Klassifikation Entscheidung, zu welcher Gruppe / Kategorie / Klasse / Typ ein Objekt gehört, von dem gewisse Merkmale bekannt sind Klassifikation = gewollter Informationsverlust: Bilddaten Merkmale Klasse 2
3 Klassifikation: Beispiele und verwandte Gebiete Gesichtserkennung Schrifterkennung (Druckschrift / Handschrift) Spracherkennung Automatische Bildauswertung in der Medizin und Mikrobiologie (DNA-Sequenzen, Röntgenbilder, Tomogramme, ) Bioinformatik Automatische Generierung von Landkarten aus Luftbildern Geoinformation, Fernerkundung Clusteranalyse Statistik Kategorisierung Psychologie der Wahrnehmung -Spamfilter Data-Mining NSA & GCHQ sehr breites Gebiet mit unterschiedlichen Schwerpunkten und Vorgehensweisen und variierendem Sprachgebrauch. Sehr viele Verfahren und Varianten, hier nur eine Einführung und Auswahl. Typische Bildverarbeitungskette Bildaufnahme Entscheidungen: Bildvorverarbeitung Segmentierung Detektion (Da ist etwas ) Merkmalsextraktion Klassifikation Klassifikation (Es ist ein...) Aktion 3
4 Merkmal (Feature) Ein Merkmal ist allgemein eine erkennbare, kennzeichnende Eigenschaft, die ein Objekt / Ereignis / Ding / Muster von anderen unterscheidet (Charakteristikum). Eigenschaft zum Erkennen oder zum Unterscheiden von Einheiten Meist stehen mehrere Merkmale zur Verfügung Für uns: nur kontinuierliche Merkmale (= reele Zahlenwerte). Möglich sich auch andere Skalen, z.b. nominale Merkmale, z.b. bei autonomem Fahren: Objekt auf Straße / auf Bürgersteig, - hat Achsen / Beine, bewegt sich / steht Quantitativ Merkmal Qualitativ kontinuierlich diskret ordinal nominal Merkmale schwanken für Objekte aus einer Klasse Grundkonzept Training Mit einer Stichprobe wird der Klassifikator trainiert = Parametrierung des Klassifikators =Festlegen der Klassengrenzen Klassifikation Anwendung des Klassifikators: Unbekanntes Objekt Anhand der Klassengrenzen wird entschieden, zu welcher Klasse es gehört 4
5 Grundkonzept Auswahl Festlegen des Klassifikator-Typs Training Mit einer Stichprobe wird der Klassifikator trainiert = Parametrierung des Klassifikators =Festlegen der Klassengrenzen Test Mit 2. Stichprobe wird getestet, wie gut sicher Klassifikation funktioniert Klassifikation Anwendung des Klassifikators: Unbekanntes Objekt Anhand der Klassengrenzen wird entschieden, zu welcher Klasse es gehört : Übersicht Klassifikatoren in dieser Veranstaltung Minimum-Distance to Mean Fisher s Lineare Diskriminante Perzeptron Support Vector-Machines Nearest Neighbours Bayes Neuronale Netze sowie Unüberwachtes Lernen (ggf. Principal Component Analysis und Eigen-Faces) 5
6 Größe Übersicht Hyperebenen-Mathematik Anmerkungen Zusammenfassung 4,50 Äpfel vs Tomaten 4,00 3,50 3,00 2,50 2,00 1,50 4,00 4,50 5,00 5,50 6,00 6,50 Rotanteil 6
7 Merkmal 2 Merkmale werden in dieser Vorlesung als gegeben angenommen: eine Vorverarbeitungsstufe liefert für jedes Objekt" im Bild eine Anzahl Merkmalswerte Merkmale können im Prinzip beliebige Einheiten haben beliebige Zahlenwerte einnehmen Merkmalsräume Ein Merkmal alleine ist selten ausreichend, oft sind mehr als 2 notwendig Mehrere (kontinuierliche) Merkmale spannen einen Merkmalsraum auf Jedem zu klassifizierenden Objekt wird pro Merkmal ein Wert zugeordnet, d.h. jedes Objekt wird durch einen Punkt im Merkmalsraum repräsentiert Punkt im (Merkmals-) Raum = N-dimensionaler (Merkmals-) Vektor Ԧx = x 1, x 2, x 3, x N t, x k : Wert des k-ten Merkmals Zusammengehörende Mitglieder einer Klasse haben ähnliche Merkmale liegen im Merkmalsraum "nahe" beieinander d.h. Abstände im Merkmalsraum spielen eine zentrale Rolle bilden Punktwolken! Merkmalsräume in grafischer Darstellung Klassifizierung ist scheinbar offensichtlich *) Zu welcher Klasse gehört? Merkmal 1 *) aber nur in 2D, vielleicht noch in 3D visuell-subjektive Klassifikation hat Grenzen 7
8 Merkmalsräume: Im Rechner Klasse Tomaten Klasse Äpfel Merkmal 1 Merkmal 2 Merkmal 1 Merkmal 2-1,2512 2,146-0,9344-1,8776-0,9941 2,176 0,7027-2,5058 0,3085 1,4699-1,4639-0,8791-0,244 2,0781 0,1629-1,2258-0,7574 2,2507 2,5386-0,978-2,6581 0,4758-0,9976-1,7088-1,4672-0,3234 3,1418-1,7921-1,4053 1,16 0,9055-1,5747-0,822 1,3343 0,126-0,765-1,2413 2,2192 2,7372 0,4153-0,7191 0,6611 1,802-2,623-0,6962-0,5973 2,725-1,9554-0,5785 2,3731 1,5636-0,9665-0,8915 3,2705 0,2968-1,4442-0,5153 0,5576 2,9497-2,5626-1,3333 1,1691-0,0116-1,7516 wie finde ich daraus die Lage meiner Klassengrenze? Grundproblem beim Trainieren eines Klassifikators: Aus einer Liste von Merkmalsdaten die Parameter (= Lage der) Klassengrenze zu finden Klassengrenzen Klassengrenzen können theoretisch beliebig komplex sein. Sinnvoll? Bildquelle: Duda, Hart, Stork, Pattern Classification 8
9 Klassengrenzen Klassengrenzen können theoretisch beliebig komplex sein. Sinnvoll? Bei zu komplexen Klassengrenzen besteht die Gefahr, dass sie zu sehr an die spezifischen Trainingsdaten angepasst sind und nicht allgemein für beliebige Daten funktionieren (Overfitting) Je komplexer die Klassengrenze, desto mehr freie Parameter (Koeffizienten). Im einfachsten Fall Klassengrenze = Gerade (bzw. Hyperebene) "Linear separierbar" Bildquelle: Duda, Hart, Stork, Pattern Classification Qualität einer Klassifikation Wann ist eine Klassifikation sehr gut? Simpel: wenn alles richtig klassifiziert wurde. Warum sollte das nicht einfach erreichbar sein? Problem 1: Die Klassen umschließen sich teilweise (konkave Grenzen) Problem 2: Die Klassen liegen zu nahe beieinander (Punktwolken berühren / durchdringen sich) Problem 3: Die bekannte Trainingsstichprobe unterscheidet sich zu stark von den später zu klassifizierenden Stichproben Allgemein: Maß für die Qualität eines Klassifikators = Häufigkeit Fehlklassifikationen Nie vergessen: Entscheidend für gute Klassifizierbarkeit ist die Wahl der Merkmale! 9
10 Übersicht Hyperebenen-Mathematik Anmerkungen Zusammenfassung Hyperebenen Geraden, Ebenen und Hyperebenen Alles lineare Funktionen der Koordinaten: 2-dimensionaler Raum: Gerade 3-dimensionaler Raum: Ebene 4- N-dimensionaler Raum: Hyperebene (Hyper-) ebene Klassifikationsgrenzen Ausgangssituation: Gegeben: Trainingsstichprobe (mit 2 bekannten Klassen) Vorgegeben: Klassifikationsgrenze = Hyperebene Gesucht: Lage der Klassifikationsebene (im Merkmalsraum), damit die beiden gegebenen Klassen optimal getrennt werden Freie Parameter: Richtung der Ebene und Lage relativ zum Ursprung Effizient: Beschreibung mit Normalenvektor und Abstand Lotpunkt-Ursprung Am Beispiel einer Geraden im 2D-Merkmalsraum 10
11 Geradengleichungen Hyperebenen (der Anschaulichkeit halber: hier 2D-Merkmalsraum) Die Geradengleichung in Hesse-Normalform w 0 + w 1 x 1 + w 2 x 2 = 0 führt direkt auf die Vektordarstellung w t Ԧx = w 0, mit w = w 1, w 2 Ԧx umfasst hier alle Punkte, die auf der Geraden liegen, w ist der Normalenvektor. Wichtig am Normalenvektor w ist vor allem seine Richtung. Die Länge des Normalenvektors (auch sein Vorzeichen) sind noch unbestimmt. Zusammenhang mit klassischer Geradengleichung: Abstände x 2 = m x 1 + b z.b. mit w 2 = 1 w 1 = m, w 0 = b Wenn man nur den Einheits-Normalenvektor Ԧe w = w w betrachtet, dann ist Ԧe w t Ԧx = w 0 w = a der kleinste Abstand der Geraden zum Koordinatenursprung. Hyperebenen Skalarprodukt x 1 Skalarprodukt zweier Vektoren = Projektion eines Vektors auf die Richtung des anderen: w t Ԧx = w Ԧx cos α Länge des in Richtung von w projizierten Ԧx : Ԧx cos α = Ԧe w t Ԧx = wt w Ԧx Ԧx cos α w Ԧx x 2 11
12 Vektorielle Beschreibung einer Ebene Hyperebenen x 1 Alle Vektoren Ԧx e, die auf der Geraden (in der Hyperebene) liegen, erfüllen die Bedingung w t Ԧx e = const = w 0 w = w Ԧe w, mit w = w und Ԧe w : Normalenvektor der Ebene. a = w 0 /w w Ԧx e a = w 0 /w = (kleinster) Abstand der Ebene zum Koordinatenursprung x 2 Hyperebenen Klassifikation mit Hyperebenen Hyperebene = Klassengrenze. (in 2D: (trennende) Gerade) Klassifikation = Liegt ein beliebiger Punkt Ԧx u ober- oder unterhalb der Klassengrenze? Wenn man den Vektor Ԧx u, der auf diesen Punkt zeigt, auf die Normalenrichtung projiziert (=Skalarprodukt mit Ԧe w ), dann ist der Abstand zum Ursprung c = Ԧe w t Ԧx u. Der Abstand zur Geraden ergibt sich, wenn man davon den Abstand Ursprung- Gerade abzieht: d = c a = Ԧe w t Ԧx u w 0 w = 1 w wt Ԧx u + w 0 (das Vorzeichen von w 0 ist negativ gewählt, weil w t Ԧx e = w 0 ) g Ԧx u = d ist eine Diskriminanzfunktion. Alternativ aber auch g Ԧx u = w d = w t Ԧx u + w 0. Für eine Klassifizierung ist nur das Vorzeichen entscheidend. Es reicht also, nur w t Ԧx u + w 0 auszurechnen. 12
13 Hyperebenen Abstand zur Ebene d Ԧx u Abstand d eines beliebigen Vektors zur Ebene d = 1 w wt Ԧx u + w 0 w 0 / w w Länge des Normalenvektors w = w ist ein lästiger zusätzlicher Parameter erlaubt aber beliebig lange w (nur die Richtung ist relevant) Übersicht Hyperebenen-Mathematik Anmerkungen Zusammenfassung 13
14 Anmerkungen: Indizierungen Viele Indices N-dimensionaler Merkmalsraum, Merkmalsvektoren Ԧx = x 1, x 2, x 3, x N t L Klassen ω i, i = 1 L Jede Klasse ω i kann durch eine Stichprobe von M i Merkmalsvektoren Ԧx ik, k = 1 M i repräsentiert werden Vorsicht mit den Indices von x ijk, Ԧx ik Zugehörigkeit zur Klasse ω i Index in der Stichprobe Vektorelement / Merkmal Anmerkungen: Diskriminanzfunktionen Mehr als 2 Klassen: Diskriminanzfunktion / Trennfunktion Jedem Merkmalsvektor Ԧx wird ein Wert g i ( Ԧx) zugeordnet, der von der Klasse ω i abhängt. Durch Vergleich dieser Werte wird entschieden, zu welcher Klasse er gehört g i > g j für alle j i Ԧxε ω i Wenn die zu zwei Klassen ω i, ω j gehörenden Werte gleich sind, liegt der Merkmalsvektor genau auf der Klassengrenze. Die Bedingung g i Ԧx = g j Ԧx definiert also die Hyperfläche im Merkmalsraum, welche die beiden Klassen voneinander trennt. Diskriminanzfunktion im einfachen 2-Klassen-Fall Eine einzige Funktion g ( Ԧx) ausreichend g > 0 Ԧxε ω 1 g < 0 Ԧxε ω 2 Klassengrenze g( Ԧx) = 0 Allereinfachste Diskriminanzfunktion g Ԧx = 0 definiert eine Kurve / Fläche im Merkmalsraum Einfachster Fall: lineare Funktion = Gerade / Ebene / Hyperebene 14
15 Erstellen eines Klassifikators Anmerkungen: Vorwissen Meist: Trainieren anhand einer typischen Stichprobe = Trainingsdatensatz Vorinformationen über Stichprobe Klassenzugehörigkeit bekannt Überwachtes Lernen (Supervised Learning) ohne Information über Klassenzugehörigkeit Unüberwachtes Lernen (Unsupervised Learning) erfordert Identifikation von Klassen Clustering Vorwissen über (Wahrscheinlichkeits-) Verteilung der Merkmale Form der Verteilung vorgegeben Schätzung der Verteilungsparameter Form und Parameter der Verteilung unbekannt Parametrische Verfahren Anmerkungen: Alternativen (Andere) Arten von Klassifikationsverfahren Statistisch Berechnung von Wahrscheinlichkeiten, dass Objekte zu Klassen gehören Syntaktisch Darstellung des Muster durch Folge von Symbolen (funktioniert bei attributiven Merkmalen) formale Grammatik Strukturell Kombination aus mehreren syntaktischen / statistischen Verfahren Andere Arten von Mustererkennung Simpel: Template Matching Komplexer: SIFT (Scale-Invariant Feature Transform), SURF ( Speeded Up Robust Features) Identifizieren besondere Punkte ( Keypoints ) im Bild und weisen diesen Merkmale zu Wiedererkennung von Objekten anhand korrespondierender Keypoints 15
16 Übersicht Hyperebenen-Mathematik Anmerkungen Zusammenfassung Merkmalsextraktion Zusammenfassung Merkmalsextraktion = (gewollter) Informationsverlust / Abstraktion Gute Wahl der Merkmale ist entscheidend! Wenn die Merkmale zur Trennung in verschiedene Klassen nicht geeignet sind, kann kein noch so guter Klassifikator erfolgreich sein Wenige automatische Verfahren, oft menschliche Kompetenz gefragt Ggf. Merkmalsreduktion, Verzicht auf redundante, nicht trennfähige Merkmale Konstruktion eines Klassifikators i) Wahl der Klassifikationsmethode ii) Training iii) Test der Leistungsfähigkeit Qualität eines Klassifikators: Geringe Fehlklassifikationsrate Leicht - / effizient zu trainieren Wenig Rechenaufwand / schnell Anmerkung: es gibt nicht den optimalen Klassifikator, es gibt kein Patentrezept für die Auswahl des besten (=problem-angepassten) Klassifikators 16
17 Training, Test und Nutzung Zusammenfassung Wahl des Klassifikator-Typs Form der Klassengrenzen Verfahren, um (Parameter der) Klassengrenzen festzulegen Trainingsstichprobe Klassifikator trainieren Klassifikator fertig Klassifikator testen Klassifikator benutzen PS: Nicht alle Klassifikatoren müssen trainiert werden Training, Test und Nutzung Zusammenfassung Wahl des Klassifikator-Typs Form der Klassengrenzen Verfahren, um (Parameter der) Klassengrenzen festzulegen Einer der Schwerpunkte dieser Veranstaltung: Wie passe ich eine Klassengrenze an meine Trainingsstichprobe an? Trainingsstichprobe Klassifikator trainieren Klassifikator fertig Klassifikator testen Klassifikator benutzen PS: Nicht alle Klassifikatoren müssen trainiert werden 17
18 18
Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines
Mustererkennung R. Neubecker, WS 018 / 019 (SVM) kommen aus der statistischen Lerntheorie gehören zu den optimalen Klassifikatoren = SVMs minimieren nicht nur den Trainingsfehler, sondern auch den (voraussichtlichen)
MehrMustererkennung und Klassifikation
Mustererkennung und Klassifikation WS 2007/2008 Fakultät Informatik Technische Informatik Prof. Dr. Matthias Franz mfranz@htwg-konstanz.de www-home.htwg-konstanz.de/~mfranz/heim.html Grundlagen Überblick
MehrMustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle
Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators
MehrVorlesung Digitale Bildverarbeitung Sommersemester 2013
Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches
MehrMustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator
Mustererkennung Bayes-Klassifikator R. Neubecker, WS 2016 / 2017 Bayes-Klassifikator 2 Kontext Ziel: Optimaler Klassifikator ( = minimaler Klassifikationsfehler), basierend auf Wahrscheinlichkeitsverteilungen
MehrKlassifikation und Ähnlichkeitssuche
Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell
MehrEFME Aufsätze ( Wörter) Der Aufbau von Entscheidungsbäumen...1
EFME Aufsätze (150 200 Wörter) Der Aufbau von Entscheidungsbäumen...1 PCA in der Gesichtserkennung... 2 Bias, Varianz und Generalisierungsfähigkeit... 3 Parametrische und nicht-parametrische Lernverfahren:
Mehr1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3
Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................
MehrLineare Klassifikatoren
Lineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 8 1 M. O. Franz 06.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht 1 Nächste-Nachbarn-
MehrIdeen und Konzepte der Informatik. Maschinelles Lernen. Kurt Mehlhorn
Ideen und Konzepte der Informatik Maschinelles Lernen Kurt Mehlhorn Übersicht Lernen: Begriff Beispiele für den Stand der Kunst Spamerkennung Handschriftenerkennung mit und ohne Trainingsdaten Gesichts-
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrNichtlineare Klassifikatoren
Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrDOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING
DOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING Andreas Nadolski Softwareentwickler andreas.nadolski@enpit.de Twitter: @enpit Blogs: enpit.de/blog medium.com/enpit-developer-blog 05.10.2018, DOAG Big Data
MehrLinear nichtseparable Probleme
Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrNeuronale Netze. Prof. Dr. Rudolf Kruse
Neuronale Netze Prof. Dr. Rudolf Kruse Computational Intelligence Institut für Intelligente Kooperierende Systeme Fakultät für Informatik rudolf.kruse@ovgu.de Rudolf Kruse Neuronale Netze 1 Überwachtes
MehrInhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume
4. Klassifikation Inhalt 4.1 Motivation 4.2 Evaluation 4.3 Logistische Regression 4.4 k-nächste Nachbarn 4.5 Naïve Bayes 4.6 Entscheidungsbäume 4.7 Support Vector Machines 4.8 Neuronale Netze 4.9 Ensemble-Methoden
MehrWenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces
EFME-Zusammenfassusng WS11 Kurze Fragen: Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces Unter welcher Bedingung konvergiert der Online Perceptron Algorithmus?
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik Technische Universität Dortmund 12.11.2013 1 von 39 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung
MehrEinführung in das Maschinelle Lernen I
Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften
MehrKurzskript zur Vorlesung Mathematik I für MB, WI/MB und andere Prof. Dr. Ulrich Reif
14 Oktober 2008 1 Kurzskript zur Vorlesung Mathematik I für MB, WI/MB und andere Prof Dr Ulrich Reif Inhalt: 1 Vektorrechnung 2 Lineare Gleichungssysteme 3 Matrizenrechnung 4 Lineare Abbildungen 5 Eigenwerte
MehrÜberblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator
Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrSupport Vector Machines, Kernels
Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen
MehrSyntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Organisatorisches Donnerstags, 13-15 (c.t.), Seminarraum
MehrUnüberwachtes Lernen
Unüberwachtes Lernen Mustererkennung und Klassifikation, Vorlesung No. 12 M. O. Franz 17.01.2008 Übersicht 1 Hauptkomponentenanalyse 2 Nichtlineare Hauptkomponentenanalyse 3 K-Means-Clustering Übersicht
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Stützvektormethode Katharina Morik, Uwe Ligges 10.6.2010 1 von 40 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 2 von
Mehr5. Geraden und Ebenen im Raum 5.1. Lineare Abhängigkeit und Unabhängigkeit von Vektoren
5 Geraden und Ebenen im Raum 5 Lineare Abhängigkeit und Unabhängigkeit von Vektoren Definition: Die Vektoren a,a,,a n heißen linear abhängig, wenn mindestens einer dieser Vektoren als Linearkombination
MehrMotivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus
3. Klassifikation Motivation Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus Beispiel: Bestimme die Herkunft eines Autos
MehrPrincipal Component Analysis (PCA)
Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen
Mehr1 Einleitung. 2 Clustering
Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick
MehrSignalentdeckungstheorie, Dichteschätzung
Signalentdeckungstheorie, Dichteschätzung Mustererkennung und Klassifikation, Vorlesung No. 6 1 M. O. Franz 15.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001.
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
MehrEchtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH
Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung 26.10.2016, TP 2: Arbeiten von A.R.T. TP2: Tracking und Umfelderkennung Markerloses Tracking texturierte Objekte Umfelderkennung
MehrVorlesung Wissensentdeckung
Gliederung Vorlesung Wissensentdeckung Stützvektormethode 1 Hinführungen zur SVM Katharina Morik, Claus Weihs 26.5.2009 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 1 von 40 2 von
MehrDas Wichtigste auf einen Blick
Das Wichtigste auf einen Blick Zusammenfassung Geometrie.Parameterform einer Geraden Eine Gerade ist wie auch in der Analysis durch zwei Punkte A, B im Raum eindeutig bestimmt einer der beiden Punkte,
MehrImplizite Modellierung zur Objekterkennung in der Fernerkundung
Implizite Modellierung zur Objekterkennung in der Fernerkundung Mitarbeiterseminar 20.01.2011 (IPF) Fakultät für Bauingenieur-, Geo- und Umweltwissenschaften KIT Universität des Landes Baden-Württemberg
MehrInhaltliche Planung für die Vorlesung
Vorlesung: Künstliche Intelligenz - Mustererkennung - P LS ES S ST ME Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte der KI, PROLOG 2) Expertensysteme
MehrEinführung in Support Vector Machines (SVMs)
Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation
MehrSupport Vector Machines (SVM)
Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-
MehrObjektmerkmale für die räumlich-spektrale Klassifikation
Objektmerkmale für die räumlich-spektrale Klassifikation AG Geomatik Geographisches Institut Ruhr-Universität Bochum AK Fernerkundung, Bochum 2012 Übersicht Ansatz zur automatischen Bildinterpretation:
MehrFeature Selection / Preprocessing
1 Feature Selection / Preprocessing 2 Was ist Feature Selection? 3 Warum Feature Selection? Mehr Variablen führen nicht automatisch zu besseren Ergebnissen. Lernen von unwichtigen Daten Mehr Daten notwendig
MehrDiskriminatives syntaktisches Reranking für SMT
Diskriminatives syntaktisches Reranking für SMT Fortgeschrittene Themen der statistischen maschinellen Übersetzung Janina Nikolic 2 Agenda Problem: Ranking des SMT Systems Lösung: Reranking-Modell Nutzung
Mehr~ v 2. Abbildung 3: Zweiter Schritt des Gram-Schmidt-Verfahrens. k 1. i=1. v k = w k
v 1 v 1 v 2 v 2 W 2 -v (v, v ) 1 1 2 Abbildung 3: Zweiter Schritt des Gram-Schmidt-Verfahrens. k. Schritt: Subtraktion der Komponenten von ṽ k in Richtung von v 1,v 2,...,v k 1 und Normierung von w k auf
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Stützvektormethode Katharina Morik, Uwe Ligges 23.5.2013 1 von 48 Gliederung 1 Geometrie linearer Modelle: Hyperebenen Einführung von Schölkopf/Smola 2 Lagrange-Optimierung
MehrEbenen in Normalenform
Ebenen in Normalenform Normalenvektoren und Einheitsvektoren Definition Normalenvektor Ein Normalenvektor einer Ebene ist ein Vektor, der senkrecht auf einer Ebene steht (siehe Seite 12). Berechnung eines
MehrKlassifikation linear separierbarer Probleme
Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear
MehrLineare Klassifikationsmethoden
Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
MehrMathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum
MehrÜbungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 05/06. Musterlösung 11
ALBERT-LUDWIGS-UNIVERSITÄT FREIBURG INSTITUT FÜR INFORMATIK Lehrstuhl für Mustererkennung und Bildverarbeitung Prof. Dr.-Ing. Hans Burkhardt Georges-Köhler-Allee Geb. 05, Zi 0-09 D-790 Freiburg Tel. 076-03
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse
Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse Martin Hutzenthaler & Dirk Metzler http://evol.bio.lmu.de/_statgen 6. Juli 2010 Übersicht 1 Ruf des Kleinspechts 2 Modell Vorgehen
MehrSKOPOS Webinar 22. Mai 2018
SKOPOS Webinar 22. Mai 2018 Marktforschung 2020: Künstliche Intelligenz und automatische Text Analysen? Christopher Harms, Consultant Research & Development 2 So? Terminator Exhibition: T-800 by Dick Thomas
MehrAbitur 2016 Mathematik Geometrie V
Seite http://www.abiturloesung.de/ Seite Abitur Mathematik Geometrie V Betrachtet wird der abgebildete Würfel A B C D E F G H. Die Eckpunkte D, E, F und H dieses Würfels besitzen in einem kartesischen
MehrInhalt. 6.1 Motivation. 6.2 Klassifikation. 6.3 Clusteranalyse. 6.4 Asszoziationsanalyse. Datenbanken & Informationssysteme / Kapitel 6: Data Mining
6. Data Mining Inhalt 6.1 Motivation 6.2 Klassifikation 6.3 Clusteranalyse 6.4 Asszoziationsanalyse 2 6.1 Motivation Data Mining and Knowledge Discovery zielt darauf ab, verwertbare Erkenntnisse (actionable
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
MehrPrüfungsteil B, Aufgabengruppe 2: Geometrie
Bundesabitur Mathematik: Bayern 01 Aufgabe 1 a) 1. SCHRITT: VEKTOR CH BESTIMMEN CH = ( 8 108 ) ( 10) = ( 0 ). 3. SCHRITT: LÄNGE DES VEKTORS BERECHNEN CH = ( ) + 3 =. 3. SCHRITT: BERECHNUNG DES FLÄCHENINHALTS
MehrMerkmalserkennungs- und Klassifikationssystem (MEKS)
Merkmalserkennungs- und Klassifikationssystem (MEKS) S. Hafner Univ.-GHS Paderborn, Abteilung Meschede Tel.: (0291) 9910-330, Fax: (0291) 9910-330 Email: Hafner@meschede.uni-paderborn.de Kurzfassung Die
MehrKapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation
Überblick 4.1 Einleitung 4.2 Clustering 4.3 Klassifikation 1 Klassifikationsproblem Gegeben: eine Menge O D von Objekten o = (o 1,..., o d ) O mit Attributen A i, 1 i d eine Menge von Klassen C = {c 1,...,c
Mehr03. Vektoren im R 2, R 3 und R n
03 Vektoren im R 2, R 3 und R n Unter Verwendung eines Koordinatensystems kann jedem Punkt der Ebene umkehrbar eindeutig ein Zahlenpaar (x, y) zugeordnet werden P (x, y) Man nennt x und y die kartesischen
MehrMustererkennung. Merkmalsreduktion. R. Neubecker, WS 2016 / Übersicht
Mustererkennung Merkmalsreduktion R. Neubecker, WS 2016 / 2017 Übersicht 2 Merkmale Principal Component Analysis: Konzept Mathematische Formulierung Anwendung Eigengesichter 1 Merkmale 3 (Zu) Viele Merkmale
MehrSie können Ihre Übungsblätter vorne in den Abgabe -Karton legen
Sie können Ihre Übungsblätter vorne in den Abgabe -Karton legen 1 22.06.16 Kognitive Systeme Übung 2 22.06.2016 Klassifikation und Spracherkennung Matthias Sperber, Thai Son Nguyen KIT, Institute for Anthropomatics
MehrEbenengleichungen und Umformungen
Ebenengleichungen und Umformungen. Januar 7 Ebenendarstellungen. Parameterdarstellung Die Parameterdarstellung einer Ebene ist gegeben durch einen Stützvektor r, der einen Punkt auf der Ebene angibt und
MehrMaschinelles Lernen II
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen II Niels Landwehr Organisation Vorlesung/Übung 4 SWS. Ort: 3.01.2.31. Termin: Vorlesung: Dienstag, 10:00-11:30.
Mehr03. Vektoren im R 2, R 3 und R n
03 Vektoren im R 2, R 3 und R n Unter Verwendung eines Koordinatensystems kann jedem Punkt der Ebene umkehrbar eindeutig ein Zahlenpaar (x, y) zugeordnet werden P (x, y) Man nennt x und y die kartesischen
Mehrk-nächste-nachbarn-schätzung
k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrTextmining Klassifikation von Texten Teil 2: Im Vektorraummodell
Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil
MehrAbitur 2010 Mathematik LK Geometrie V
Seite http://www.abiturloesung.de/ Seite Abitur Mathematik LK Geometrie V Gegeben sind in einem kartesischen Koordinatensystem des R der Punkt A( ) und die Menge der Punkte B k ( k) mit k R. Die Punkte
MehrLineare Methoden zur Klassifizierung
Lineare Methoden zur Klassifizierung Kapitel 3 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität
Mehr3 Diskriminationsanalyse 3.1 Diskriminationsanalyse mit zwei Gruppen
Lineare Diskrimination mit zwei Gruppen 6.5.3 - - 3 Diskriminationsanalyse 3. Diskriminationsanalyse mit zwei Gruppen Schreibweise: p unabhängige Merkmale: X, X,..., X p (metrisch; auch ordinal möglich,
MehrMathematik 12. Jahrgangsstufe - Hausaufgaben
Mathematik. Jahrgangsstufe - Hausaufgaben Inhaltsverzeichnis Raumgeometrie. Punkte einer Geraden............................... Punkte und Geraden................................ Geraden und Punkte................................5
MehrStatistical Learning
Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in
MehrKartographische Visualisierung
Kartographische Visualisierung Kartenmodellierung Modellierung von Karten Ziel der Kartenmodellierung: Geodaten angemessen abbilden (repräsentieren) Informationen mit der Karte vermitteln (präsentieren).
MehrVektorprodukt. Satz: Für a, b, c V 3 und λ IR gilt: = a b + a c (Linearität) (Linearität) b = λ
Vektorprodukt Satz: Für a, b, c V 3 und λ IR gilt: 1 a b = b a (Anti-Kommutativität) ( ) 2 a b + c ( 3 a λ ) b = λ = a b + a c (Linearität) ( a ) b (Linearität) Satz: Die Koordinatendarstellung des Vektorprodukts
MehrNeuronale Netze. Christian Böhm.
Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch
MehrVergleich von SVM und Regel- und Entscheidungsbaum-Lernern
Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Chahine Abid Bachelor Arbeit Betreuer: Prof. Johannes Fürnkranz Frederik Janssen 28. November 2013 Fachbereich Informatik Fachgebiet Knowledge
MehrDas Perzeptron. Volker Tresp
Das Perzeptron Volker Tresp 1 Einführung Das Perzeptron war eines der ersten ernstzunehmenden Lernmaschinen Die wichtigsten Elemente Sammlung und Vorverarbeitung der Trainingsdaten Wahl einer Klasse von
MehrMaschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008
Maschinelles Lernen I Einführung Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 22. April 2008 Inhalt Einführung Lernen Maschinelle Lernverfahren im Überblick Phonetische Anwendungsbeispiele
MehrSEMINAR KLASSIFIKATION & CLUSTERING EINFÜHRUNG. Stefan Langer CIS Universität München Wintersemester 2016/17
SEMINAR KLASSIFIKATION & CLUSTERING EINFÜHRUNG Stefan Langer CIS Universität München Wintersemester 2016/17 stefan.langer@cis.uni-muenchen.de Anmeldung Bereits erfolgt über LSF Falls alternative Email
Mehr6.6. Abstandsbestimmungen
6.6. Abstandsbestimmungen 6. Geraden und Ebenen im Raum In diesem Kapitel werden folgende Fälle vorgestellt:. Abstand zweier Punkte. Abstand zweier paralleler Geraden 3. Abstand einer Ebene zu einer zur
MehrDeskriptive Beschreibung linearer Zusammenhänge
9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,
MehrDie Familie der χ 2 (n)-verteilungen
Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +
MehrDie Familie der χ 2 (n)-verteilungen
Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +
MehrOne-class Support Vector Machines
One-class Support Vector Machines Seminar Wissensbasierte Systeme Dietrich Derksen 3. Januar 204 Motivation One-class Support Vector Machines: Detektion von Ausreißern (Systemfehlererkennung) Klassifikation
MehrProjekt-INF Folie 1
Folie 1 Projekt-INF Entwicklung eines Testbed für den empirischen Vergleich verschiedener Methoden des maschinellen Lernens im Bezug auf die Erlernung von Produktentwicklungswissen Folie 2 Inhalt Ziel
MehrOptimierung für Wirtschaftsinformatiker: Lineare Programme
Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen
MehrHow To Create A Panorama Image From A Photoelectric Image From An Image From The Camera (I)
Chapter 3 Image Registration Distributed Algorithms for Einführung (I) Definition: Image Registration Gegeben: 2 Bilder der gleichen Szene aber aufgenommen aus unterschiedlichen Perspektiven Gesucht: Transformation,
MehrBild-Erkennung & -Interpretation
Kapitel I Bild-Erkennung & -Interpretation FH Aachen / Jülich, FB 9 Prof. Dr. rer.nat. Walter Hillen (Dig Img I) 1 Einführung Schritte zur Bilderkennung und Interpretation: Bild-Erfassung Vorverarbeitung
MehrWinter 2011/ Projekt kd- Trees. achsenparallelen Farbwürfel angeordnet. Die beiden schwarz- weiß- Ecken verbindet eine Graulinie.
Praktikum Algorithmik Prof. Dr. Heiner Klocke Winter 2011/2012 12.11.2011 1. Erläuterung des Umfeldes Projekt kd- Trees Bei der Bildanalyse sollen Farbpunkte eines Bildes klassifiziert werden. Die Farbe
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse
Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 3. Juli 2013 Übersicht 1 Ruf des Kleinspechts 2 Modell Vorgehen der
MehrKapitel 4: Data Mining
LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS Skript zur Vorlesung: Einführung in die Informatik: Systeme und Anwendungen Sommersemester 2017 Kapitel 4: Data Mining Vorlesung:
Mehr