Einführung R. Neubecker, WS 2018 / 2019

Größe: px
Ab Seite anzeigen:

Download "Einführung R. Neubecker, WS 2018 / 2019"

Transkript

1 Mustererkennung Einführung R. Neubecker, WS 2018 /

2 Übersicht Hyperebenen-Mathematik Anmerkungen Zusammenfassung Mustererkennung (Pattern recognition) Mustererkennung ist die Fähigkeit, in einer Menge von Daten Regelmäßigkeiten, Wiederholungen, Ähnlichkeiten oder Gesetzmäßigkeiten zu erkennen. In unserem Kontext: Zuordnung von Ereignissen / Objekten zu einer Gruppe mit ähnlichen Eigenschaften = Klasse Machine Learning Vorhersagen aus Erfahrungen treffen = Verallgemeinern von Informationen / Eigenschaften aus einem kleinen Ensemble auf bisher unbekannte Situationen Erkennen von Mustern und Gesetzmäßigkeiten Benötigt immer Lernphase (Training) mit Trainingsdaten Ganz allgemeine Definition, umfasst die unterschiedlichsten Algorithmen Klassifikation Entscheidung, zu welcher Gruppe / Kategorie / Klasse / Typ ein Objekt gehört, von dem gewisse Merkmale bekannt sind Klassifikation = gewollter Informationsverlust: Bilddaten Merkmale Klasse 2

3 Klassifikation: Beispiele und verwandte Gebiete Gesichtserkennung Schrifterkennung (Druckschrift / Handschrift) Spracherkennung Automatische Bildauswertung in der Medizin und Mikrobiologie (DNA-Sequenzen, Röntgenbilder, Tomogramme, ) Bioinformatik Automatische Generierung von Landkarten aus Luftbildern Geoinformation, Fernerkundung Clusteranalyse Statistik Kategorisierung Psychologie der Wahrnehmung -Spamfilter Data-Mining NSA & GCHQ sehr breites Gebiet mit unterschiedlichen Schwerpunkten und Vorgehensweisen und variierendem Sprachgebrauch. Sehr viele Verfahren und Varianten, hier nur eine Einführung und Auswahl. Typische Bildverarbeitungskette Bildaufnahme Entscheidungen: Bildvorverarbeitung Segmentierung Detektion (Da ist etwas ) Merkmalsextraktion Klassifikation Klassifikation (Es ist ein...) Aktion 3

4 Merkmal (Feature) Ein Merkmal ist allgemein eine erkennbare, kennzeichnende Eigenschaft, die ein Objekt / Ereignis / Ding / Muster von anderen unterscheidet (Charakteristikum). Eigenschaft zum Erkennen oder zum Unterscheiden von Einheiten Meist stehen mehrere Merkmale zur Verfügung Für uns: nur kontinuierliche Merkmale (= reele Zahlenwerte). Möglich sich auch andere Skalen, z.b. nominale Merkmale, z.b. bei autonomem Fahren: Objekt auf Straße / auf Bürgersteig, - hat Achsen / Beine, bewegt sich / steht Quantitativ Merkmal Qualitativ kontinuierlich diskret ordinal nominal Merkmale schwanken für Objekte aus einer Klasse Grundkonzept Training Mit einer Stichprobe wird der Klassifikator trainiert = Parametrierung des Klassifikators =Festlegen der Klassengrenzen Klassifikation Anwendung des Klassifikators: Unbekanntes Objekt Anhand der Klassengrenzen wird entschieden, zu welcher Klasse es gehört 4

5 Grundkonzept Auswahl Festlegen des Klassifikator-Typs Training Mit einer Stichprobe wird der Klassifikator trainiert = Parametrierung des Klassifikators =Festlegen der Klassengrenzen Test Mit 2. Stichprobe wird getestet, wie gut sicher Klassifikation funktioniert Klassifikation Anwendung des Klassifikators: Unbekanntes Objekt Anhand der Klassengrenzen wird entschieden, zu welcher Klasse es gehört : Übersicht Klassifikatoren in dieser Veranstaltung Minimum-Distance to Mean Fisher s Lineare Diskriminante Perzeptron Support Vector-Machines Nearest Neighbours Bayes Neuronale Netze sowie Unüberwachtes Lernen (ggf. Principal Component Analysis und Eigen-Faces) 5

6 Größe Übersicht Hyperebenen-Mathematik Anmerkungen Zusammenfassung 4,50 Äpfel vs Tomaten 4,00 3,50 3,00 2,50 2,00 1,50 4,00 4,50 5,00 5,50 6,00 6,50 Rotanteil 6

7 Merkmal 2 Merkmale werden in dieser Vorlesung als gegeben angenommen: eine Vorverarbeitungsstufe liefert für jedes Objekt" im Bild eine Anzahl Merkmalswerte Merkmale können im Prinzip beliebige Einheiten haben beliebige Zahlenwerte einnehmen Merkmalsräume Ein Merkmal alleine ist selten ausreichend, oft sind mehr als 2 notwendig Mehrere (kontinuierliche) Merkmale spannen einen Merkmalsraum auf Jedem zu klassifizierenden Objekt wird pro Merkmal ein Wert zugeordnet, d.h. jedes Objekt wird durch einen Punkt im Merkmalsraum repräsentiert Punkt im (Merkmals-) Raum = N-dimensionaler (Merkmals-) Vektor Ԧx = x 1, x 2, x 3, x N t, x k : Wert des k-ten Merkmals Zusammengehörende Mitglieder einer Klasse haben ähnliche Merkmale liegen im Merkmalsraum "nahe" beieinander d.h. Abstände im Merkmalsraum spielen eine zentrale Rolle bilden Punktwolken! Merkmalsräume in grafischer Darstellung Klassifizierung ist scheinbar offensichtlich *) Zu welcher Klasse gehört? Merkmal 1 *) aber nur in 2D, vielleicht noch in 3D visuell-subjektive Klassifikation hat Grenzen 7

8 Merkmalsräume: Im Rechner Klasse Tomaten Klasse Äpfel Merkmal 1 Merkmal 2 Merkmal 1 Merkmal 2-1,2512 2,146-0,9344-1,8776-0,9941 2,176 0,7027-2,5058 0,3085 1,4699-1,4639-0,8791-0,244 2,0781 0,1629-1,2258-0,7574 2,2507 2,5386-0,978-2,6581 0,4758-0,9976-1,7088-1,4672-0,3234 3,1418-1,7921-1,4053 1,16 0,9055-1,5747-0,822 1,3343 0,126-0,765-1,2413 2,2192 2,7372 0,4153-0,7191 0,6611 1,802-2,623-0,6962-0,5973 2,725-1,9554-0,5785 2,3731 1,5636-0,9665-0,8915 3,2705 0,2968-1,4442-0,5153 0,5576 2,9497-2,5626-1,3333 1,1691-0,0116-1,7516 wie finde ich daraus die Lage meiner Klassengrenze? Grundproblem beim Trainieren eines Klassifikators: Aus einer Liste von Merkmalsdaten die Parameter (= Lage der) Klassengrenze zu finden Klassengrenzen Klassengrenzen können theoretisch beliebig komplex sein. Sinnvoll? Bildquelle: Duda, Hart, Stork, Pattern Classification 8

9 Klassengrenzen Klassengrenzen können theoretisch beliebig komplex sein. Sinnvoll? Bei zu komplexen Klassengrenzen besteht die Gefahr, dass sie zu sehr an die spezifischen Trainingsdaten angepasst sind und nicht allgemein für beliebige Daten funktionieren (Overfitting) Je komplexer die Klassengrenze, desto mehr freie Parameter (Koeffizienten). Im einfachsten Fall Klassengrenze = Gerade (bzw. Hyperebene) "Linear separierbar" Bildquelle: Duda, Hart, Stork, Pattern Classification Qualität einer Klassifikation Wann ist eine Klassifikation sehr gut? Simpel: wenn alles richtig klassifiziert wurde. Warum sollte das nicht einfach erreichbar sein? Problem 1: Die Klassen umschließen sich teilweise (konkave Grenzen) Problem 2: Die Klassen liegen zu nahe beieinander (Punktwolken berühren / durchdringen sich) Problem 3: Die bekannte Trainingsstichprobe unterscheidet sich zu stark von den später zu klassifizierenden Stichproben Allgemein: Maß für die Qualität eines Klassifikators = Häufigkeit Fehlklassifikationen Nie vergessen: Entscheidend für gute Klassifizierbarkeit ist die Wahl der Merkmale! 9

10 Übersicht Hyperebenen-Mathematik Anmerkungen Zusammenfassung Hyperebenen Geraden, Ebenen und Hyperebenen Alles lineare Funktionen der Koordinaten: 2-dimensionaler Raum: Gerade 3-dimensionaler Raum: Ebene 4- N-dimensionaler Raum: Hyperebene (Hyper-) ebene Klassifikationsgrenzen Ausgangssituation: Gegeben: Trainingsstichprobe (mit 2 bekannten Klassen) Vorgegeben: Klassifikationsgrenze = Hyperebene Gesucht: Lage der Klassifikationsebene (im Merkmalsraum), damit die beiden gegebenen Klassen optimal getrennt werden Freie Parameter: Richtung der Ebene und Lage relativ zum Ursprung Effizient: Beschreibung mit Normalenvektor und Abstand Lotpunkt-Ursprung Am Beispiel einer Geraden im 2D-Merkmalsraum 10

11 Geradengleichungen Hyperebenen (der Anschaulichkeit halber: hier 2D-Merkmalsraum) Die Geradengleichung in Hesse-Normalform w 0 + w 1 x 1 + w 2 x 2 = 0 führt direkt auf die Vektordarstellung w t Ԧx = w 0, mit w = w 1, w 2 Ԧx umfasst hier alle Punkte, die auf der Geraden liegen, w ist der Normalenvektor. Wichtig am Normalenvektor w ist vor allem seine Richtung. Die Länge des Normalenvektors (auch sein Vorzeichen) sind noch unbestimmt. Zusammenhang mit klassischer Geradengleichung: Abstände x 2 = m x 1 + b z.b. mit w 2 = 1 w 1 = m, w 0 = b Wenn man nur den Einheits-Normalenvektor Ԧe w = w w betrachtet, dann ist Ԧe w t Ԧx = w 0 w = a der kleinste Abstand der Geraden zum Koordinatenursprung. Hyperebenen Skalarprodukt x 1 Skalarprodukt zweier Vektoren = Projektion eines Vektors auf die Richtung des anderen: w t Ԧx = w Ԧx cos α Länge des in Richtung von w projizierten Ԧx : Ԧx cos α = Ԧe w t Ԧx = wt w Ԧx Ԧx cos α w Ԧx x 2 11

12 Vektorielle Beschreibung einer Ebene Hyperebenen x 1 Alle Vektoren Ԧx e, die auf der Geraden (in der Hyperebene) liegen, erfüllen die Bedingung w t Ԧx e = const = w 0 w = w Ԧe w, mit w = w und Ԧe w : Normalenvektor der Ebene. a = w 0 /w w Ԧx e a = w 0 /w = (kleinster) Abstand der Ebene zum Koordinatenursprung x 2 Hyperebenen Klassifikation mit Hyperebenen Hyperebene = Klassengrenze. (in 2D: (trennende) Gerade) Klassifikation = Liegt ein beliebiger Punkt Ԧx u ober- oder unterhalb der Klassengrenze? Wenn man den Vektor Ԧx u, der auf diesen Punkt zeigt, auf die Normalenrichtung projiziert (=Skalarprodukt mit Ԧe w ), dann ist der Abstand zum Ursprung c = Ԧe w t Ԧx u. Der Abstand zur Geraden ergibt sich, wenn man davon den Abstand Ursprung- Gerade abzieht: d = c a = Ԧe w t Ԧx u w 0 w = 1 w wt Ԧx u + w 0 (das Vorzeichen von w 0 ist negativ gewählt, weil w t Ԧx e = w 0 ) g Ԧx u = d ist eine Diskriminanzfunktion. Alternativ aber auch g Ԧx u = w d = w t Ԧx u + w 0. Für eine Klassifizierung ist nur das Vorzeichen entscheidend. Es reicht also, nur w t Ԧx u + w 0 auszurechnen. 12

13 Hyperebenen Abstand zur Ebene d Ԧx u Abstand d eines beliebigen Vektors zur Ebene d = 1 w wt Ԧx u + w 0 w 0 / w w Länge des Normalenvektors w = w ist ein lästiger zusätzlicher Parameter erlaubt aber beliebig lange w (nur die Richtung ist relevant) Übersicht Hyperebenen-Mathematik Anmerkungen Zusammenfassung 13

14 Anmerkungen: Indizierungen Viele Indices N-dimensionaler Merkmalsraum, Merkmalsvektoren Ԧx = x 1, x 2, x 3, x N t L Klassen ω i, i = 1 L Jede Klasse ω i kann durch eine Stichprobe von M i Merkmalsvektoren Ԧx ik, k = 1 M i repräsentiert werden Vorsicht mit den Indices von x ijk, Ԧx ik Zugehörigkeit zur Klasse ω i Index in der Stichprobe Vektorelement / Merkmal Anmerkungen: Diskriminanzfunktionen Mehr als 2 Klassen: Diskriminanzfunktion / Trennfunktion Jedem Merkmalsvektor Ԧx wird ein Wert g i ( Ԧx) zugeordnet, der von der Klasse ω i abhängt. Durch Vergleich dieser Werte wird entschieden, zu welcher Klasse er gehört g i > g j für alle j i Ԧxε ω i Wenn die zu zwei Klassen ω i, ω j gehörenden Werte gleich sind, liegt der Merkmalsvektor genau auf der Klassengrenze. Die Bedingung g i Ԧx = g j Ԧx definiert also die Hyperfläche im Merkmalsraum, welche die beiden Klassen voneinander trennt. Diskriminanzfunktion im einfachen 2-Klassen-Fall Eine einzige Funktion g ( Ԧx) ausreichend g > 0 Ԧxε ω 1 g < 0 Ԧxε ω 2 Klassengrenze g( Ԧx) = 0 Allereinfachste Diskriminanzfunktion g Ԧx = 0 definiert eine Kurve / Fläche im Merkmalsraum Einfachster Fall: lineare Funktion = Gerade / Ebene / Hyperebene 14

15 Erstellen eines Klassifikators Anmerkungen: Vorwissen Meist: Trainieren anhand einer typischen Stichprobe = Trainingsdatensatz Vorinformationen über Stichprobe Klassenzugehörigkeit bekannt Überwachtes Lernen (Supervised Learning) ohne Information über Klassenzugehörigkeit Unüberwachtes Lernen (Unsupervised Learning) erfordert Identifikation von Klassen Clustering Vorwissen über (Wahrscheinlichkeits-) Verteilung der Merkmale Form der Verteilung vorgegeben Schätzung der Verteilungsparameter Form und Parameter der Verteilung unbekannt Parametrische Verfahren Anmerkungen: Alternativen (Andere) Arten von Klassifikationsverfahren Statistisch Berechnung von Wahrscheinlichkeiten, dass Objekte zu Klassen gehören Syntaktisch Darstellung des Muster durch Folge von Symbolen (funktioniert bei attributiven Merkmalen) formale Grammatik Strukturell Kombination aus mehreren syntaktischen / statistischen Verfahren Andere Arten von Mustererkennung Simpel: Template Matching Komplexer: SIFT (Scale-Invariant Feature Transform), SURF ( Speeded Up Robust Features) Identifizieren besondere Punkte ( Keypoints ) im Bild und weisen diesen Merkmale zu Wiedererkennung von Objekten anhand korrespondierender Keypoints 15

16 Übersicht Hyperebenen-Mathematik Anmerkungen Zusammenfassung Merkmalsextraktion Zusammenfassung Merkmalsextraktion = (gewollter) Informationsverlust / Abstraktion Gute Wahl der Merkmale ist entscheidend! Wenn die Merkmale zur Trennung in verschiedene Klassen nicht geeignet sind, kann kein noch so guter Klassifikator erfolgreich sein Wenige automatische Verfahren, oft menschliche Kompetenz gefragt Ggf. Merkmalsreduktion, Verzicht auf redundante, nicht trennfähige Merkmale Konstruktion eines Klassifikators i) Wahl der Klassifikationsmethode ii) Training iii) Test der Leistungsfähigkeit Qualität eines Klassifikators: Geringe Fehlklassifikationsrate Leicht - / effizient zu trainieren Wenig Rechenaufwand / schnell Anmerkung: es gibt nicht den optimalen Klassifikator, es gibt kein Patentrezept für die Auswahl des besten (=problem-angepassten) Klassifikators 16

17 Training, Test und Nutzung Zusammenfassung Wahl des Klassifikator-Typs Form der Klassengrenzen Verfahren, um (Parameter der) Klassengrenzen festzulegen Trainingsstichprobe Klassifikator trainieren Klassifikator fertig Klassifikator testen Klassifikator benutzen PS: Nicht alle Klassifikatoren müssen trainiert werden Training, Test und Nutzung Zusammenfassung Wahl des Klassifikator-Typs Form der Klassengrenzen Verfahren, um (Parameter der) Klassengrenzen festzulegen Einer der Schwerpunkte dieser Veranstaltung: Wie passe ich eine Klassengrenze an meine Trainingsstichprobe an? Trainingsstichprobe Klassifikator trainieren Klassifikator fertig Klassifikator testen Klassifikator benutzen PS: Nicht alle Klassifikatoren müssen trainiert werden 17

18 18

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines Mustererkennung R. Neubecker, WS 018 / 019 (SVM) kommen aus der statistischen Lerntheorie gehören zu den optimalen Klassifikatoren = SVMs minimieren nicht nur den Trainingsfehler, sondern auch den (voraussichtlichen)

Mehr

Mustererkennung und Klassifikation

Mustererkennung und Klassifikation Mustererkennung und Klassifikation WS 2007/2008 Fakultät Informatik Technische Informatik Prof. Dr. Matthias Franz mfranz@htwg-konstanz.de www-home.htwg-konstanz.de/~mfranz/heim.html Grundlagen Überblick

Mehr

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators

Mehr

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches

Mehr

Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator

Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator Mustererkennung Bayes-Klassifikator R. Neubecker, WS 2016 / 2017 Bayes-Klassifikator 2 Kontext Ziel: Optimaler Klassifikator ( = minimaler Klassifikationsfehler), basierend auf Wahrscheinlichkeitsverteilungen

Mehr

Klassifikation und Ähnlichkeitssuche

Klassifikation und Ähnlichkeitssuche Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell

Mehr

EFME Aufsätze ( Wörter) Der Aufbau von Entscheidungsbäumen...1

EFME Aufsätze ( Wörter) Der Aufbau von Entscheidungsbäumen...1 EFME Aufsätze (150 200 Wörter) Der Aufbau von Entscheidungsbäumen...1 PCA in der Gesichtserkennung... 2 Bias, Varianz und Generalisierungsfähigkeit... 3 Parametrische und nicht-parametrische Lernverfahren:

Mehr

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3 Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................

Mehr

Lineare Klassifikatoren

Lineare Klassifikatoren Lineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 8 1 M. O. Franz 06.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht 1 Nächste-Nachbarn-

Mehr

Ideen und Konzepte der Informatik. Maschinelles Lernen. Kurt Mehlhorn

Ideen und Konzepte der Informatik. Maschinelles Lernen. Kurt Mehlhorn Ideen und Konzepte der Informatik Maschinelles Lernen Kurt Mehlhorn Übersicht Lernen: Begriff Beispiele für den Stand der Kunst Spamerkennung Handschriftenerkennung mit und ohne Trainingsdaten Gesichts-

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Nichtlineare Klassifikatoren

Nichtlineare Klassifikatoren Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

DOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING

DOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING DOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING Andreas Nadolski Softwareentwickler andreas.nadolski@enpit.de Twitter: @enpit Blogs: enpit.de/blog medium.com/enpit-developer-blog 05.10.2018, DOAG Big Data

Mehr

Linear nichtseparable Probleme

Linear nichtseparable Probleme Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Neuronale Netze. Prof. Dr. Rudolf Kruse

Neuronale Netze. Prof. Dr. Rudolf Kruse Neuronale Netze Prof. Dr. Rudolf Kruse Computational Intelligence Institut für Intelligente Kooperierende Systeme Fakultät für Informatik rudolf.kruse@ovgu.de Rudolf Kruse Neuronale Netze 1 Überwachtes

Mehr

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume 4. Klassifikation Inhalt 4.1 Motivation 4.2 Evaluation 4.3 Logistische Regression 4.4 k-nächste Nachbarn 4.5 Naïve Bayes 4.6 Entscheidungsbäume 4.7 Support Vector Machines 4.8 Neuronale Netze 4.9 Ensemble-Methoden

Mehr

Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces

Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces EFME-Zusammenfassusng WS11 Kurze Fragen: Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces Unter welcher Bedingung konvergiert der Online Perceptron Algorithmus?

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik Technische Universität Dortmund 12.11.2013 1 von 39 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung

Mehr

Einführung in das Maschinelle Lernen I

Einführung in das Maschinelle Lernen I Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Stützvektormethode Katharina Morik LS 8 Informatik 8.11.2011 1 von 38 Gliederung 1 2 Lagrange-Optimierung 2 von 38 Übersicht über die Stützvektormethode (SVM) Eigenschaften

Mehr

Kurzskript zur Vorlesung Mathematik I für MB, WI/MB und andere Prof. Dr. Ulrich Reif

Kurzskript zur Vorlesung Mathematik I für MB, WI/MB und andere Prof. Dr. Ulrich Reif 14 Oktober 2008 1 Kurzskript zur Vorlesung Mathematik I für MB, WI/MB und andere Prof Dr Ulrich Reif Inhalt: 1 Vektorrechnung 2 Lineare Gleichungssysteme 3 Matrizenrechnung 4 Lineare Abbildungen 5 Eigenwerte

Mehr

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Support Vector Machines, Kernels

Support Vector Machines, Kernels Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen

Mehr

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Syntaktische und Statistische Mustererkennung. Bernhard Jung Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Organisatorisches Donnerstags, 13-15 (c.t.), Seminarraum

Mehr

Unüberwachtes Lernen

Unüberwachtes Lernen Unüberwachtes Lernen Mustererkennung und Klassifikation, Vorlesung No. 12 M. O. Franz 17.01.2008 Übersicht 1 Hauptkomponentenanalyse 2 Nichtlineare Hauptkomponentenanalyse 3 K-Means-Clustering Übersicht

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Stützvektormethode Katharina Morik, Uwe Ligges 10.6.2010 1 von 40 Gliederung 1 Hinführungen zur SVM 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 2 von

Mehr

5. Geraden und Ebenen im Raum 5.1. Lineare Abhängigkeit und Unabhängigkeit von Vektoren

5. Geraden und Ebenen im Raum 5.1. Lineare Abhängigkeit und Unabhängigkeit von Vektoren 5 Geraden und Ebenen im Raum 5 Lineare Abhängigkeit und Unabhängigkeit von Vektoren Definition: Die Vektoren a,a,,a n heißen linear abhängig, wenn mindestens einer dieser Vektoren als Linearkombination

Mehr

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus 3. Klassifikation Motivation Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus Beispiel: Bestimme die Herkunft eines Autos

Mehr

Principal Component Analysis (PCA)

Principal Component Analysis (PCA) Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen

Mehr

1 Einleitung. 2 Clustering

1 Einleitung. 2 Clustering Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick

Mehr

Signalentdeckungstheorie, Dichteschätzung

Signalentdeckungstheorie, Dichteschätzung Signalentdeckungstheorie, Dichteschätzung Mustererkennung und Klassifikation, Vorlesung No. 6 1 M. O. Franz 15.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001.

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung 26.10.2016, TP 2: Arbeiten von A.R.T. TP2: Tracking und Umfelderkennung Markerloses Tracking texturierte Objekte Umfelderkennung

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Gliederung Vorlesung Wissensentdeckung Stützvektormethode 1 Hinführungen zur SVM Katharina Morik, Claus Weihs 26.5.2009 2 Maximum Margin Methode Lagrange-Optimierung 3 Weich trennende SVM 1 von 40 2 von

Mehr

Das Wichtigste auf einen Blick

Das Wichtigste auf einen Blick Das Wichtigste auf einen Blick Zusammenfassung Geometrie.Parameterform einer Geraden Eine Gerade ist wie auch in der Analysis durch zwei Punkte A, B im Raum eindeutig bestimmt einer der beiden Punkte,

Mehr

Implizite Modellierung zur Objekterkennung in der Fernerkundung

Implizite Modellierung zur Objekterkennung in der Fernerkundung Implizite Modellierung zur Objekterkennung in der Fernerkundung Mitarbeiterseminar 20.01.2011 (IPF) Fakultät für Bauingenieur-, Geo- und Umweltwissenschaften KIT Universität des Landes Baden-Württemberg

Mehr

Inhaltliche Planung für die Vorlesung

Inhaltliche Planung für die Vorlesung Vorlesung: Künstliche Intelligenz - Mustererkennung - P LS ES S ST ME Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte der KI, PROLOG 2) Expertensysteme

Mehr

Einführung in Support Vector Machines (SVMs)

Einführung in Support Vector Machines (SVMs) Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation

Mehr

Support Vector Machines (SVM)

Support Vector Machines (SVM) Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-

Mehr

Objektmerkmale für die räumlich-spektrale Klassifikation

Objektmerkmale für die räumlich-spektrale Klassifikation Objektmerkmale für die räumlich-spektrale Klassifikation AG Geomatik Geographisches Institut Ruhr-Universität Bochum AK Fernerkundung, Bochum 2012 Übersicht Ansatz zur automatischen Bildinterpretation:

Mehr

Feature Selection / Preprocessing

Feature Selection / Preprocessing 1 Feature Selection / Preprocessing 2 Was ist Feature Selection? 3 Warum Feature Selection? Mehr Variablen führen nicht automatisch zu besseren Ergebnissen. Lernen von unwichtigen Daten Mehr Daten notwendig

Mehr

Diskriminatives syntaktisches Reranking für SMT

Diskriminatives syntaktisches Reranking für SMT Diskriminatives syntaktisches Reranking für SMT Fortgeschrittene Themen der statistischen maschinellen Übersetzung Janina Nikolic 2 Agenda Problem: Ranking des SMT Systems Lösung: Reranking-Modell Nutzung

Mehr

~ v 2. Abbildung 3: Zweiter Schritt des Gram-Schmidt-Verfahrens. k 1. i=1. v k = w k

~ v 2. Abbildung 3: Zweiter Schritt des Gram-Schmidt-Verfahrens. k 1. i=1. v k = w k v 1 v 1 v 2 v 2 W 2 -v (v, v ) 1 1 2 Abbildung 3: Zweiter Schritt des Gram-Schmidt-Verfahrens. k. Schritt: Subtraktion der Komponenten von ṽ k in Richtung von v 1,v 2,...,v k 1 und Normierung von w k auf

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Stützvektormethode Katharina Morik, Uwe Ligges 23.5.2013 1 von 48 Gliederung 1 Geometrie linearer Modelle: Hyperebenen Einführung von Schölkopf/Smola 2 Lagrange-Optimierung

Mehr

Ebenen in Normalenform

Ebenen in Normalenform Ebenen in Normalenform Normalenvektoren und Einheitsvektoren Definition Normalenvektor Ein Normalenvektor einer Ebene ist ein Vektor, der senkrecht auf einer Ebene steht (siehe Seite 12). Berechnung eines

Mehr

Klassifikation linear separierbarer Probleme

Klassifikation linear separierbarer Probleme Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear

Mehr

Lineare Klassifikationsmethoden

Lineare Klassifikationsmethoden Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum

Mehr

Übungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 05/06. Musterlösung 11

Übungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 05/06. Musterlösung 11 ALBERT-LUDWIGS-UNIVERSITÄT FREIBURG INSTITUT FÜR INFORMATIK Lehrstuhl für Mustererkennung und Bildverarbeitung Prof. Dr.-Ing. Hans Burkhardt Georges-Köhler-Allee Geb. 05, Zi 0-09 D-790 Freiburg Tel. 076-03

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse Martin Hutzenthaler & Dirk Metzler http://evol.bio.lmu.de/_statgen 6. Juli 2010 Übersicht 1 Ruf des Kleinspechts 2 Modell Vorgehen

Mehr

SKOPOS Webinar 22. Mai 2018

SKOPOS Webinar 22. Mai 2018 SKOPOS Webinar 22. Mai 2018 Marktforschung 2020: Künstliche Intelligenz und automatische Text Analysen? Christopher Harms, Consultant Research & Development 2 So? Terminator Exhibition: T-800 by Dick Thomas

Mehr

Abitur 2016 Mathematik Geometrie V

Abitur 2016 Mathematik Geometrie V Seite http://www.abiturloesung.de/ Seite Abitur Mathematik Geometrie V Betrachtet wird der abgebildete Würfel A B C D E F G H. Die Eckpunkte D, E, F und H dieses Würfels besitzen in einem kartesischen

Mehr

Inhalt. 6.1 Motivation. 6.2 Klassifikation. 6.3 Clusteranalyse. 6.4 Asszoziationsanalyse. Datenbanken & Informationssysteme / Kapitel 6: Data Mining

Inhalt. 6.1 Motivation. 6.2 Klassifikation. 6.3 Clusteranalyse. 6.4 Asszoziationsanalyse. Datenbanken & Informationssysteme / Kapitel 6: Data Mining 6. Data Mining Inhalt 6.1 Motivation 6.2 Klassifikation 6.3 Clusteranalyse 6.4 Asszoziationsanalyse 2 6.1 Motivation Data Mining and Knowledge Discovery zielt darauf ab, verwertbare Erkenntnisse (actionable

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Prüfungsteil B, Aufgabengruppe 2: Geometrie

Prüfungsteil B, Aufgabengruppe 2: Geometrie Bundesabitur Mathematik: Bayern 01 Aufgabe 1 a) 1. SCHRITT: VEKTOR CH BESTIMMEN CH = ( 8 108 ) ( 10) = ( 0 ). 3. SCHRITT: LÄNGE DES VEKTORS BERECHNEN CH = ( ) + 3 =. 3. SCHRITT: BERECHNUNG DES FLÄCHENINHALTS

Mehr

Merkmalserkennungs- und Klassifikationssystem (MEKS)

Merkmalserkennungs- und Klassifikationssystem (MEKS) Merkmalserkennungs- und Klassifikationssystem (MEKS) S. Hafner Univ.-GHS Paderborn, Abteilung Meschede Tel.: (0291) 9910-330, Fax: (0291) 9910-330 Email: Hafner@meschede.uni-paderborn.de Kurzfassung Die

Mehr

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation

Kapitel 4: Data Mining DATABASE SYSTEMS GROUP. Überblick. 4.1 Einleitung. 4.2 Clustering. 4.3 Klassifikation Überblick 4.1 Einleitung 4.2 Clustering 4.3 Klassifikation 1 Klassifikationsproblem Gegeben: eine Menge O D von Objekten o = (o 1,..., o d ) O mit Attributen A i, 1 i d eine Menge von Klassen C = {c 1,...,c

Mehr

03. Vektoren im R 2, R 3 und R n

03. Vektoren im R 2, R 3 und R n 03 Vektoren im R 2, R 3 und R n Unter Verwendung eines Koordinatensystems kann jedem Punkt der Ebene umkehrbar eindeutig ein Zahlenpaar (x, y) zugeordnet werden P (x, y) Man nennt x und y die kartesischen

Mehr

Mustererkennung. Merkmalsreduktion. R. Neubecker, WS 2016 / Übersicht

Mustererkennung. Merkmalsreduktion. R. Neubecker, WS 2016 / Übersicht Mustererkennung Merkmalsreduktion R. Neubecker, WS 2016 / 2017 Übersicht 2 Merkmale Principal Component Analysis: Konzept Mathematische Formulierung Anwendung Eigengesichter 1 Merkmale 3 (Zu) Viele Merkmale

Mehr

Sie können Ihre Übungsblätter vorne in den Abgabe -Karton legen

Sie können Ihre Übungsblätter vorne in den Abgabe -Karton legen Sie können Ihre Übungsblätter vorne in den Abgabe -Karton legen 1 22.06.16 Kognitive Systeme Übung 2 22.06.2016 Klassifikation und Spracherkennung Matthias Sperber, Thai Son Nguyen KIT, Institute for Anthropomatics

Mehr

Ebenengleichungen und Umformungen

Ebenengleichungen und Umformungen Ebenengleichungen und Umformungen. Januar 7 Ebenendarstellungen. Parameterdarstellung Die Parameterdarstellung einer Ebene ist gegeben durch einen Stützvektor r, der einen Punkt auf der Ebene angibt und

Mehr

Maschinelles Lernen II

Maschinelles Lernen II Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen II Niels Landwehr Organisation Vorlesung/Übung 4 SWS. Ort: 3.01.2.31. Termin: Vorlesung: Dienstag, 10:00-11:30.

Mehr

03. Vektoren im R 2, R 3 und R n

03. Vektoren im R 2, R 3 und R n 03 Vektoren im R 2, R 3 und R n Unter Verwendung eines Koordinatensystems kann jedem Punkt der Ebene umkehrbar eindeutig ein Zahlenpaar (x, y) zugeordnet werden P (x, y) Man nennt x und y die kartesischen

Mehr

k-nächste-nachbarn-schätzung

k-nächste-nachbarn-schätzung k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil

Mehr

Abitur 2010 Mathematik LK Geometrie V

Abitur 2010 Mathematik LK Geometrie V Seite http://www.abiturloesung.de/ Seite Abitur Mathematik LK Geometrie V Gegeben sind in einem kartesischen Koordinatensystem des R der Punkt A( ) und die Menge der Punkte B k ( k) mit k R. Die Punkte

Mehr

Lineare Methoden zur Klassifizierung

Lineare Methoden zur Klassifizierung Lineare Methoden zur Klassifizierung Kapitel 3 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität

Mehr

3 Diskriminationsanalyse 3.1 Diskriminationsanalyse mit zwei Gruppen

3 Diskriminationsanalyse 3.1 Diskriminationsanalyse mit zwei Gruppen Lineare Diskrimination mit zwei Gruppen 6.5.3 - - 3 Diskriminationsanalyse 3. Diskriminationsanalyse mit zwei Gruppen Schreibweise: p unabhängige Merkmale: X, X,..., X p (metrisch; auch ordinal möglich,

Mehr

Mathematik 12. Jahrgangsstufe - Hausaufgaben

Mathematik 12. Jahrgangsstufe - Hausaufgaben Mathematik. Jahrgangsstufe - Hausaufgaben Inhaltsverzeichnis Raumgeometrie. Punkte einer Geraden............................... Punkte und Geraden................................ Geraden und Punkte................................5

Mehr

Statistical Learning

Statistical Learning Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in

Mehr

Kartographische Visualisierung

Kartographische Visualisierung Kartographische Visualisierung Kartenmodellierung Modellierung von Karten Ziel der Kartenmodellierung: Geodaten angemessen abbilden (repräsentieren) Informationen mit der Karte vermitteln (präsentieren).

Mehr

Vektorprodukt. Satz: Für a, b, c V 3 und λ IR gilt: = a b + a c (Linearität) (Linearität) b = λ

Vektorprodukt. Satz: Für a, b, c V 3 und λ IR gilt: = a b + a c (Linearität) (Linearität) b = λ Vektorprodukt Satz: Für a, b, c V 3 und λ IR gilt: 1 a b = b a (Anti-Kommutativität) ( ) 2 a b + c ( 3 a λ ) b = λ = a b + a c (Linearität) ( a ) b (Linearität) Satz: Die Koordinatendarstellung des Vektorprodukts

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern

Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern Chahine Abid Bachelor Arbeit Betreuer: Prof. Johannes Fürnkranz Frederik Janssen 28. November 2013 Fachbereich Informatik Fachgebiet Knowledge

Mehr

Das Perzeptron. Volker Tresp

Das Perzeptron. Volker Tresp Das Perzeptron Volker Tresp 1 Einführung Das Perzeptron war eines der ersten ernstzunehmenden Lernmaschinen Die wichtigsten Elemente Sammlung und Vorverarbeitung der Trainingsdaten Wahl einer Klasse von

Mehr

Maschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008

Maschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008 Maschinelles Lernen I Einführung Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 22. April 2008 Inhalt Einführung Lernen Maschinelle Lernverfahren im Überblick Phonetische Anwendungsbeispiele

Mehr

SEMINAR KLASSIFIKATION & CLUSTERING EINFÜHRUNG. Stefan Langer CIS Universität München Wintersemester 2016/17

SEMINAR KLASSIFIKATION & CLUSTERING EINFÜHRUNG. Stefan Langer CIS Universität München Wintersemester 2016/17 SEMINAR KLASSIFIKATION & CLUSTERING EINFÜHRUNG Stefan Langer CIS Universität München Wintersemester 2016/17 stefan.langer@cis.uni-muenchen.de Anmeldung Bereits erfolgt über LSF Falls alternative Email

Mehr

6.6. Abstandsbestimmungen

6.6. Abstandsbestimmungen 6.6. Abstandsbestimmungen 6. Geraden und Ebenen im Raum In diesem Kapitel werden folgende Fälle vorgestellt:. Abstand zweier Punkte. Abstand zweier paralleler Geraden 3. Abstand einer Ebene zu einer zur

Mehr

Deskriptive Beschreibung linearer Zusammenhänge

Deskriptive Beschreibung linearer Zusammenhänge 9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,

Mehr

Die Familie der χ 2 (n)-verteilungen

Die Familie der χ 2 (n)-verteilungen Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +

Mehr

Die Familie der χ 2 (n)-verteilungen

Die Familie der χ 2 (n)-verteilungen Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +

Mehr

One-class Support Vector Machines

One-class Support Vector Machines One-class Support Vector Machines Seminar Wissensbasierte Systeme Dietrich Derksen 3. Januar 204 Motivation One-class Support Vector Machines: Detektion von Ausreißern (Systemfehlererkennung) Klassifikation

Mehr

Projekt-INF Folie 1

Projekt-INF Folie 1 Folie 1 Projekt-INF Entwicklung eines Testbed für den empirischen Vergleich verschiedener Methoden des maschinellen Lernens im Bezug auf die Erlernung von Produktentwicklungswissen Folie 2 Inhalt Ziel

Mehr

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Optimierung für Wirtschaftsinformatiker: Lineare Programme Optimierung für Wirtschaftsinformatiker: Lineare Programme Dr. Nico Düvelmeyer Dienstag, 31. Mai 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Lineare Programme Allgemeine Form 2 Spezielle Darstellungen

Mehr

How To Create A Panorama Image From A Photoelectric Image From An Image From The Camera (I)

How To Create A Panorama Image From A Photoelectric Image From An Image From The Camera (I) Chapter 3 Image Registration Distributed Algorithms for Einführung (I) Definition: Image Registration Gegeben: 2 Bilder der gleichen Szene aber aufgenommen aus unterschiedlichen Perspektiven Gesucht: Transformation,

Mehr

Bild-Erkennung & -Interpretation

Bild-Erkennung & -Interpretation Kapitel I Bild-Erkennung & -Interpretation FH Aachen / Jülich, FB 9 Prof. Dr. rer.nat. Walter Hillen (Dig Img I) 1 Einführung Schritte zur Bilderkennung und Interpretation: Bild-Erfassung Vorverarbeitung

Mehr

Winter 2011/ Projekt kd- Trees. achsenparallelen Farbwürfel angeordnet. Die beiden schwarz- weiß- Ecken verbindet eine Graulinie.

Winter 2011/ Projekt kd- Trees. achsenparallelen Farbwürfel angeordnet. Die beiden schwarz- weiß- Ecken verbindet eine Graulinie. Praktikum Algorithmik Prof. Dr. Heiner Klocke Winter 2011/2012 12.11.2011 1. Erläuterung des Umfeldes Projekt kd- Trees Bei der Bildanalyse sollen Farbpunkte eines Bildes klassifiziert werden. Die Farbe

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse

Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse Wahrscheinlichkeitsrechnung und Statistik für Biologen Diskriminanzanalyse Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 3. Juli 2013 Übersicht 1 Ruf des Kleinspechts 2 Modell Vorgehen der

Mehr

Kapitel 4: Data Mining

Kapitel 4: Data Mining LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS Skript zur Vorlesung: Einführung in die Informatik: Systeme und Anwendungen Sommersemester 2017 Kapitel 4: Data Mining Vorlesung:

Mehr