Graphische Datenverarbeitung und Bildverarbeitung
|
|
- Lucas Weiner
- vor 7 Jahren
- Abrufe
Transkript
1 Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Merkmale und Klassifikation Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 1 Einordnung in die Inhalte der Vorlesung Einführung mathematische und allgemeine Grundlagen Hardware für Graphik und Bildverarbeitung Graphische Grundalgorithmen (Zeichnen graphischer Primitive, Methoden für Antialaising, Füllalgorithmen) Bildaufnahme (Koordinatensysteme, Transformation) Durchführung der Bildverarbeitung und -analyse Fourier Transformation Bildrestauration Bildverbesserung (Grauwertmodifikation, Filterverfahren) Segmentierung Morphologische Operationen Merkmalsermittlung und Klassifikation Erzeugung von Bildern in der Computergraphik Geometrierepräsentationen Clipping in 2D und 3D Hidden Surface Removal Beleuchtungsberechnung Shading Schattenberechnung Volumenrendering als Beispiel für die Nutzung beider Gebiete Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 2
2 Wiederholung wichtiger Begriffe Erosion und Dilatation Opening und Closing Hit-or-Miss-Operatoren Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation Merkmale Die Klassifikation in Bildern erfolgt anhand von Merkmalen Merkmale können sein: - Eigenschaften des Bildpunktes - Eigenschaften von Segmenten Bildpunkt Bounding Box eines Segments Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 4
3 Entwurf eines Erkennungssystems Aufgabe: Einteilung der Segmente eines Bildes in Klassen Problemanalyse Merkmalsauswahl Auswahl des Klassifikationsverfahrens Qualitätsanalyse Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 5 Merkmal: Skalar, das einen bestimmten Aspekt des Segments beschreibt Merkmale des Segmentinneren Merkmale des Segmentrandes Merkmale über Abhängigkeiten zwischen benachbarten Segmenten Merkmalsvektor: lineare Anordnung von n quantitativen Merkmalen T m = m, m,.., ) ( 1 2 Merkmale m n Merkmalsraum: Zuordnung jedes Merkmals zu einer Achse des m n-dimensionalen Raumes 2 m = ( m1, m2, m3) m 3 Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 6 m 1
4 Anforderungen an die Merkmale Gute Unterscheidungsmöglichkeiten Hohe Zuverlässigkeit Unabhängigkeit Geringe Anzahl Gewinnung von Merkmalen häufig heuristisch mit anschließender systematischer Auswahl geeigneter Merkmale Nutzung von normierten Merkmalen Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 7 Postulate der numerischen Klassifikation Es steht eine repräsentative Stichprobe zur Verfügung. Ein Muster besitzt Merkmale, die für seine Zugehörigkeit zu seiner Klasse charakteristisch sind. Die Merkmale bilden für Muster einer Klasse einen einigermaßen kompakten Bereich im Merkmalsraum. Die Bereiche verschiedener Klassen sind getrennt. Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 8
5 16.2 Merkmale von Bildpunkten Grauwerte, Farbwerte Interessant für Segmentierung in mehrkanaligen Bildern, z.b. bilden Farbkanäle einen dreidimensionalen Merkmalsraum Originalbild Blauer Kanal Grüner Kanal Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation Merkmale von Segmenten Grauwertmerkmale: mittlerer Grauwert, Streuung der Grauwerte, minimaler und maximaler Grauwert Texturmerkmale: Merkmale aus der Co-Occurence-Matrix, Merkmale aus dem Frequenzspektrum Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 10
6 Merkmale von Segmenten Einfache Formbasierte Merkmale: Flächeninhalt F, Umfang U, Ausdehnung des Segmentes entlang seiner Hauptachsen, Größe des kleinsten umschließenden Rechtecks, Flächendifferenz zwischen der Segmentfläche und ihrer konvexer Hülle, Kreisähnlichkeit ( (4Fπ)/U 2 ) Längste Diagonale Bounding Box Differenz zur konvexen Hülle Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 11 Merkmale von Segmenten Kettencode: Berechnung von Krümmungsmerkmalen Relativer Kettencode: Abweichung der Richtung um ein Vielfaches von 45 im Uhrzeigersinn (-) oder entgegengesetzt (+) Fourierdeskriptoren: a r n n 2 n m= 1 2 n nm 2πi L 1 L 1 L = xme bn = y L 1 L 1 = a + b w n rn = r 1 m= 1 nm 2πi L 1 Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 12 m e
7 Merkmale von Segmenten Topologische Merkmale: Sie ändern sich auch dann nicht, wenn sich die Form des Objekt verändert, solange es nicht zerrissen oder geklebt wird. Beispiele: Anzahl der Löcher L Anzahl C der verbundenen Teile eines Objekts Eulerzahl: E=C-L E=0 E=-1 Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation Welche Merkmale sind geeignet? Merkmale dienen der Unterscheidung zwischen unterschiedlichen Segmenten. Falls möglich, sollten Merkmale aus den vermuteten Objekteigenschaften abgeleitet werden. Wenn n Objekttypen unterschieden werden sollen, dann muß das m- dimensionale Histogramm des Merkmalsraums wenigstens n unterscheidbare Häufungspunkte enthalten. Aus der Nähe im Merkmalsraum sollte auf Ähnlichkeit der Objekte geschlossen werden. Die Unterscheidbarkeit nach Merkmalswerten nimmt nicht ab, wenn die Dimension des Merkmalsraums erweitert wird. Je weniger Merkmale zur Unterscheidung notwendig sind, desto effektiver wird die Entscheidungsfindung sein. Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 14
8 16.5 Dimensionsreduktion im Merkmalsraum Klassifikation wird aufwendiger, je größer die Dimension des Merkmalsraumes ist. Vorhandene Information durch den höherdimensionalen Merkmalsraum wird reduziert Wann kann auf diese Information verzichtet werden? Wenn die Klassifizierung auch nach der Reduktion möglich ist. Durchschnittliche Abweichung von der Richtung der größten Ausdehnung des Merkmals Gesucht: Richtung der größten Ausdehnung durchschnittliche Abweichung davon Kovarianz im Merkmalsraum Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 15 Kovarianzmatrix im Merkmalsraum Die Kovarianzmatrix C ist eine quadratische, symmetrische Matrix bestehend aus allen Varianzen und Kovarianzen zwischen Vektoren m(x 1,...,x n ) im n-dimensionalen Merkmalsraum: c C = cn 1 c = ij M 1 m = i M 11 1 c M m k= 0 i, j... c ( )( ) ik nn m i m M: Anzahl der Trainingsdaten i,j: betrachtetes Merkmal i m j m j Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 16
9 m 1 Eigenvektoren und Eigenwerte der Kovarianzmatrix Eigenvektoren e und Eigenwerte λ einer Matrix M sind diejenigen, für die gilt: r r r r M e = λe λ = m 0 ( M λi) e = 0 det( M I) 0 Die Eigenwerte beschreiben die Varianz der Werte entlang der jeweiligen Achse Sortierung nach der Größe Die zu den Eigenwerten korrespondierenden Eigenvektoren der Kovarianzmatrix beschreiben in absteigender Reihenfolge eine Reihe von senkrecht aufeinander stehenden Achsen durch den Schwerpunkt des Systems Karhunen-Loeve-Transformation Hauptachsentransformation Hotelling-Transformation Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 17 Hauptachsentransformation Praktische Berechnung: 1. Berechnung der Kovarianzmatrix C der Merkmalsvektoren m der Testdaten 2. Berechnung der Eigenwerte λ und Eigenvektoren e von C 3. Umordnen der Eigenwerte, so dass gilt: λ λ gleichfalls Umordnung der Matrix E der Eigenvektoren e 4. Falls ein Eigenwert λ n =0 ist, kann die betreffende Hauptachse gestrichen werden. Falls ein Eigenwert λ n nahe Null liegt, kann sie unter Informationsverlust gestrichen werden 5. Berechnung der neuen unkorrelierten Merkmale: m r unkorr = m r korr E λ N 1 Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 18
10 Hauptachsentransformation Resultat der Hauptachsentransformation: Dimensionsreduktion, Dekorrelation der Merkmale m 2 m neu2 m 1 Achtung! m neu1 Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation Merkmalsbasierte Klassifikation Annahme: Wenn die Merkmale von Objekten aus unterschiedlichen Klassen sich unterscheiden, dann sollte dies im Merkmalsraum sichtbar sein Häufigkeit Fläche Klassifikation: Entscheidungsfunktion auf den Merkmalsvektoren D(m 1,...,m n ) = i Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 20
11 Merkmalsbasierte Klassifikation - Mehrdimensionaler Merkmalsraum Häufigkeit Häufigkeit Fläche Exzentrizität ,2 0.4,4 0.6,6 0.8,8 1 Exzentrizität 0,8 0,6 0,4 0,2 0 Zweidimensionale Verteilung Fläche Ziel: Cluster identifizieren, in denen sich die Merkmalsverktoren einzelner Klassen befinden Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 21 Varianten eines Klassifizierungssystems bekannte Stichprobe oder Clusteralgorithmus t Realisierungen k i der Klassen K i, i=0,..,t-1 Verbesserung von k j unbekannter Merkmalsvektor Minimum-Distance Bayes scher Klassifikator neuronale Netze Klassifizierung zur Klasse K j Strategien der numerischen Klassifikation: fest dimensionierte überwachte Klassifikation fest dimensionierte unüberwachte Klassifikation überwacht lernende Klassifikation unüberwacht lernende Klassifikation Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 22
12 Quadermethode Direkter Weg für zweidimensionale Merkmalsräume: Die Grenzen der Cluster um ein Clusterzentrum werden interaktiv bestimmt. Exzentrizität 0,8 0,6 0,4 0,2 0 Fläche Linsen Pfeffer Sonnenblumenkerne Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 23 Quadermethode Sonnenblumenkerne Linsen Pfeffer sonstiges Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 24
13 Minimum-Distanz-Klassifikator 0,8 0,6 Exzentrizität 0,4 0,2 0 Fläche Jeder Merkmalsvektor wird demjenigen Cluster zugeordnet, zu dessen Zentrum er am nächsten liegt. Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 25 Algorithmus Gegeben: klassifizierte Stichprobe Vorgehensweise: 1. Berechne die Klassenmittelpunkte im Merkmalsraum für alle in der Stichprobe vorkommenden Klassen. 2. Berechne für zu klassifizierende Objekte anhand des ermittelten Merkmalsvektors den Abstand zu allen Klassenmittelpunkten. 3. Ordne das Objekt der Klasse zu, zu der der kürzeste Abstand auftrat. Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 26
14 Gegeben: klassifizierte Stichprobe Regel: knn-klassifikation (k-nearest Neighbour Classification) Ordne das Muster der Klasse zu, zu der sein nächster Nachbar auch gehört bzw. die Mehrzahl seiner k nächsten Nachbarn Vorteil: Man erhält im allgemeinen relativ komplizierte nichtlineare Trennflächen Nachteil:hoher Speicher und Berechnungsaufwand knn - Klassifikator Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation Klassifikationsfehler Merkmal 2 Merkmal 1 Fehler 1. Art: Bereich, der zum Muster gehört, aber nicht in der Stichprobe erfaßt wurde Fehler 2. Art: Bereich, der nicht zum Muster gehört, aber in der Stichprobe erfaßt wurde Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 28
15 Clustering durch Agglomeration (Bottom-up, Merging) Annahmen: Die Anzahl der Cluster ist nicht bekannt. Distanz zum Cluster-Zentrum soll minimiert werden Gesucht: Anzahl der Cluster und Lage der Cluster-Zentren 1. Schritt: Jeder Merkmalsvektor bildet das Zentrum eines Clusters 2. Schritt: Suche die beiden am dichtesten liegende Clusterzentren und vereinige die beiden Cluster. Berechne ein neues Clusterzentrum Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 29 Clustering durch Agglomeration Wiederhole Schritt 2 solange, bis nur noch ein Cluster übrigbleibt. Speichere die Zusammenfassung der Cluster in einem Baum Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 30
16 Clustering durch Agglomeration Resultat der vorletzten Stufe der Clustering-Hierarchie Hierarchisches Clustering Verfahren: Auswahl der Anzahl der Cluster durch Wahl der Hierarchiestufe Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation Divisives Clustering Verfahren (Top-down, Splitting) Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 32
17 Partitional Clustering Annahmen: Gesucht: Die Anzahl der Cluster ist in der Regel bekannt. Distanz zum Cluster-Zentrum soll minimiert werden Lage der Cluster-Zentren (kein Aufbau einer Hierarchie) Initialisierung: Cluster-Zentren setzen (beliebig oder anhand von identifizierten Segmenten/Pixeln Iterationsschritt: Berechne für jeden Merkmalsvektor das am dichtesten liegende Clusterzentrum, klassifiziere es entsprechend, berechne neue Clusterzentren. Abbruchbedingung: keine Neu- oder Umklassifizierungen beim Iterationsschritt Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 33 Zusammenfassung Klassifikation Ziel einer Klassifikation ist die Zuordnung von Bedeutung anhand ausgewerteter Merkmale Quader-Methode, Minimum-Distanz- Klassifikation, knn-klassifikation Die Klassifikation ist umso einfacher, je geringer die Anzahl der Merkmale ist Eine Merkmalsreduktion kann mit Hilfe der Karhunen-Loeve-Transformation erfolgen, wobei zu beachten ist, daß nur die Repräsentation aller Klassen, nicht aber die Trennbarkeit der Klassen optimiert wird. Die Zuordnung nach Klassen kann auch durch einer Cluster-Analyse erfolgen. Cluster sind Gebiet im Merkmalsraum, in denen eine Häufung von Merkmalsvektoren vorliegt. Clustering-Verfahren können (müssen aber nicht) die Kenntnis der Anzahl der Klassen voraussetzen. Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 34
18 Stufen der Bildverarbeitung Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 35
Graphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Morphologische Operatoren Graphische DV und BV, Regina Pohle, 5. Morphologische Operatoren Einordnung in die Inhalte der Vorlesung
MehrGraphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Segmentierung Graphische DV und BV, Regina Pohle, 13. Segmentierung 1 Einordnung in die Inhalte der Vorlesung Einführung mathematische
MehrGraphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Antialiasing Graphische DV und BV, Regina Pohle, 5. Antialiasing 1 Einordnung in die Inhalte der Vorlesung Einführung mathematische
MehrGraphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Bildverbesserung - Filterung Graphische DV und BV, Regina Pohle,. Bildverbesserung - Filterung Einordnung in die Inhalte der Vorlesung
MehrGraphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Bildverbesserung - Grauwertmodifikation Graphische DV und BV, Regina Pohle, 10. Bildverbesserung - Grauwertmodifikation 1 Einordnung
MehrGraphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Fourier-Transformation Graphische DV und BV, Regina Pohle, 8. Fourier-Transformation 1 Einordnung in die Inhalte der Vorlesung Einführung
MehrTechnische Universität
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik IX Grundlagen der Klassifikation Proseminar Grundlagen der Bildverarbeitung Christina Katz Betreuer: Dr. Michael
Mehr2D Graphik: Klassifikation
LMU München Medieninformatik Butz/Hilliges 2D Graphics WS2005 20.01.2006 Folie 1 2D Graphik: Klassifikation Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 20. Januar 2006 LMU München Medieninformatik
MehrBild-Erkennung & -Interpretation
Kapitel I Bild-Erkennung & -Interpretation FH Aachen / Jülich, FB 9 Prof. Dr. rer.nat. Walter Hillen (Dig Img I) 1 Einführung Schritte zur Bilderkennung und Interpretation: Bild-Erfassung Vorverarbeitung
MehrGraphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Beleuchtungsberechnung Graphische DV und BV, Regina Pohle, 21. Beleuchtungsberechnung 1 Einordnung in die Inhalte der Vorlesung
MehrGraphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Verdeckung Graphische DV und BV, Regina Pohle, 20. Verdeckung Einordnung in die Inhalte der Vorlesung Einführung mathematische und
MehrMustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle
Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators
MehrGrundlagen der Bildverarbeitung
Grundlagen der Bildverarbeitung Inhaltsverzeichnis Vorwort 9 Kapitel 1 Einführung 13 1.1 Anwendungen der digitalen Bildverarbeitung 16 1.2 Algorithmische Verarbeitung von Bildinformation 17 1.3 Zu diesem
MehrGrundlagen der Bildverarbeitung Klaus D. Tönnies
Grundlagen der Bildverarbeitung Klaus D. Tönnies ein Imprint von Pearson Education München Boston San Francisco Harlow, England Don Mills, Ontario Sydney Mexico City Madrid Amsterdam Inhaltsverzeichnis
MehrPrincipal Component Analysis (PCA)
Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen
Mehr1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3
Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................
MehrGraphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Bildverbesserung - Filterung Graphische DV und BV Regina Pohle. Bildverbesserung - Filterung Einordnung in die Inhalte der Vorlesung
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrWas bisher geschah. Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch
Was bisher geschah Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch Punktoperationen (Farbtransformation) f : col1 col
MehrGrundlagen der Bildverarbeitung Klaus D. Tönnies
Grundlagen der Bildverarbeitung Klaus D. Tönnies ein Imprint von Pearson Education München Boston San Francisco Harlow, England Don Mills, Ontario Sydney Mexico City Madrid Amsterdam Grundlagen der Bildverarbeitung
MehrVorlesung Digitale Bildverarbeitung Sommersemester 2013
Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches
MehrÜbersicht der Vorlesung
Übersicht der Vorlesung. Einführung. Bildverarbeitung. Morphologische Operationen 4. Bildsegmentierung 5. Merkmale von Objekten 6. Klassifikation 7. Dreidimensionale Bildinterpretation 8. Bewegungsanalyse
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten
MehrWas bisher geschah. Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch
Was bisher geschah Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch Punktoperationen (Farbtransformation) f : col 1 col
MehrÜbungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen
Übungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen Übung: Dipl.-Inf. Tina Walber Vorlesung: Dr.-Ing. Marcin Grzegorzek Fachbereich Informatik, Universität Koblenz Landau Ausgabe: 31.0.2010
MehrEinführung in die digitale Bildverarbeitung
FRANZIS EINFUHRUNG Dr. Hartmut Ernst Einführung in die digitale Bildverarbeitung Grundlagen und industrieller Einsatz mit zahlreichen Beispielen Mit 290 Abbildungen FRANZIS Inhalt 1 Einführung 13 1.1 Was
MehrGraphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Graphische Grundalgorithmen Graphische DV und BV, Regina Pohle, 4. Algorithmen für graphische Primitive 1 Einordnung in die Inhalte
MehrEigenwerte (Teschl/Teschl 14.2)
Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =
MehrMethoden zur Cluster - Analyse
Kapitel 4 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics
Mehr5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften
5. Clusteranalyse Vorbemerkungen 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer
MehrMustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator
Mustererkennung Bayes-Klassifikator R. Neubecker, WS 2016 / 2017 Bayes-Klassifikator 2 Kontext Ziel: Optimaler Klassifikator ( = minimaler Klassifikationsfehler), basierend auf Wahrscheinlichkeitsverteilungen
MehrKlassifikation durch direkten Vergleich (Matching)
Klassifikation durch direkten Vergleich (Matching) Eine triviale Lösung für die Klassifikation ergibt sich durch direkten Vergleich des unbekannten Musters in allen Erscheinungsformen der Äquivalenzklasse
MehrMustererkennung. Merkmalsreduktion. R. Neubecker, WS 2016 / Übersicht
Mustererkennung Merkmalsreduktion R. Neubecker, WS 2016 / 2017 Übersicht 2 Merkmale Principal Component Analysis: Konzept Mathematische Formulierung Anwendung Eigengesichter 1 Merkmale 3 (Zu) Viele Merkmale
MehrComputergrafik 2: Klassifikation
Computergrafik 2: Klassifikation Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz michael.rohs@ifi.lmu.de MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies (Grundlagen
Mehr4.Tutorium Multivariate Verfahren
4.Tutorium Multivariate Verfahren - Clusteranalyse - Hannah Busen: 01.06.2015 und 08.06.2015 Nicole Schüller: 02.06.2015 und 09.06.2015 Institut für Statistik, LMU München 1 / 17 Gliederung 1 Idee der
MehrUnüberwachtes Lernen
Unüberwachtes Lernen Mustererkennung und Klassifikation, Vorlesung No. 12 M. O. Franz 17.01.2008 Übersicht 1 Hauptkomponentenanalyse 2 Nichtlineare Hauptkomponentenanalyse 3 K-Means-Clustering Übersicht
MehrVorbereitungsaufgaben
Praktikum Bildverarbeitung / Bildinformationstechnik Versuch BV 4 / BIT 3: Mustererkennung Paddy Gadegast, CV00, 160967 Alexander Opel, CV00, 16075 Gruppe 3 Otto-von-Guericke Universität Magdeburg Fakultät
MehrKlassifikation und Ähnlichkeitssuche
Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell
Mehr5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften
5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer Clusterstruktur kennen, verschiedene
MehrGraphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Clippen in 2D und 3D Graphische DV und BV, Regina Pohle, 19. Clippen in 2D und 3D 1 Einordnung in die Inhalte der Vorlesung Einführung
Mehr4. Segmentierung von Objekten Video - Inhaltsanalyse
4. Segmentierung von Objekten Video - Inhaltsanalyse Stephan Kopf Inhalt Vorgehensweise Berechnung der Kamerabewegungen zwischen beliebigen Bildern Transformation eines Bildes Hintergrundbilder / Panoramabilder
Mehr1 Einleitung Einordnung des Gebietes Aufbau des Buches Philosophie Inhalte Einige Lehrbücher...
Inhaltsverzeichnis 1 Einleitung... 1 1.1 Einordnung des Gebietes... 1 1.2 Aufbau des Buches... 3 1.2.1 Philosophie... 3 1.2.2 Inhalte... 5 1.3 Einige Lehrbücher... 6 2 Allgemeine Begriffe... 11 2.1 Einige
MehrKapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
Mehr... Text Clustern. Clustern. Einführung Clustern. Einführung Clustern
Clustern Tet Clustern Teile nicht kategorisierte Beispiele in disjunkte Untermengen, so genannte Cluster, ein, so daß: Beispiele innerhalb eines Clusters sich sehr ähnlich Beispiele in verschiedenen Clustern
MehrMultivariate Verteilungen. Gerhard Tutz LMU München
Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS
MehrMultivariate Verfahren
Multivariate Verfahren Lineare Regression Zweck: Vorhersage x Dimensionsreduktion x x Klassifizierung x x Hauptkomponentenanalyse Korrespondenzanalyse Clusteranalyse Diskriminanzanalyse Eigenschaften:
MehrHauptseminar KDD SS 2002
Hauptseminar KDD SS 2002 Prof. Dr. Hans-Peter Kriegel Eshref Januzaj Karin Kailing Peer Kröger Matthias Schubert Session: Clustering HS KDD, Ludwig-Maximilians-Universität München, SS 2002 1 Inhalt Einleitung
MehrKlausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min
Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,
MehrKapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.
Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich
MehrInhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015
Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler
MehrInhaltliche Planung für die Vorlesung
Vorlesung: Künstliche Intelligenz - Mustererkennung - P LS ES S ST ME Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte der KI, PROLOG 2) Expertensysteme
MehrKorrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:
Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise
MehrMathematik II Frühjahrssemester 2013
Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik
Mehrgeometrische Merkmale densitometrische (photometrische) Merkmale (aus Grauwerthistogramm) Texturmerkmale Farbmerkmale
7. Merkmalsextraktion Motivation: in der Bildverarbeitung und -analyse ist eine präzise Beschreibung auch komplizierter Objekte notwendig in vielen Anwendungen ist es wichtig, Klassen von Formen zu erkennen
MehrModul Digitale Bildverarbeitung SS16 Bestandteile der Lehrveranstaltung und Prüfung: Vorlesungen Übungsserien Praktika (ImageJ) bis Mai 2016 Projekt
Modul Digitale Bildverarbeitung SS16 Bestandteile der Lehrveranstaltung und Prüfung: Vorlesungen Übungsserien Praktika (ImageJ) bis Mai 2016 Projekt im Juni 2016 Themen: Digitale Bilder, Eigenschaften
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrLineare Algebra. Mathematik II für Chemiker. Daniel Gerth
Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Bildanalyse Literatur David A. Forsyth: Computer Vision i A Modern Approach. Mark S. Nixon und Alberto S. Aguado: Feature Extraction and Image Processing. Ulrich Schwanecke:
MehrBC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2
Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete
MehrEigenwerte und Eigenvektoren von Matrizen
Eigenwerte und Eigenvektoren von Matrizen Betrachtet wird eine (n,n)-matrix A. Eine Zahl λ heißt Eigenwert von A, wenn ein Vektor v existiert, der nicht der Nullvektor ist und für den gilt: A v = λ v.
MehrWinter 2011/ Projekt kd- Trees. achsenparallelen Farbwürfel angeordnet. Die beiden schwarz- weiß- Ecken verbindet eine Graulinie.
Praktikum Algorithmik Prof. Dr. Heiner Klocke Winter 2011/2012 12.11.2011 1. Erläuterung des Umfeldes Projekt kd- Trees Bei der Bildanalyse sollen Farbpunkte eines Bildes klassifiziert werden. Die Farbe
MehrSupport Vector Machines (SVM)
Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-
MehrComputergrafik 2: Morphologische Operationen
Computergrafik 2: Morphologische Operationen Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz michael.rohs@ifi.lmu.de MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies
MehrOrientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops
15. DETERMINANTEN 1 Für n Vektoren b 1,..., b n im R n definiert man ihre Determinante det(b 1,..., b n ) Anschaulich gilt det(b 1,..., b n ) = Orientierung der Vektoren b 1,..., b n Volumen des von den
MehrLösungen zu Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in
Mehr6 Distanzfunktionen (2) 6 Distanzfunktionen. 6.1 Eigenschaften und Klassifikationen. Einführung
6 en 6 en (2) 1. Eigenschaften und Klassifikation 2. en auf Punkten Minkowski L m Gewichtete Minkowski L m w Quadratische d q Quadratische Pseudo Dynamical Partial Semi Pseudo Chi Quadrat Semi Pseudo Kullback
Mehr6 Distanzfunktionen. Quadratische Pseudo. 1. Eigenschaften und Klassifikation
6 Distanzfunktionen 1. Eigenschaften und Klassifikation 2. Distanzfunktionen auf Punkten Minkowski Distanzfunktion L m Gewichtete Minkowski Distanzfunktion L m w Quadratische Distanzfunktion d q Quadratische
MehrEffiziente Java Implementierung von echtzeitfähiger, stabiler Farbsegmentierung mittels k nächste Nachbarn
Effiziente Java Implementierung von echtzeitfähiger, stabiler Farbsegmentierung mittels k nächste Nachbarn Christian Schellewald http://www.iet.ntnu.no/~schellew/java/knn/ Wiesbaden, den 5. November 2010
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 5. Juli 2011 Zunächst: PCA (Hauptkomponentenanalyse) ist eine mathematische Prozedur, die eine Anzahl von (möglicherweise korrelierten) Variablen
MehrMorphologische Filter
Morphologische Filter Industrielle Bildverarbeitung, Vorlesung No. 8 1 M. O. Franz 28.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Burger & Burge, 2005. Übersicht 1 Morphologische
MehrMathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren
Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/
MehrBerechnung der Determinante
Berechnung der Determinante Verhalten der Determinante unter elementaren Zeilenoperationen: Das Vertauschen zweier Zeilen/Spalten der Matrix A ändert nur das Vorzeichen der Determinante, d.h: i, j {1,...,
MehrDeskriptive Statistik
Deskriptive Statistik Deskriptive Statistik: Ziele Daten zusammenfassen durch numerische Kennzahlen. Grafische Darstellung der Daten. Quelle: Ursus Wehrli, Kunst aufräumen 1 Modell vs. Daten Bis jetzt
MehrKapitel 1. Vektoren und Matrizen. 1.1 Vektoren
Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren
Mehr47 Singulärwertzerlegung
47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrÄhnlichkeits- und Distanzmaße
Einheit 1 Ähnlichkeits- und Distanzmaße IFAS JKU Linz c 2015 Multivariate Verfahren 1 0 / 41 Problemstellung Ziel: Bestimmung von Ähnlichkeit zwischen n Objekten, an denen p Merkmale erhoben wurden. Die
MehrEigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( )
Eigenwertprobleme 5. Oktober Autoren:. Herrmann, Hannes (45969). Kraus, Michael (9). Krückemeier, Paul (899) 4. Niedzielski, Björn (7) Eigenwertprobleme tauchen in der mathematischen Physik an Stellen
Mehr9. Clusterbildung, Klassifikation und Mustererkennung
9. Clusterbildung, Klassifikation und Mustererkennung Begriffsklärungen (nach Voss & Süße 1991): Objekt: wird in diesem Kapitel mit einem zugeordneten Merkmalstupel (x 1,..., x M ) identifiziert (Merkmalsextraktion
Mehr6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn
Mehr4.4 Hierarchische Clusteranalyse-Verfahren
Clusteranalyse 18.05.04-1 - 4.4 Hierarchische Clusteranalyse-Verfahren Ablauf von hierarchischen Clusteranalyse-Verfahren: (1) Start jedes Objekt sein eigenes Cluster, also Start mit n Clustern (2) Fusionierung
MehrSignalverarbeitung g für audiovisuelle Kommunikation
University of Applied Science Signalverarbeitung g für audiovisuelle Kommunikation 3. Segmentierung - Morphologische Operationen Morphologische Operationen Morphologie: die Gestalt betreffend Gestalt in
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
Mehra ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen
I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y 1 = a 11 x 1 + a 12 x 2 + a 13 x3 y 2 = a 21 x 1 + a 22 x 2 + a 23 x3... Koeffizienten a ij i - te Gleichung
Mehr5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21
5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
MehrKlassifikation im Bereich Musik
Klassifikation im Bereich Musik Michael Günnewig 30. Mai 2006 Michael Günnewig 1 30. Mai 2006 Inhaltsverzeichnis 1 Was ist eine Klassifikation? 3 1.1 Arten und Aufbau von Klassifikationen.................
Mehr1. Referenzpunkt Transformation
2.3 Featurereduktion Idee: Anstatt Features einfach wegzulassen, generiere einen neuen niedrigdimensionalen Featureraum aus allen Features: Redundante Features können zusammengefasst werden Irrelevantere
MehrMaschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008
Maschinelles Lernen I Einführung Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 22. April 2008 Inhalt Einführung Lernen Maschinelle Lernverfahren im Überblick Phonetische Anwendungsbeispiele
Mehr6 Symmetrische Matrizen und quadratische Formen
Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation
MehrGeometrische Deutung linearer Abbildungen
Geometrische Deutung linearer Abbildungen Betrachten f : R n R n, f(x) = Ax. Projektionen z.b. A = 1 0 0 0 1 0 0 0 0 die senkrechte Projektion auf die xy-ebene in R 3. Projektionen sind weder injektiv
MehrGRUNDLAGEN DER INFORMATIONSTECHNIK / TEIL BILDVERARBEITUNG. Übungen
GRUNDLAGEN DER INFORMATIONSTECHNIK / TEIL BILDVERARBEITUNG Übungen Otto-von-Guericke-Universität Magdeburg Fakultät für Elektrotechnik und Informationstechnik Institut für Elektronik, Signalverarbeitung
MehrLineare Algebra: Determinanten und Eigenwerte
: und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b
MehrDeskriptive Statistik. (basierend auf Slides von Lukas Meier)
Deskriptive Statistik (basierend auf Slides von Lukas Meier) Deskriptive Statistik: Ziele Daten zusammenfassen durch numerische Kennzahlen. Grafische Darstellung der Daten. Quelle: Ursus Wehrli, Kunst
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
Mehr