Graphische Datenverarbeitung und Bildverarbeitung

Größe: px
Ab Seite anzeigen:

Download "Graphische Datenverarbeitung und Bildverarbeitung"

Transkript

1 Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Merkmale und Klassifikation Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 1 Einordnung in die Inhalte der Vorlesung Einführung mathematische und allgemeine Grundlagen Hardware für Graphik und Bildverarbeitung Graphische Grundalgorithmen (Zeichnen graphischer Primitive, Methoden für Antialaising, Füllalgorithmen) Bildaufnahme (Koordinatensysteme, Transformation) Durchführung der Bildverarbeitung und -analyse Fourier Transformation Bildrestauration Bildverbesserung (Grauwertmodifikation, Filterverfahren) Segmentierung Morphologische Operationen Merkmalsermittlung und Klassifikation Erzeugung von Bildern in der Computergraphik Geometrierepräsentationen Clipping in 2D und 3D Hidden Surface Removal Beleuchtungsberechnung Shading Schattenberechnung Volumenrendering als Beispiel für die Nutzung beider Gebiete Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 2

2 Wiederholung wichtiger Begriffe Erosion und Dilatation Opening und Closing Hit-or-Miss-Operatoren Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation Merkmale Die Klassifikation in Bildern erfolgt anhand von Merkmalen Merkmale können sein: - Eigenschaften des Bildpunktes - Eigenschaften von Segmenten Bildpunkt Bounding Box eines Segments Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 4

3 Entwurf eines Erkennungssystems Aufgabe: Einteilung der Segmente eines Bildes in Klassen Problemanalyse Merkmalsauswahl Auswahl des Klassifikationsverfahrens Qualitätsanalyse Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 5 Merkmal: Skalar, das einen bestimmten Aspekt des Segments beschreibt Merkmale des Segmentinneren Merkmale des Segmentrandes Merkmale über Abhängigkeiten zwischen benachbarten Segmenten Merkmalsvektor: lineare Anordnung von n quantitativen Merkmalen T m = m, m,.., ) ( 1 2 Merkmale m n Merkmalsraum: Zuordnung jedes Merkmals zu einer Achse des m n-dimensionalen Raumes 2 m = ( m1, m2, m3) m 3 Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 6 m 1

4 Anforderungen an die Merkmale Gute Unterscheidungsmöglichkeiten Hohe Zuverlässigkeit Unabhängigkeit Geringe Anzahl Gewinnung von Merkmalen häufig heuristisch mit anschließender systematischer Auswahl geeigneter Merkmale Nutzung von normierten Merkmalen Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 7 Postulate der numerischen Klassifikation Es steht eine repräsentative Stichprobe zur Verfügung. Ein Muster besitzt Merkmale, die für seine Zugehörigkeit zu seiner Klasse charakteristisch sind. Die Merkmale bilden für Muster einer Klasse einen einigermaßen kompakten Bereich im Merkmalsraum. Die Bereiche verschiedener Klassen sind getrennt. Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 8

5 16.2 Merkmale von Bildpunkten Grauwerte, Farbwerte Interessant für Segmentierung in mehrkanaligen Bildern, z.b. bilden Farbkanäle einen dreidimensionalen Merkmalsraum Originalbild Blauer Kanal Grüner Kanal Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation Merkmale von Segmenten Grauwertmerkmale: mittlerer Grauwert, Streuung der Grauwerte, minimaler und maximaler Grauwert Texturmerkmale: Merkmale aus der Co-Occurence-Matrix, Merkmale aus dem Frequenzspektrum Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 10

6 Merkmale von Segmenten Einfache Formbasierte Merkmale: Flächeninhalt F, Umfang U, Ausdehnung des Segmentes entlang seiner Hauptachsen, Größe des kleinsten umschließenden Rechtecks, Flächendifferenz zwischen der Segmentfläche und ihrer konvexer Hülle, Kreisähnlichkeit ( (4Fπ)/U 2 ) Längste Diagonale Bounding Box Differenz zur konvexen Hülle Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 11 Merkmale von Segmenten Kettencode: Berechnung von Krümmungsmerkmalen Relativer Kettencode: Abweichung der Richtung um ein Vielfaches von 45 im Uhrzeigersinn (-) oder entgegengesetzt (+) Fourierdeskriptoren: a r n n 2 n m= 1 2 n nm 2πi L 1 L 1 L = xme bn = y L 1 L 1 = a + b w n rn = r 1 m= 1 nm 2πi L 1 Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 12 m e

7 Merkmale von Segmenten Topologische Merkmale: Sie ändern sich auch dann nicht, wenn sich die Form des Objekt verändert, solange es nicht zerrissen oder geklebt wird. Beispiele: Anzahl der Löcher L Anzahl C der verbundenen Teile eines Objekts Eulerzahl: E=C-L E=0 E=-1 Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation Welche Merkmale sind geeignet? Merkmale dienen der Unterscheidung zwischen unterschiedlichen Segmenten. Falls möglich, sollten Merkmale aus den vermuteten Objekteigenschaften abgeleitet werden. Wenn n Objekttypen unterschieden werden sollen, dann muß das m- dimensionale Histogramm des Merkmalsraums wenigstens n unterscheidbare Häufungspunkte enthalten. Aus der Nähe im Merkmalsraum sollte auf Ähnlichkeit der Objekte geschlossen werden. Die Unterscheidbarkeit nach Merkmalswerten nimmt nicht ab, wenn die Dimension des Merkmalsraums erweitert wird. Je weniger Merkmale zur Unterscheidung notwendig sind, desto effektiver wird die Entscheidungsfindung sein. Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 14

8 16.5 Dimensionsreduktion im Merkmalsraum Klassifikation wird aufwendiger, je größer die Dimension des Merkmalsraumes ist. Vorhandene Information durch den höherdimensionalen Merkmalsraum wird reduziert Wann kann auf diese Information verzichtet werden? Wenn die Klassifizierung auch nach der Reduktion möglich ist. Durchschnittliche Abweichung von der Richtung der größten Ausdehnung des Merkmals Gesucht: Richtung der größten Ausdehnung durchschnittliche Abweichung davon Kovarianz im Merkmalsraum Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 15 Kovarianzmatrix im Merkmalsraum Die Kovarianzmatrix C ist eine quadratische, symmetrische Matrix bestehend aus allen Varianzen und Kovarianzen zwischen Vektoren m(x 1,...,x n ) im n-dimensionalen Merkmalsraum: c C = cn 1 c = ij M 1 m = i M 11 1 c M m k= 0 i, j... c ( )( ) ik nn m i m M: Anzahl der Trainingsdaten i,j: betrachtetes Merkmal i m j m j Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 16

9 m 1 Eigenvektoren und Eigenwerte der Kovarianzmatrix Eigenvektoren e und Eigenwerte λ einer Matrix M sind diejenigen, für die gilt: r r r r M e = λe λ = m 0 ( M λi) e = 0 det( M I) 0 Die Eigenwerte beschreiben die Varianz der Werte entlang der jeweiligen Achse Sortierung nach der Größe Die zu den Eigenwerten korrespondierenden Eigenvektoren der Kovarianzmatrix beschreiben in absteigender Reihenfolge eine Reihe von senkrecht aufeinander stehenden Achsen durch den Schwerpunkt des Systems Karhunen-Loeve-Transformation Hauptachsentransformation Hotelling-Transformation Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 17 Hauptachsentransformation Praktische Berechnung: 1. Berechnung der Kovarianzmatrix C der Merkmalsvektoren m der Testdaten 2. Berechnung der Eigenwerte λ und Eigenvektoren e von C 3. Umordnen der Eigenwerte, so dass gilt: λ λ gleichfalls Umordnung der Matrix E der Eigenvektoren e 4. Falls ein Eigenwert λ n =0 ist, kann die betreffende Hauptachse gestrichen werden. Falls ein Eigenwert λ n nahe Null liegt, kann sie unter Informationsverlust gestrichen werden 5. Berechnung der neuen unkorrelierten Merkmale: m r unkorr = m r korr E λ N 1 Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 18

10 Hauptachsentransformation Resultat der Hauptachsentransformation: Dimensionsreduktion, Dekorrelation der Merkmale m 2 m neu2 m 1 Achtung! m neu1 Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation Merkmalsbasierte Klassifikation Annahme: Wenn die Merkmale von Objekten aus unterschiedlichen Klassen sich unterscheiden, dann sollte dies im Merkmalsraum sichtbar sein Häufigkeit Fläche Klassifikation: Entscheidungsfunktion auf den Merkmalsvektoren D(m 1,...,m n ) = i Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 20

11 Merkmalsbasierte Klassifikation - Mehrdimensionaler Merkmalsraum Häufigkeit Häufigkeit Fläche Exzentrizität ,2 0.4,4 0.6,6 0.8,8 1 Exzentrizität 0,8 0,6 0,4 0,2 0 Zweidimensionale Verteilung Fläche Ziel: Cluster identifizieren, in denen sich die Merkmalsverktoren einzelner Klassen befinden Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 21 Varianten eines Klassifizierungssystems bekannte Stichprobe oder Clusteralgorithmus t Realisierungen k i der Klassen K i, i=0,..,t-1 Verbesserung von k j unbekannter Merkmalsvektor Minimum-Distance Bayes scher Klassifikator neuronale Netze Klassifizierung zur Klasse K j Strategien der numerischen Klassifikation: fest dimensionierte überwachte Klassifikation fest dimensionierte unüberwachte Klassifikation überwacht lernende Klassifikation unüberwacht lernende Klassifikation Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 22

12 Quadermethode Direkter Weg für zweidimensionale Merkmalsräume: Die Grenzen der Cluster um ein Clusterzentrum werden interaktiv bestimmt. Exzentrizität 0,8 0,6 0,4 0,2 0 Fläche Linsen Pfeffer Sonnenblumenkerne Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 23 Quadermethode Sonnenblumenkerne Linsen Pfeffer sonstiges Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 24

13 Minimum-Distanz-Klassifikator 0,8 0,6 Exzentrizität 0,4 0,2 0 Fläche Jeder Merkmalsvektor wird demjenigen Cluster zugeordnet, zu dessen Zentrum er am nächsten liegt. Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 25 Algorithmus Gegeben: klassifizierte Stichprobe Vorgehensweise: 1. Berechne die Klassenmittelpunkte im Merkmalsraum für alle in der Stichprobe vorkommenden Klassen. 2. Berechne für zu klassifizierende Objekte anhand des ermittelten Merkmalsvektors den Abstand zu allen Klassenmittelpunkten. 3. Ordne das Objekt der Klasse zu, zu der der kürzeste Abstand auftrat. Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 26

14 Gegeben: klassifizierte Stichprobe Regel: knn-klassifikation (k-nearest Neighbour Classification) Ordne das Muster der Klasse zu, zu der sein nächster Nachbar auch gehört bzw. die Mehrzahl seiner k nächsten Nachbarn Vorteil: Man erhält im allgemeinen relativ komplizierte nichtlineare Trennflächen Nachteil:hoher Speicher und Berechnungsaufwand knn - Klassifikator Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation Klassifikationsfehler Merkmal 2 Merkmal 1 Fehler 1. Art: Bereich, der zum Muster gehört, aber nicht in der Stichprobe erfaßt wurde Fehler 2. Art: Bereich, der nicht zum Muster gehört, aber in der Stichprobe erfaßt wurde Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 28

15 Clustering durch Agglomeration (Bottom-up, Merging) Annahmen: Die Anzahl der Cluster ist nicht bekannt. Distanz zum Cluster-Zentrum soll minimiert werden Gesucht: Anzahl der Cluster und Lage der Cluster-Zentren 1. Schritt: Jeder Merkmalsvektor bildet das Zentrum eines Clusters 2. Schritt: Suche die beiden am dichtesten liegende Clusterzentren und vereinige die beiden Cluster. Berechne ein neues Clusterzentrum Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 29 Clustering durch Agglomeration Wiederhole Schritt 2 solange, bis nur noch ein Cluster übrigbleibt. Speichere die Zusammenfassung der Cluster in einem Baum Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 30

16 Clustering durch Agglomeration Resultat der vorletzten Stufe der Clustering-Hierarchie Hierarchisches Clustering Verfahren: Auswahl der Anzahl der Cluster durch Wahl der Hierarchiestufe Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation Divisives Clustering Verfahren (Top-down, Splitting) Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 32

17 Partitional Clustering Annahmen: Gesucht: Die Anzahl der Cluster ist in der Regel bekannt. Distanz zum Cluster-Zentrum soll minimiert werden Lage der Cluster-Zentren (kein Aufbau einer Hierarchie) Initialisierung: Cluster-Zentren setzen (beliebig oder anhand von identifizierten Segmenten/Pixeln Iterationsschritt: Berechne für jeden Merkmalsvektor das am dichtesten liegende Clusterzentrum, klassifiziere es entsprechend, berechne neue Clusterzentren. Abbruchbedingung: keine Neu- oder Umklassifizierungen beim Iterationsschritt Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 33 Zusammenfassung Klassifikation Ziel einer Klassifikation ist die Zuordnung von Bedeutung anhand ausgewerteter Merkmale Quader-Methode, Minimum-Distanz- Klassifikation, knn-klassifikation Die Klassifikation ist umso einfacher, je geringer die Anzahl der Merkmale ist Eine Merkmalsreduktion kann mit Hilfe der Karhunen-Loeve-Transformation erfolgen, wobei zu beachten ist, daß nur die Repräsentation aller Klassen, nicht aber die Trennbarkeit der Klassen optimiert wird. Die Zuordnung nach Klassen kann auch durch einer Cluster-Analyse erfolgen. Cluster sind Gebiet im Merkmalsraum, in denen eine Häufung von Merkmalsvektoren vorliegt. Clustering-Verfahren können (müssen aber nicht) die Kenntnis der Anzahl der Klassen voraussetzen. Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 34

18 Stufen der Bildverarbeitung Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 35

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Morphologische Operatoren Graphische DV und BV, Regina Pohle, 5. Morphologische Operatoren Einordnung in die Inhalte der Vorlesung

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Segmentierung Graphische DV und BV, Regina Pohle, 13. Segmentierung 1 Einordnung in die Inhalte der Vorlesung Einführung mathematische

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Antialiasing Graphische DV und BV, Regina Pohle, 5. Antialiasing 1 Einordnung in die Inhalte der Vorlesung Einführung mathematische

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Bildverbesserung - Filterung Graphische DV und BV, Regina Pohle,. Bildverbesserung - Filterung Einordnung in die Inhalte der Vorlesung

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Bildverbesserung - Grauwertmodifikation Graphische DV und BV, Regina Pohle, 10. Bildverbesserung - Grauwertmodifikation 1 Einordnung

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Fourier-Transformation Graphische DV und BV, Regina Pohle, 8. Fourier-Transformation 1 Einordnung in die Inhalte der Vorlesung Einführung

Mehr

Technische Universität

Technische Universität Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik IX Grundlagen der Klassifikation Proseminar Grundlagen der Bildverarbeitung Christina Katz Betreuer: Dr. Michael

Mehr

2D Graphik: Klassifikation

2D Graphik: Klassifikation LMU München Medieninformatik Butz/Hilliges 2D Graphics WS2005 20.01.2006 Folie 1 2D Graphik: Klassifikation Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 20. Januar 2006 LMU München Medieninformatik

Mehr

Bild-Erkennung & -Interpretation

Bild-Erkennung & -Interpretation Kapitel I Bild-Erkennung & -Interpretation FH Aachen / Jülich, FB 9 Prof. Dr. rer.nat. Walter Hillen (Dig Img I) 1 Einführung Schritte zur Bilderkennung und Interpretation: Bild-Erfassung Vorverarbeitung

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Beleuchtungsberechnung Graphische DV und BV, Regina Pohle, 21. Beleuchtungsberechnung 1 Einordnung in die Inhalte der Vorlesung

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Verdeckung Graphische DV und BV, Regina Pohle, 20. Verdeckung Einordnung in die Inhalte der Vorlesung Einführung mathematische und

Mehr

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators

Mehr

Grundlagen der Bildverarbeitung

Grundlagen der Bildverarbeitung Grundlagen der Bildverarbeitung Inhaltsverzeichnis Vorwort 9 Kapitel 1 Einführung 13 1.1 Anwendungen der digitalen Bildverarbeitung 16 1.2 Algorithmische Verarbeitung von Bildinformation 17 1.3 Zu diesem

Mehr

Grundlagen der Bildverarbeitung Klaus D. Tönnies

Grundlagen der Bildverarbeitung Klaus D. Tönnies Grundlagen der Bildverarbeitung Klaus D. Tönnies ein Imprint von Pearson Education München Boston San Francisco Harlow, England Don Mills, Ontario Sydney Mexico City Madrid Amsterdam Inhaltsverzeichnis

Mehr

Principal Component Analysis (PCA)

Principal Component Analysis (PCA) Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen

Mehr

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3 Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Bildverbesserung - Filterung Graphische DV und BV Regina Pohle. Bildverbesserung - Filterung Einordnung in die Inhalte der Vorlesung

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Was bisher geschah. Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch

Was bisher geschah. Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch Was bisher geschah Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch Punktoperationen (Farbtransformation) f : col1 col

Mehr

Grundlagen der Bildverarbeitung Klaus D. Tönnies

Grundlagen der Bildverarbeitung Klaus D. Tönnies Grundlagen der Bildverarbeitung Klaus D. Tönnies ein Imprint von Pearson Education München Boston San Francisco Harlow, England Don Mills, Ontario Sydney Mexico City Madrid Amsterdam Grundlagen der Bildverarbeitung

Mehr

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches

Mehr

Übersicht der Vorlesung

Übersicht der Vorlesung Übersicht der Vorlesung. Einführung. Bildverarbeitung. Morphologische Operationen 4. Bildsegmentierung 5. Merkmale von Objekten 6. Klassifikation 7. Dreidimensionale Bildinterpretation 8. Bewegungsanalyse

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten

Mehr

Was bisher geschah. Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch

Was bisher geschah. Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch Was bisher geschah Definition digitaler Bilder B : pos col Bildanalyse, statistische Merkmale Signale im Orts- und Frequenzraum Bildbearbeitung durch Punktoperationen (Farbtransformation) f : col 1 col

Mehr

Übungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen

Übungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen Übungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen Übung: Dipl.-Inf. Tina Walber Vorlesung: Dr.-Ing. Marcin Grzegorzek Fachbereich Informatik, Universität Koblenz Landau Ausgabe: 31.0.2010

Mehr

Einführung in die digitale Bildverarbeitung

Einführung in die digitale Bildverarbeitung FRANZIS EINFUHRUNG Dr. Hartmut Ernst Einführung in die digitale Bildverarbeitung Grundlagen und industrieller Einsatz mit zahlreichen Beispielen Mit 290 Abbildungen FRANZIS Inhalt 1 Einführung 13 1.1 Was

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Graphische Grundalgorithmen Graphische DV und BV, Regina Pohle, 4. Algorithmen für graphische Primitive 1 Einordnung in die Inhalte

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Methoden zur Cluster - Analyse

Methoden zur Cluster - Analyse Kapitel 4 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics

Mehr

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften 5. Clusteranalyse Vorbemerkungen 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer

Mehr

Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator

Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator Mustererkennung Bayes-Klassifikator R. Neubecker, WS 2016 / 2017 Bayes-Klassifikator 2 Kontext Ziel: Optimaler Klassifikator ( = minimaler Klassifikationsfehler), basierend auf Wahrscheinlichkeitsverteilungen

Mehr

Klassifikation durch direkten Vergleich (Matching)

Klassifikation durch direkten Vergleich (Matching) Klassifikation durch direkten Vergleich (Matching) Eine triviale Lösung für die Klassifikation ergibt sich durch direkten Vergleich des unbekannten Musters in allen Erscheinungsformen der Äquivalenzklasse

Mehr

Mustererkennung. Merkmalsreduktion. R. Neubecker, WS 2016 / Übersicht

Mustererkennung. Merkmalsreduktion. R. Neubecker, WS 2016 / Übersicht Mustererkennung Merkmalsreduktion R. Neubecker, WS 2016 / 2017 Übersicht 2 Merkmale Principal Component Analysis: Konzept Mathematische Formulierung Anwendung Eigengesichter 1 Merkmale 3 (Zu) Viele Merkmale

Mehr

Computergrafik 2: Klassifikation

Computergrafik 2: Klassifikation Computergrafik 2: Klassifikation Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz michael.rohs@ifi.lmu.de MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies (Grundlagen

Mehr

4.Tutorium Multivariate Verfahren

4.Tutorium Multivariate Verfahren 4.Tutorium Multivariate Verfahren - Clusteranalyse - Hannah Busen: 01.06.2015 und 08.06.2015 Nicole Schüller: 02.06.2015 und 09.06.2015 Institut für Statistik, LMU München 1 / 17 Gliederung 1 Idee der

Mehr

Unüberwachtes Lernen

Unüberwachtes Lernen Unüberwachtes Lernen Mustererkennung und Klassifikation, Vorlesung No. 12 M. O. Franz 17.01.2008 Übersicht 1 Hauptkomponentenanalyse 2 Nichtlineare Hauptkomponentenanalyse 3 K-Means-Clustering Übersicht

Mehr

Vorbereitungsaufgaben

Vorbereitungsaufgaben Praktikum Bildverarbeitung / Bildinformationstechnik Versuch BV 4 / BIT 3: Mustererkennung Paddy Gadegast, CV00, 160967 Alexander Opel, CV00, 16075 Gruppe 3 Otto-von-Guericke Universität Magdeburg Fakultät

Mehr

Klassifikation und Ähnlichkeitssuche

Klassifikation und Ähnlichkeitssuche Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell

Mehr

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer Clusterstruktur kennen, verschiedene

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Clippen in 2D und 3D Graphische DV und BV, Regina Pohle, 19. Clippen in 2D und 3D 1 Einordnung in die Inhalte der Vorlesung Einführung

Mehr

4. Segmentierung von Objekten Video - Inhaltsanalyse

4. Segmentierung von Objekten Video - Inhaltsanalyse 4. Segmentierung von Objekten Video - Inhaltsanalyse Stephan Kopf Inhalt Vorgehensweise Berechnung der Kamerabewegungen zwischen beliebigen Bildern Transformation eines Bildes Hintergrundbilder / Panoramabilder

Mehr

1 Einleitung Einordnung des Gebietes Aufbau des Buches Philosophie Inhalte Einige Lehrbücher...

1 Einleitung Einordnung des Gebietes Aufbau des Buches Philosophie Inhalte Einige Lehrbücher... Inhaltsverzeichnis 1 Einleitung... 1 1.1 Einordnung des Gebietes... 1 1.2 Aufbau des Buches... 3 1.2.1 Philosophie... 3 1.2.2 Inhalte... 5 1.3 Einige Lehrbücher... 6 2 Allgemeine Begriffe... 11 2.1 Einige

Mehr

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42

Kapitel 5. Eigenwerte. Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2017/18 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

... Text Clustern. Clustern. Einführung Clustern. Einführung Clustern

... Text Clustern. Clustern. Einführung Clustern. Einführung Clustern Clustern Tet Clustern Teile nicht kategorisierte Beispiele in disjunkte Untermengen, so genannte Cluster, ein, so daß: Beispiele innerhalb eines Clusters sich sehr ähnlich Beispiele in verschiedenen Clustern

Mehr

Multivariate Verteilungen. Gerhard Tutz LMU München

Multivariate Verteilungen. Gerhard Tutz LMU München Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS

Mehr

Multivariate Verfahren

Multivariate Verfahren Multivariate Verfahren Lineare Regression Zweck: Vorhersage x Dimensionsreduktion x x Klassifizierung x x Hauptkomponentenanalyse Korrespondenzanalyse Clusteranalyse Diskriminanzanalyse Eigenschaften:

Mehr

Hauptseminar KDD SS 2002

Hauptseminar KDD SS 2002 Hauptseminar KDD SS 2002 Prof. Dr. Hans-Peter Kriegel Eshref Januzaj Karin Kailing Peer Kröger Matthias Schubert Session: Clustering HS KDD, Ludwig-Maximilians-Universität München, SS 2002 1 Inhalt Einleitung

Mehr

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015

Inhalt. Mathematik für Chemiker II Lineare Algebra. Vorlesung im Sommersemester Kurt Frischmuth. Rostock, April Juli 2015 Inhalt Mathematik für Chemiker II Lineare Algebra Vorlesung im Sommersemester 5 Rostock, April Juli 5 Vektoren und Matrizen Abbildungen 3 Gleichungssysteme 4 Eigenwerte 5 Funktionen mehrerer Variabler

Mehr

Inhaltliche Planung für die Vorlesung

Inhaltliche Planung für die Vorlesung Vorlesung: Künstliche Intelligenz - Mustererkennung - P LS ES S ST ME Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte der KI, PROLOG 2) Expertensysteme

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik

Mehr

geometrische Merkmale densitometrische (photometrische) Merkmale (aus Grauwerthistogramm) Texturmerkmale Farbmerkmale

geometrische Merkmale densitometrische (photometrische) Merkmale (aus Grauwerthistogramm) Texturmerkmale Farbmerkmale 7. Merkmalsextraktion Motivation: in der Bildverarbeitung und -analyse ist eine präzise Beschreibung auch komplizierter Objekte notwendig in vielen Anwendungen ist es wichtig, Klassen von Formen zu erkennen

Mehr

Modul Digitale Bildverarbeitung SS16 Bestandteile der Lehrveranstaltung und Prüfung: Vorlesungen Übungsserien Praktika (ImageJ) bis Mai 2016 Projekt

Modul Digitale Bildverarbeitung SS16 Bestandteile der Lehrveranstaltung und Prüfung: Vorlesungen Übungsserien Praktika (ImageJ) bis Mai 2016 Projekt Modul Digitale Bildverarbeitung SS16 Bestandteile der Lehrveranstaltung und Prüfung: Vorlesungen Übungsserien Praktika (ImageJ) bis Mai 2016 Projekt im Juni 2016 Themen: Digitale Bilder, Eigenschaften

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth

Lineare Algebra. Mathematik II für Chemiker. Daniel Gerth Lineare Algebra Mathematik II für Chemiker Daniel Gerth Überblick Lineare Algebra Dieses Kapitel erklärt: Was man unter Vektoren versteht Wie man einfache geometrische Sachverhalte beschreibt Was man unter

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB

INTELLIGENTE DATENANALYSE IN MATLAB INTELLIGENTE DATENANALYSE IN MATLAB Bildanalyse Literatur David A. Forsyth: Computer Vision i A Modern Approach. Mark S. Nixon und Alberto S. Aguado: Feature Extraction and Image Processing. Ulrich Schwanecke:

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Betrachtet wird eine (n,n)-matrix A. Eine Zahl λ heißt Eigenwert von A, wenn ein Vektor v existiert, der nicht der Nullvektor ist und für den gilt: A v = λ v.

Mehr

Winter 2011/ Projekt kd- Trees. achsenparallelen Farbwürfel angeordnet. Die beiden schwarz- weiß- Ecken verbindet eine Graulinie.

Winter 2011/ Projekt kd- Trees. achsenparallelen Farbwürfel angeordnet. Die beiden schwarz- weiß- Ecken verbindet eine Graulinie. Praktikum Algorithmik Prof. Dr. Heiner Klocke Winter 2011/2012 12.11.2011 1. Erläuterung des Umfeldes Projekt kd- Trees Bei der Bildanalyse sollen Farbpunkte eines Bildes klassifiziert werden. Die Farbe

Mehr

Support Vector Machines (SVM)

Support Vector Machines (SVM) Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-

Mehr

Computergrafik 2: Morphologische Operationen

Computergrafik 2: Morphologische Operationen Computergrafik 2: Morphologische Operationen Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz michael.rohs@ifi.lmu.de MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies

Mehr

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops 15. DETERMINANTEN 1 Für n Vektoren b 1,..., b n im R n definiert man ihre Determinante det(b 1,..., b n ) Anschaulich gilt det(b 1,..., b n ) = Orientierung der Vektoren b 1,..., b n Volumen des von den

Mehr

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT

Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT Prof. N. Hungerbühler ETH Zürich, Sommer 4 Lösungen zu Prüfung Lineare Algebra I/II für D-MAVT. [ Punkte] Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in

Mehr

6 Distanzfunktionen (2) 6 Distanzfunktionen. 6.1 Eigenschaften und Klassifikationen. Einführung

6 Distanzfunktionen (2) 6 Distanzfunktionen. 6.1 Eigenschaften und Klassifikationen. Einführung 6 en 6 en (2) 1. Eigenschaften und Klassifikation 2. en auf Punkten Minkowski L m Gewichtete Minkowski L m w Quadratische d q Quadratische Pseudo Dynamical Partial Semi Pseudo Chi Quadrat Semi Pseudo Kullback

Mehr

6 Distanzfunktionen. Quadratische Pseudo. 1. Eigenschaften und Klassifikation

6 Distanzfunktionen. Quadratische Pseudo. 1. Eigenschaften und Klassifikation 6 Distanzfunktionen 1. Eigenschaften und Klassifikation 2. Distanzfunktionen auf Punkten Minkowski Distanzfunktion L m Gewichtete Minkowski Distanzfunktion L m w Quadratische Distanzfunktion d q Quadratische

Mehr

Effiziente Java Implementierung von echtzeitfähiger, stabiler Farbsegmentierung mittels k nächste Nachbarn

Effiziente Java Implementierung von echtzeitfähiger, stabiler Farbsegmentierung mittels k nächste Nachbarn Effiziente Java Implementierung von echtzeitfähiger, stabiler Farbsegmentierung mittels k nächste Nachbarn Christian Schellewald http://www.iet.ntnu.no/~schellew/java/knn/ Wiesbaden, den 5. November 2010

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 5. Juli 2011 Zunächst: PCA (Hauptkomponentenanalyse) ist eine mathematische Prozedur, die eine Anzahl von (möglicherweise korrelierten) Variablen

Mehr

Morphologische Filter

Morphologische Filter Morphologische Filter Industrielle Bildverarbeitung, Vorlesung No. 8 1 M. O. Franz 28.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Burger & Burge, 2005. Übersicht 1 Morphologische

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

Berechnung der Determinante

Berechnung der Determinante Berechnung der Determinante Verhalten der Determinante unter elementaren Zeilenoperationen: Das Vertauschen zweier Zeilen/Spalten der Matrix A ändert nur das Vorzeichen der Determinante, d.h: i, j {1,...,

Mehr

Deskriptive Statistik

Deskriptive Statistik Deskriptive Statistik Deskriptive Statistik: Ziele Daten zusammenfassen durch numerische Kennzahlen. Grafische Darstellung der Daten. Quelle: Ursus Wehrli, Kunst aufräumen 1 Modell vs. Daten Bis jetzt

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

47 Singulärwertzerlegung

47 Singulärwertzerlegung 47 Singulärwertzerlegung 47.1 Motivation Wir haben gesehen, dass symmetrische Matrizen vollständig mithilfe ihrer Eigenwerte und Eigenvektoren beschrieben werden können. Diese Darstellung kann unmittelbar

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Ähnlichkeits- und Distanzmaße

Ähnlichkeits- und Distanzmaße Einheit 1 Ähnlichkeits- und Distanzmaße IFAS JKU Linz c 2015 Multivariate Verfahren 1 0 / 41 Problemstellung Ziel: Bestimmung von Ähnlichkeit zwischen n Objekten, an denen p Merkmale erhoben wurden. Die

Mehr

Eigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( )

Eigenwertprobleme. 25. Oktober Autoren: 1. Herrmann, Hannes ( ) 2. Kraus, Michael ( ) 3. Krückemeier, Paul ( ) Eigenwertprobleme 5. Oktober Autoren:. Herrmann, Hannes (45969). Kraus, Michael (9). Krückemeier, Paul (899) 4. Niedzielski, Björn (7) Eigenwertprobleme tauchen in der mathematischen Physik an Stellen

Mehr

9. Clusterbildung, Klassifikation und Mustererkennung

9. Clusterbildung, Klassifikation und Mustererkennung 9. Clusterbildung, Klassifikation und Mustererkennung Begriffsklärungen (nach Voss & Süße 1991): Objekt: wird in diesem Kapitel mit einem zugeordneten Merkmalstupel (x 1,..., x M ) identifiziert (Merkmalsextraktion

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag 9.6 $Id: quadrat.tex,v. 9/6/9 4:6:48 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6. Symmetrische Matrizen Eine n n Matrix heißt symmetrisch wenn

Mehr

4.4 Hierarchische Clusteranalyse-Verfahren

4.4 Hierarchische Clusteranalyse-Verfahren Clusteranalyse 18.05.04-1 - 4.4 Hierarchische Clusteranalyse-Verfahren Ablauf von hierarchischen Clusteranalyse-Verfahren: (1) Start jedes Objekt sein eigenes Cluster, also Start mit n Clustern (2) Fusionierung

Mehr

Signalverarbeitung g für audiovisuelle Kommunikation

Signalverarbeitung g für audiovisuelle Kommunikation University of Applied Science Signalverarbeitung g für audiovisuelle Kommunikation 3. Segmentierung - Morphologische Operationen Morphologische Operationen Morphologie: die Gestalt betreffend Gestalt in

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

a ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen

a ij i - te Gleichung (Zeile), i = 1, 2,3,..., m I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen I) MATRIZEN Motivation: 1) Speichern geometrischer Daten: Punkte, Vektoren. 2) Lineare Gleichungen y 1 = a 11 x 1 + a 12 x 2 + a 13 x3 y 2 = a 21 x 1 + a 22 x 2 + a 23 x3... Koeffizienten a ij i - te Gleichung

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Klassifikation im Bereich Musik

Klassifikation im Bereich Musik Klassifikation im Bereich Musik Michael Günnewig 30. Mai 2006 Michael Günnewig 1 30. Mai 2006 Inhaltsverzeichnis 1 Was ist eine Klassifikation? 3 1.1 Arten und Aufbau von Klassifikationen.................

Mehr

1. Referenzpunkt Transformation

1. Referenzpunkt Transformation 2.3 Featurereduktion Idee: Anstatt Features einfach wegzulassen, generiere einen neuen niedrigdimensionalen Featureraum aus allen Features: Redundante Features können zusammengefasst werden Irrelevantere

Mehr

Maschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008

Maschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008 Maschinelles Lernen I Einführung Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 22. April 2008 Inhalt Einführung Lernen Maschinelle Lernverfahren im Überblick Phonetische Anwendungsbeispiele

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

Geometrische Deutung linearer Abbildungen

Geometrische Deutung linearer Abbildungen Geometrische Deutung linearer Abbildungen Betrachten f : R n R n, f(x) = Ax. Projektionen z.b. A = 1 0 0 0 1 0 0 0 0 die senkrechte Projektion auf die xy-ebene in R 3. Projektionen sind weder injektiv

Mehr

GRUNDLAGEN DER INFORMATIONSTECHNIK / TEIL BILDVERARBEITUNG. Übungen

GRUNDLAGEN DER INFORMATIONSTECHNIK / TEIL BILDVERARBEITUNG. Übungen GRUNDLAGEN DER INFORMATIONSTECHNIK / TEIL BILDVERARBEITUNG Übungen Otto-von-Guericke-Universität Magdeburg Fakultät für Elektrotechnik und Informationstechnik Institut für Elektronik, Signalverarbeitung

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Deskriptive Statistik. (basierend auf Slides von Lukas Meier)

Deskriptive Statistik. (basierend auf Slides von Lukas Meier) Deskriptive Statistik (basierend auf Slides von Lukas Meier) Deskriptive Statistik: Ziele Daten zusammenfassen durch numerische Kennzahlen. Grafische Darstellung der Daten. Quelle: Ursus Wehrli, Kunst

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr