Computergrafik 2: Klassifikation
|
|
|
- Marielies Beyer
- vor 9 Jahren
- Abrufe
Transkript
1 Computergrafik 2: Klassifikation Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies (Grundlagen der Bildverarbeitung. Pearson Studium, 2005.)
2 Vorlesungen Datum Thema Einführung, Organisatorisches (Übungen, Klausur) 1.5./8.5. keine Vorlesungen (wegen 1. Mai und CHI-Konferenz) Abtastung von Bildern, Punktbasierte Verfahren der Bildverbesserung Licht, Farbe, Farbmanagement Konvolution, Filterung im Ortsraum (Verschiebung wegen Pfingstdienstag) 5.6. Fouriertransformation: Grundlagen Filterung im Frequenzraum Kanten, Linien, Ecken Segmentierung 3.7. Segmentierung, Morphologische Operationen Klassifikation Image Matching Klausur (Hörsaal M 018 im Hauptgebäude, Uhr) Computergrafik 2 SS2012 2
3 Themen heute Merkmale Klassifikation von Segmenten Texturmerkmale Formmerkmale Topologische Formmerkmale Bayes-sche Klassifikation knn-klassifikation Logistische Regression Computergrafik 2 SS2012 3
4 Merkmale und Klassifikation Klassifikation: Zuordnung von Bedeutung zu Segmenten Segmentkombinationen Pixeln Bounding Box eines Segments Kriterium sind Merkmale, für die oft angenommen wird durch Skalar repräsentierbar voneinander unabhängig Merkmale in einem Merkmalsvektor zusammengefasst Bildpunkt Computergrafik 2 SS2012 4
5 Einfache Pixel-Merkmale Grauwert m(p) = [f(p)] Farbwerte m(p) = [r(p) g(p) b(p)] Computergrafik 2 SS2012 5
6 3D-Merkmalsraum der Farbebenen rot grün blau Computergrafik 2 SS2012 6
7 Histogramme grün rot blau Computergrafik 2 SS2012 7
8 Mehrdimensionaler Merkmalsraum m 3 m 3 m 2 m 2 m 1 Projektionen des dreidimensionalen Merkmalsraums auf Blau-Grün-Ebene Blau-Rot-Ebene Grün-Rot-Ebene m 1 Computergrafik 2 SS2012 8
9 Merkmalsabhängige Klassifikation Klassifikation: Entscheidungsgrenze (decision boundary) im Merkmalsraum finden Allen Merkmalsträgern (hier: Pixeln) eine Bedeutung zuordnen Beispiel: Entscheidungsgrenze ist eine Gerade a m 1 +b m 2 +c=0 Pixelklassifikation: p(i,j) = Vordergrund, falls a m 1 (p)+b m 2 (p)+c < 0, sonst Hintergrund m 2 Hintergrund Vordergrund m 1 Computergrafik 2 SS2012 9
10 Klassifikationsergebnis a m1(p)+b m2(p)+c 0 a m1(p)+b m2(p)+c < 0 Computergrafik 2 SS
11 Computergrafik 2 SS
12 Texturmerkmale Objekte zeichnen sich nicht nur durch Helligkeit und Farbe aus. Textur: ein sich in einer bestimmten Region stochastisch oder deterministisch wiederholendes Muster (Invariante). Texturmerkmal: messbare Charakterisierung der Invariante. Textur beschreibt das Objektinnere. Computergrafik 2 SS
13 1 2 3 Beispiel Computergrafik 2 SS
14 Beispiel D=1, a=0 D=1, a=90 Computergrafik 2 SS
15 Co-Occurrence Matrix für 8 Nachbarn Matrix für (dx,dy) = Matrix für (-dx,-dy) Computergrafik 2 SS
16 Co-Occurrence Matrix für 8 Nachbarn Matrix für (dx,dy) = Matrix für (-dx,-dy) Computergrafik 2 SS
17 Co-Occurrence Matrix für 8 Nachbarn Matrix für (dx,dy) = Matrix für (-dx,-dy) Computergrafik 2 SS
18 Haralick'sche Texturmaße zunächst P Δ,α normieren: P Δ,α := 1 s P Δ,α mit K 1 K 1 g 1 =0 g 2 =0 ( ) s = P Δ,α g 1, g 2 Energie / Uniformität Kontrast Entropie Homogenität / inverse Differenz K 1 g 1 =0 K 1 g 1 =0 K 1 g 2 =0 K 1 g 2 =0 2 P Δ,α ( g 1, g 2 ) ( g 1 g 2 ) 2 P Δ,α g 1, g 2 ( ) K 1 K 1 P Δ,α ( g 1, g 2 ) log 2 $% P Δ,α ( g 1, g 2 )& ' g 1 =0 g 2 =0 K 1 g 1 =0 K 1 g 2 =0 P Δ,α ( g 1, g 2 ) 1+ g 1 g 2 liefern aussagekräftige Kennwerte für Texturen zur Segmentierung Berechnung für Δ = 1 und α = 0, 45, 90, 135 Merkmalsvektor aus Texturmaßen empfohlene Merkmale zur Texturklassifikation: Entropie, Kontrast, Korrelation Computergrafik 2 SS
19 Haralick'sche Texturmaße (weitere) zunächst P Δ,α normieren: Korrelation mit K 1 g 1 =0 K 1 g 2 =0 µ 1 = g 1 P Δ,α g 1, g 2 K 1 g 1 =0 K 1 K 1 g 2 =0 K 1 P Δ,α := 1 s P Δ,α mit (g 1 µ 1 ) (g 2 µ 2 ) P Δ,α ( g 1, g 2 ) σ 1 σ 2 ( ) ( ) µ 2 = g 2 P Δ,α g 1, g 2 g 2 =0 g 1 =0 K 1 K 1 g 1 =0 g 2 =0 ( ) s = P Δ,α g 1, g 2 K 1 K 1 ( ) σ 1 = (g 1 µ 1 ) 2 P Δ,α g 1, g 2 g 1 =0 K 1 g 2 =0 K 1 ( ) σ 2 = (g 2 µ 2 ) 2 P Δ,α g 1, g 2 g 2 =0 g 1 =0 inverse difference moment K 1 g 1 =0 K 1 g 2 =0 ( ) ( ) 2 P Δ,α g 1, g 2 1+ g 1 g 2 K 1 Unähnlichkeit P Δ,α ( g 1, g 2 ) g 1 g 2 K 1 g 1 =0 g 2 =0 Computergrafik 2 SS
20 Co-Occurrence Matrix mean und range der Richtungen 0, 45, 90, 135 für d=1 Computergrafik 2 SS
21 Co-Occurrence Matrix mean und range der Richtungen 0, 45, 90, 135 für d=1 Computergrafik 2 SS
22 Co-Occurrence Matrix mean und range der Richtungen 0, 45, 90, 135 für d=1 Computergrafik 2 SS
23 Korrelation, Entropie, Kontrast Korrelation Himmel Fels Wasser Entropie min mean max Kontrast mean, min, max berechnet über die Winkel 0, 45, 90, 135 Computergrafik 2 SS
24 Merkmalsvektoren aus Haralickschen Texturmaßen Energie inv. diff. moment Kontrast Entropie Computergrafik 2 SS
25 Formmerkmale Formmerkmale beschreiben das Äußere von Segmenten Allgemeine Merkmale Mittelpunkt der Bounding Box Schwerpunkt m des Segments Translationsinvariante Merkmale Bounding Box Richtung der größten Ausdehnung und Ausdehnung in dieser Richtung 1 i mg = p, p( i, j) j p( i, j) S p( i, j) S S ( i j) Computergrafik 2 SS
26 Formmerkmale Translations- und rotationsinvariante Merkmale Eingeschlossene Fläche: F Länge des Randes: R Durchschnittliche Krümmungsänderung Translations-, rotations- und skalierungsunabhängige Merkmale Kreisähnlichkeit, d.h. 4πF/R 2 Hauptkomponentenanalyse (Principal Component Analysis, PCA) Computergrafik 2 SS
27 Hauptkomponentenanalyse Gegeben Form eines Objekts Pixel des Objekts (bzw. dessen Rand) der Form x = (x 1,x 2 ) T Finde lokales Koordinatensystem, das Größe, Rotation, und Translation normalisiert Berechne Schwerpunkt m x = 1 K K k=1 x k Berechne Kovarianzmatrix C x = 1 K K k=1 ( x k m x ) x ' = x m x ( x k m x ) T Abbildung: R. C. Gonzalez & R. E. Woods, Digital Image Processing = 1 K K k=1 x ' k x ' k T Computergrafik 2 SS
28 Hauptkomponentenanalyse C x ist real und symmetrisch à C x hat 2 orthogonale Eigenvektoren e 1, e 2 mit Eigenwerten λ 1, λ 2 (λ 1 λ 2 ) λ 1 = Varianz der Hauptkomponente Sei A Matrix mit Zeilen e 1 und e 2 Sei y = A(x-m x ), dann ist m y =0 und die Elemente von y sind unkorreliert Wegen A -1 =A T gilt für die Rücktransformation x=a T y + m x Abbildung: R. C. Gonzalez & R. E. Woods, Digital Image Processing Verhältnis λ 1 / λ 2 gut geeignet als Formmerkmal Computergrafik 2 SS
29 Topologische Formmerkmale L = 2 C = 1 E = -1 Topologische Merkmale ändern sich auch dann nicht, wenn sich die Form des Objektes verändert, solange es nicht zerrissen oder geklebt wird. E = 0 E = -1 Beispiele Anzahl der Löcher L Anzahl C der verbundenen Strukturen eines Gebiets Eulerzahl: E=C-L Computergrafik 2 SS
30 Welche, wie viele Merkmale? Merkmale sollten aus den vermuteten Objekteigenschaften abgeleitet werden Merkmale sollten voneinander unabhängig sein Objekte der gleichen Klasse sollten im Merkmalsraum an ähnlichen Orten zu finden sei (Häufungspunkte der Klasse, Cluster) Segmente einer Klasse in eng begrenzter Region im Merkmalsraum; Segmente verschiedener Klassen gut voneinander separiert Je weniger Merkmale zur Unterscheidung notwendig sind, desto effektiver die Entscheidungsfindung Computergrafik 2 SS
31 Klassifikation im n-dimensionalen Merkmalsraum Visuelle Suche nach Häufungspunkten oder Entscheidungsgrenzen ist nicht möglich Automatische Verfahren: Optimale Methoden: Minimierung der Wahrscheinlichkeit einer Fehlklassifikation Klassifikation nach Training: Entscheidung anhand von antrainierten Häufungspunkten oder Entscheidungsgrenzen Clustering: Automatische Suche nach Häufungsbereichen im Merkmalsraum Computergrafik 2 SS
32 Methode des geringsten Abstandes Für jede der n Klassen existieren Stichproben Aus den Stichproben jeder Klasse wird ein durchschnittlicher Merkmalsvektor der Klasse berechnet (Clusterzentrum) Eine unbekannte Stichprobe wird derjenigen Klasse zugeordnet, zu der ihr Abstand am geringsten ist Häufige Probleme Anzahl der Stichproben nicht ausreichend Stichproben nicht repräsentativ Unterschiedliche Skalierungen für die Merkmale Computergrafik 2 SS
33 Computergrafik 2 SS Cluster- Zentren für drei Klassen bestimmen
34 ? Computergrafik 2 SS
35 Bayes-sche Klassifikation Gibt es eine optimale Klassifikation? Optimal Kriterium so gewählt, dass Anzahl der Fehlklassifikationen minimal Lösungsansatz Fels Merkmalsträger als Stichproben von statistischen Verteilungen der einzelnen Klassen im Merkmalsraum Kriterium minimiert Wahrscheinlichkeit einer Fehlentscheidung Himmel Computergrafik 2 SS
36 A-Posteriori-Wahrscheinlichkeit Wahrscheinlichkeit mit der ein Segment s mit Merkmalen m der Klasse c i angehört: P s = c i m s ( ) ( ) Klassifikation: wähle diejenige Klasse, für die die Wahrscheinlichkeit am größten ist Die Anzahl der Fehlentscheidungen ist minimal, da die Lösung mit höchster Wahrscheinlichkeit gewählt wird Problem: A-Posteriori-Wahrscheinlichkeit schwer zu bestimmen für jede Merkmalskombination müssen klassenabhängige Wahrscheinlichkeiten bestimmt werden Computergrafik 2 SS
37 Merkmalsverteilungsfunktion Leichter ist zu bestimmen, wie sich für jede Klasse separat die Merkmalswerte verteilen: Bestimmung Für jede Klasse c i existiert eine Trainingsmenge T i von bereits klassifizierten Segmenten Trainingsmenge besteht aus Stichproben für die gesuchte Verteilungsfunktion Aus den Stichproben können die Verteilungsfunktionen oder deren Parameter geschätzt werden ( ( ) s = c ) i P m s P( m ( s) s = c ) i m s ( ) Computergrafik 2 SS
38 Schätzung der Merkmalsverteilungsfunktion Schätzung einer beliebigen Funktion Zerlegung des Merkmalsraums in Intervalle (Binning, Anzahl der Bins abhängig von der Anzahl der Stichproben) Zuordnung der Stichproben zu Bins Interpolation einer Funktion durch die Stichproben Schätzung von Parametern einer Funktion Vorgabe einer Verteilungscharakteristik (z.b. Normalverteilung; muss begründbar sein!) Schätzung der Parameter P( m ( s) s = c i ) ( ( ) s = c i ) P m s µ σ m s ( ) m s ( ) Computergrafik 2 SS
39 A-Priori-Wahrscheinlichkeit A-Priori-Wahrscheinlichkeit: Klassenwahrscheinlichkeit ohne Kenntnis der Merkmale P( s = c ) i Merkmalsverteilungsfunktion wird mit der A-Priori- Wahrscheinlichkeit gewichtet Beispiel: Segmente von Personen allgemein: P(s=Mann)=0.5, P(s=Frau)=0.5 in Informatikfakultät: P(s=Mann)=0.8, P(s=Frau)=0.2 Computergrafik 2 SS
40 Schätzung der A-Priori- Wahrscheinlichkeit Bestimmung aus vorhandenem Wissen Beispiel: es gibt etwa gleich viele Männer und Frauen Bestimmung aus der Trainingsmenge Trainingsmenge T = T 1 T 2 T K ist repräsentativ für alle K Klassen Anteil der Elemente von T i an T entspricht der A-Priori-Wahrscheinlichkeit, dass ein beliebig ausgewähltes Element der Klasse c i angehört T T 1 T 2 T 3 T K Computergrafik 2 SS
41 Satz von Bayes P(A B) = P(B A) P(A) P(B) Wahrscheinlichkeit Klasse c 1 Klasse c 2 Thomas Bayes, ohne mit Gewichtung mit A-Priori- Wahrscheinlichkeit Merkmalswert Entscheidungsgrenze P s = c i m s ( ) ( ) = K k=1 ( ) P s = c i P m s ( ) s = c i ( ) P( m ( s) s = c k ) P( s = c ) k Computergrafik 2 SS
42 Satz von Bayes P m ( s) s = c P( s = c i m ( s )) i = P m ( s) s = c k K k=1 ( ) ( ) ( ) P s = c i ( ) P s = c k Thomas Bayes, K k=1 ( ) P m ( s) s = c k Klasse c 1 : P( s = c k ) P( m ( s) s = c 1 ) P( m ( s) s = c 2 ) m s ( ) T T 1 T 2 T 3 P( s = c 1 ) P( s = c 2 ) P( s = c 3 ) Klasse c 2 : m s ( ) Computergrafik 2 SS T K P( s = c K )
43 Beispiel Gegeben sei eine Menge von Bildern jedes Bild enthält eine Frucht (a: Apfel oder b: Birne), die segmentiert wurde Merkmale m 1 und m 2 sind m 1 = Kreisähnlichkeit (Äpfel sind runder als Birnen) m 2 = Helligkeit (Äpfel sind dunkler als Birnen) beide Merkmale sind unabhängig voneinander Es existiert für jede Klasse eine Trainingsmenge von 10 segmentierten Früchten Die A-Priori-Wahrscheinlichkeit P(s=a) = 0.67 und P(s=b) = 0.33 (d.h. doppelt so viele Äpfel wie Birnen) Computergrafik 2 SS
44 Merkmalsverteilungsfunktionen (Äpfel) Merkmale in der Trainingsmenge! # " m 1 m 2 $ & =! # % " $ & % Kreisähnlichkeit Helligkeit tatsächlich geschätzt E(m 1 ) = 0.93, σ 2 (m 1 ) = E(m 2 ) = 0.66, σ 2 (m 2 ) = Computergrafik 2 SS
45 Merkmalsverteilungsfunktionen (Birnen) Merkmale in der Trainingsmenge! # " m 1 m 2 $ & =! # % " $ & % Kreisähnlichkeit Helligkeit E(m 1 ) = 0.75, σ 2 (m 1 ) = E(m 2 ) = 0.81, σ 2 (m 2 ) = Computergrafik 2 SS
46 Überlagerte Klassenwahrscheinlichkeiten Äpfel Birnen Entscheidungsgrenze Computergrafik 2 SS
47 Gesamtwahrscheinlichkeiten Aus den Parametern der Testdatenmengen berechnete 2D-Verteilungsfunktionen Annahme: unkorrelierte Merkmale! (Produkte der Einzelwahrsch.) m = (m 1,m 2 ) = (Kreisähnlichkeit, Helligkeit) P( m(s) s = a) = 1 " π exp m $ # ( ) 2 % ' 1 " & π exp m $ # ( ) 2 % ' & P( m(s) s = b) = 1 " π exp m $ # ( ) 2 % ' 1 " & π exp m $ # ( ) 2 % ' & Computergrafik 2 SS
48 Klassifikation Klassifikation eines unbekannten Segments mit Werten (0.83, 0.72): P a ( ) (( ) a ) 0.67 ( ) a P ( ) b (( ) b ) 0.33 ( ) a P ( ) b ( ) = P P b ( ) ( ) P ( ) = P ( ) P ( ) 0.33 = 0.61 ( ) 0.33 = 0.39 Birnen Tatsächliche Wahrscheinlichkeiten: P(a ( ))=0.60 und P(b ( ))=0.40! (0.83, 0.72)... Apfel oder Birne? Äpfel Computergrafik 2 SS
49 A-Posteriori-Wahrscheinlichkeiten Äpfel Birnen Computergrafik 2 SS
50 Direkte Schätzung der A-Posteriori- Wahrscheinlichkeiten Beobachtung bei gut gewählten Merkmalen Unterschied zwischen den A- Posteriori-Wahrscheinlichkeiten für untersch. Klassen groß selbst große Fehler bei der Schätzung der Merkmalsverteilungsfunktionen resultieren in geringen Fehlern bei der Schätzung der A-Posteriori-Wahrscheinlichkeit Konsequenz direkte Schätzung der A-Posteriori-Wahrscheinlichkeit für eine gegebene Merkmalskombination Computergrafik 2 SS
51 Single Nearest Neighbour Birnen Äpfel Für die zu bestimmende A-posteriori-Wahrscheinlichkeit wird die Umgebung gerade so groß gemacht, dass sie eine klassifizierte Stichprobe c k umfasst. Schätzung von P(s=c i m(s)): unbekanntes Segment kürzeste Entfernung P = 1.0 für c i =c k P = 0.0 sonst anfällig gegenüber Ausreißern Computergrafik 2 SS
52 k-nearest-neighbour (knn) Vergrößerung der Umgebung, so dass sie die k nächsten Nachbarn umfasst. Schätzung von P(s=c i m(s)): Birnen unbekanntes Segment Äpfel P = k i /k k i : Anzahl der Stichproben, die der Klasse c i angehören k kürzeste Entfernungen Computergrafik 2 SS
53 knn-klassifikation je dichter die Stichproben liegen, desto kleiner ist Umgebung für gegebenes k falls k und die Stichprobendichte gegen unendlich gehen, nähert sich die Qualtität der knn-klassifikation der der Bayes schen Entscheidung an Problem: Für jede zu klassifizierende Stichprobe müssen die Entfernungen zu allen(!) Stichproben des Merkmalsraums berechnet werden Lösung: Vor der Klassifikation wird die Grenzfläche geschätzt, an der die Klasse wechselt Computergrafik 2 SS
54 Lineare Entscheidungsgrenzen Klassifikation in zwei Klassen c 1 und c 2 Klassen linear separierbar, falls es gibt lineare Funktion D m 1, m 2,..., m M ( ) = w 0 + w 1 m w M m M D m ( ) = w T m (m 0 =1) so dass D(m) < 0, falls Merkmale aus c 1 und D(m) 0 falls Merkmale aus c 2 Training: Finde die Parameter w 0,, w M Klassifikation: Einsetzen der Merkmale m eines unbekannten Segments in Funktion D, Entscheidung nach Funktionswert Computergrafik 2 SS
55 Lineare Entscheidungsgrenzen m 2 c D( m 1, m 2 ) < 0 x x x x x x x x x c 2 ( ) 0 x x x x D m 1, m D m 1 Entscheidungsgrenze: D( m 1, m ) 2 = 0 = w 0 + w 1 m 1 + w 2 m 2 = 3+1 m 1 +1 m 2 Zuordnung zu Klasse c 1, falls je kleiner D(m 1,m 2 ), desto weiter von Grenze à sicherer Zuordnung zu Klasse c 2, falls D m 1, m 2 ( ) < 0 D m 1, m 2 ( ) 0 je größer D(m 1,m 2 ), desto weiter von Grenze à sicherer Computergrafik 2 SS
56 Logistische Regression D( m) = w T m (m 0 =1) h( m) = 1 1+ e D ( m ) = 1 1+ e wt m h(m) ß c 1 D(m) c 2 à Hypothese h(m) gibt Vertrauen in Klasse c 2 an: h(m) = P(s=c 2 m) Zuordnung zu Klasse c 1, falls h(m) < 0.5 Zuordnung zu Klasse c 2, falls h(m) 0.5 Computergrafik 2 SS
57 Finden der Parameter w? Trainingsmenge { (m (1), y (1) ), (m (2), y (2) ),, (m (M), y (M) ) } Kostenfunktion Cost ( h w (m), y) = falls y = 1 und h w (m)=1: Cost=0 falls y = 0 und h w (m)=0: Cost=0 falls y = 1 und h w (m)à 0: Costà falls y = 0 und h w (m)à 1: Costà Gesamtkosten über Trainingsmenge " $ # %$ ( ), y =1 ( ), y = 0 log h w (m) log 1 h w (m) hohe Kosten, falls Hypothese h w falsch liegt J w M i=1 ( ) = 1 M Cost h w (m(i) ), y (i) ( ) Gesamtkosten J(w) minimieren! Computergrafik 2 SS
58 Finden der Parameter w? Kostenfunktion Cost ( h w (m), y) = = ylog h w (m) Gesamtkosten über Trainingsmenge J ( w) = 1 M M i=1 " # log h w (m) -grad(j(w)): Richtung des stärksten Abstiegs w j J w ( ) =... = 1 M " $ # %$ ( ), y =1 ( ), y = 0 log 1 h w (m) ( ) (1 y)log( 1 h w (m)) y (i) log( h w (m (i) )) + (1 y (i) )log( 1 h w (m (i) )) M ( h ( w m (i) ) y (i) ) i=1 m w (i) $ % Computergrafik 2 SS
59 Gradientenabstieg zur Minimierung von J J ( w) = 1 M while (J(w) zu groß) { } } M i=1 " # für alle j simultan { y (i) log( h w (m (i) )) + (1 y (i) )log( 1 h w (m (i) )) w j := w j α w j J w ( ) $ % Computergrafik 2 SS
Computergrafik 2: Morphologische Operationen
Computergrafik 2: Morphologische Operationen Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz [email protected] MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies
Computergrafik 2: Filtern im Frequenzraum
Computergrafik 2: Filtern im Frequenzraum Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz [email protected] MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies (Grundlagen
Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min
Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,
Technische Universität
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik IX Grundlagen der Klassifikation Proseminar Grundlagen der Bildverarbeitung Christina Katz Betreuer: Dr. Michael
Grundlagen der Bildverarbeitung Klaus D. Tönnies
Grundlagen der Bildverarbeitung Klaus D. Tönnies ein Imprint von Pearson Education München Boston San Francisco Harlow, England Don Mills, Ontario Sydney Mexico City Madrid Amsterdam Inhaltsverzeichnis
Übersicht der Vorlesung
Übersicht der Vorlesung. Einführung. Bildverarbeitung. Morphologische Operationen 4. Bildsegmentierung 5. Merkmale von Objekten 6. Klassifikation 7. Dreidimensionale Bildinterpretation 8. Bewegungsanalyse
Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle
Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators
Grundlagen der Bildverarbeitung
Grundlagen der Bildverarbeitung Inhaltsverzeichnis Vorwort 9 Kapitel 1 Einführung 13 1.1 Anwendungen der digitalen Bildverarbeitung 16 1.2 Algorithmische Verarbeitung von Bildinformation 17 1.3 Zu diesem
Graphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Merkmale und Klassifikation Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 1 Einordnung in die Inhalte der
Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator
Mustererkennung Bayes-Klassifikator R. Neubecker, WS 2016 / 2017 Bayes-Klassifikator 2 Kontext Ziel: Optimaler Klassifikator ( = minimaler Klassifikationsfehler), basierend auf Wahrscheinlichkeitsverteilungen
Grundlagen der Bildverarbeitung Klaus D. Tönnies
Grundlagen der Bildverarbeitung Klaus D. Tönnies ein Imprint von Pearson Education München Boston San Francisco Harlow, England Don Mills, Ontario Sydney Mexico City Madrid Amsterdam Grundlagen der Bildverarbeitung
Bild-Erkennung & -Interpretation
Kapitel I Bild-Erkennung & -Interpretation FH Aachen / Jülich, FB 9 Prof. Dr. rer.nat. Walter Hillen (Dig Img I) 1 Einführung Schritte zur Bilderkennung und Interpretation: Bild-Erfassung Vorverarbeitung
Computergrafik 2: Übung 2. Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung
Computergrafik 2: Übung 2 Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung Inhalt Besprechung von Übung 1 Subsampling und Moiré Effekte Color Maps Histogrammlinearisierung Computergrafik
Principal Component Analysis (PCA)
Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen
Computergrafik 2: Übung 6. Korrelation im Orts- und Frequenzraum, Filtern im Frequenzraum, Wiener Filter
Computergrafik : Übung 6 Korrelation im Orts- und Frequenzraum, Filtern im Frequenzraum, Wiener Filter Quiz Warum Filtern im Frequenzraum? Ideales Tiefpassfilter? Parameter? Eigenschaften? Butterworth-Filter?
Klassifikation von Daten Einleitung
Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung
Klassifikation und Ähnlichkeitssuche
Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell
Modul Digitale Bildverarbeitung SS16 Bestandteile der Lehrveranstaltung und Prüfung: Vorlesungen Übungsserien Praktika (ImageJ) bis Mai 2016 Projekt
Modul Digitale Bildverarbeitung SS16 Bestandteile der Lehrveranstaltung und Prüfung: Vorlesungen Übungsserien Praktika (ImageJ) bis Mai 2016 Projekt im Juni 2016 Themen: Digitale Bilder, Eigenschaften
3. Analyse der Kamerabewegung Video - Inhaltsanalyse
3. Analyse der Kamerabewegung Video - Inhaltsanalyse Stephan Kopf Bewegungen in Videos Objektbewegungen (object motion) Kameraoperationen bzw. Kamerabewegungen (camera motion) Semantische Informationen
2D Graphik: Bildverbesserung. Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 2. Dezember 2005
2D Graphik: Bildverbesserung Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 2. Dezember 2005 Themen heute Rauschen, Entropie Bildverbesserung Punktbasiert Flächenbasiert Kantenbasiert Was ist
Lineare Klassifikationsmethoden
Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung
Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator
Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
INTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Bildanalyse Literatur David A. Forsyth: Computer Vision i A Modern Approach. Mark S. Nixon und Alberto S. Aguado: Feature Extraction and Image Processing. Ulrich Schwanecke:
Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
Clusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
Computergrafik 2: Fourier-Transformation
Computergrafik 2: Fourier-Transformation Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz [email protected] MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies (Grundlagen
10.5 Maximum-Likelihood Klassifikation (I)
Klassifikation (I) Idee Für die Klassifikation sind wir interessiert an den bedingten Wahrscheinlichkeiten p(c i (x,y) D(x,y)). y Wenn man diese bedingten Wahrscheinlichkeiten kennt, dann ordnet man einem
Computergraphik 1 2. Teil: Bildverarbeitung. Fouriertransformation Ende FFT, Bildrestauration mit PSF Transformation, Interpolation
Computergraphik 1 2. Teil: Bildverarbeitung Fouriertransformation Ende FFT, Bildrestauration mit PSF Transformation, Interpolation LMU München Medieninformatik Butz/Hoppe Computergrafik 1 SS2009 1 2 Repräsentation
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
Unüberwachtes Lernen
Unüberwachtes Lernen Mustererkennung und Klassifikation, Vorlesung No. 12 M. O. Franz 17.01.2008 Übersicht 1 Hauptkomponentenanalyse 2 Nichtlineare Hauptkomponentenanalyse 3 K-Means-Clustering Übersicht
Deskriptive Beschreibung linearer Zusammenhänge
9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,
Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen
Statistik, Datenanalyse und Simulation
Dr. Michael O. Distler [email protected] Mainz, 5. Juli 2011 Zunächst: PCA (Hauptkomponentenanalyse) ist eine mathematische Prozedur, die eine Anzahl von (möglicherweise korrelierten) Variablen
Digitale Bildverarbeitung
Digitale Bildverarbeitung 01a: Einführung und Motivation Prof. Dr. Gudrun Socher Dozentin Dozentin Prof. Dr. Gudrun Socher ([email protected]) Sprechstunde Donnerstag 9:15-10:00 Uhr Anmeldung per E-Mail
Übungen mit dem Applet Rangwerte
Rangwerte 1 Übungen mit dem Applet Rangwerte 1 Statistischer Hintergrund... 2 1.1 Verteilung der Einzelwerte und der Rangwerte...2 1.2 Kurzbeschreibung des Applets...2 1.3 Ziel des Applets...4 2 Visualisierungen
Graphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Bildverbesserung - Filterung Graphische DV und BV, Regina Pohle,. Bildverbesserung - Filterung Einordnung in die Inhalte der Vorlesung
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
2D Graphik: FFT und Anwendungen der Fouriertransformation. Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 25.
LMU München Medieninformatik Butz/Hilliges D Graphics WS005 5..005 Folie D Graphik: FFT und Anwendungen der Fouriertransformation Vorlesung D Graphik Andreas Butz, Otmar Hilliges Freitag, 5. ovember 005
Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum
Wahrscheinlichkeitsverteilungen
Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet
Übung: Computergrafik 1
Prof. Dr. Andreas Butz Prof. Dr. Ing. Axel Hoppe Dipl.-Medieninf. Dominikus Baur Dipl.-Medieninf. Sebastian Boring Übung: Computergrafik 1 Filtern im Frequenzraum Segmentierung Organisatorisches Klausuranmeldung
Vorlesung Digitale Bildverarbeitung Sommersemester 2013
Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches
Statistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
Vorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
Inhaltliche Planung für die Vorlesung
Vorlesung: Künstliche Intelligenz - Mustererkennung - P LS ES S ST ME Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte der KI, PROLOG 2) Expertensysteme
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber ([email protected]) S. Nguyen ([email protected]) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
4. Segmentierung von Objekten Video - Inhaltsanalyse
4. Segmentierung von Objekten Video - Inhaltsanalyse Stephan Kopf Inhalt Vorgehensweise Berechnung der Kamerabewegungen zwischen beliebigen Bildern Transformation eines Bildes Hintergrundbilder / Panoramabilder
Signalverarbeitung 2. Volker Stahl - 1 -
- 1 - Überblick Bessere Modelle, die nicht nur den Mittelwert von Referenzvektoren sondern auch deren Varianz berücksichtigen Weniger Fehlklassifikationen Mahalanobis Abstand Besseres Abstandsmaß basierend
Mathematische und statistische Methoden II
Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike
Fit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation
Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit
Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces
EFME-Zusammenfassusng WS11 Kurze Fragen: Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces Unter welcher Bedingung konvergiert der Online Perceptron Algorithmus?
Prüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
Flächen- und Volumenmessung lokaler Objekte in DICOM-Bildern und Bildfolgen
Flächen- und Volumenmessung lokaler Objekte in ICOM-Bildern und Bildfolgen Sergei Hludov, Christoph Meinel und Thomas Engel Institut für Telematik Bahnhofsstr. 30-3, 549 Trier Email: [email protected] Zusammenfassung.
1. Referenzpunkt Transformation
2.3 Featurereduktion Idee: Anstatt Features einfach wegzulassen, generiere einen neuen niedrigdimensionalen Featureraum aus allen Features: Redundante Features können zusammengefasst werden Irrelevantere
Multivariate Verteilungen. Gerhard Tutz LMU München
Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS
Prof. J. Zhang Universität Hamburg. AB Technische Aspekte Multimodaler Systeme. 20. Januar 2004
[email protected] Universität Hamburg AB Technische Aspekte Multimodaler Systeme [email protected] Inhaltsverzeichnis 6. Bildverarbeitung..........................415 Aufbau
Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI
Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe
Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Unabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
Statistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler
Mathematische und statistische Methoden II
Statistik & Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte
1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3
Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................
1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
Statistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
Computergrafik 2: Fourier-Transformation
Computergrafik 2: Fourier-Transformation Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz [email protected] MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies (Grundlagen
Bildregistrierung in der Medizin. Fethi KAYA - Yusuf ÖZBEK
Bildregistrierung in der Medizin Fethi KAYA - Yusuf ÖZBEK 30.05.2011 1 Inhalt 1. Einführung zur Registrierung 2. Registrierungsalgorithmen 3. Transformationen 4. Mutual Information 5. Demo 2 1- Registrierung
Klausur zur Vorlesung Lineare Algebra B im SS 2002 an der Universität Hannover
Dozent: Prof. Dr. Wolfgang Ebeling Übungsleiter: Dr. Detlef Wille Klausur zur Vorlesung Lineare Algebra B im SS an der Universität Hannover Joachim Selke 9. Februar Lineare Algebra B SS Klausur zur Vorlesung
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
Die n-dimensionale Normalverteilung
U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung
Methoden zur Cluster - Analyse
Kapitel 4 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics
10. Übung zur Linearen Algebra I -
. Übung zur Linearen Algebra I - en Kommentare an [email protected] FU Berlin. WS 29-. Aufgabe 37 i Für welche α R besitzt das lineare Gleichungssystem 4 αx + αx 2 = 4x + α + 2x 2 = α genau eine,
