Computergrafik 2: Klassifikation

Größe: px
Ab Seite anzeigen:

Download "Computergrafik 2: Klassifikation"

Transkript

1 Computergrafik 2: Klassifikation Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies (Grundlagen der Bildverarbeitung. Pearson Studium, 2005.)

2 Vorlesungen Datum Thema Einführung, Organisatorisches (Übungen, Klausur) 1.5./8.5. keine Vorlesungen (wegen 1. Mai und CHI-Konferenz) Abtastung von Bildern, Punktbasierte Verfahren der Bildverbesserung Licht, Farbe, Farbmanagement Konvolution, Filterung im Ortsraum (Verschiebung wegen Pfingstdienstag) 5.6. Fouriertransformation: Grundlagen Filterung im Frequenzraum Kanten, Linien, Ecken Segmentierung 3.7. Segmentierung, Morphologische Operationen Klassifikation Image Matching Klausur (Hörsaal M 018 im Hauptgebäude, Uhr) Computergrafik 2 SS2012 2

3 Themen heute Merkmale Klassifikation von Segmenten Texturmerkmale Formmerkmale Topologische Formmerkmale Bayes-sche Klassifikation knn-klassifikation Logistische Regression Computergrafik 2 SS2012 3

4 Merkmale und Klassifikation Klassifikation: Zuordnung von Bedeutung zu Segmenten Segmentkombinationen Pixeln Bounding Box eines Segments Kriterium sind Merkmale, für die oft angenommen wird durch Skalar repräsentierbar voneinander unabhängig Merkmale in einem Merkmalsvektor zusammengefasst Bildpunkt Computergrafik 2 SS2012 4

5 Einfache Pixel-Merkmale Grauwert m(p) = [f(p)] Farbwerte m(p) = [r(p) g(p) b(p)] Computergrafik 2 SS2012 5

6 3D-Merkmalsraum der Farbebenen rot grün blau Computergrafik 2 SS2012 6

7 Histogramme grün rot blau Computergrafik 2 SS2012 7

8 Mehrdimensionaler Merkmalsraum m 3 m 3 m 2 m 2 m 1 Projektionen des dreidimensionalen Merkmalsraums auf Blau-Grün-Ebene Blau-Rot-Ebene Grün-Rot-Ebene m 1 Computergrafik 2 SS2012 8

9 Merkmalsabhängige Klassifikation Klassifikation: Entscheidungsgrenze (decision boundary) im Merkmalsraum finden Allen Merkmalsträgern (hier: Pixeln) eine Bedeutung zuordnen Beispiel: Entscheidungsgrenze ist eine Gerade a m 1 +b m 2 +c=0 Pixelklassifikation: p(i,j) = Vordergrund, falls a m 1 (p)+b m 2 (p)+c < 0, sonst Hintergrund m 2 Hintergrund Vordergrund m 1 Computergrafik 2 SS2012 9

10 Klassifikationsergebnis a m1(p)+b m2(p)+c 0 a m1(p)+b m2(p)+c < 0 Computergrafik 2 SS

11 Computergrafik 2 SS

12 Texturmerkmale Objekte zeichnen sich nicht nur durch Helligkeit und Farbe aus. Textur: ein sich in einer bestimmten Region stochastisch oder deterministisch wiederholendes Muster (Invariante). Texturmerkmal: messbare Charakterisierung der Invariante. Textur beschreibt das Objektinnere. Computergrafik 2 SS

13 1 2 3 Beispiel Computergrafik 2 SS

14 Beispiel D=1, a=0 D=1, a=90 Computergrafik 2 SS

15 Co-Occurrence Matrix für 8 Nachbarn Matrix für (dx,dy) = Matrix für (-dx,-dy) Computergrafik 2 SS

16 Co-Occurrence Matrix für 8 Nachbarn Matrix für (dx,dy) = Matrix für (-dx,-dy) Computergrafik 2 SS

17 Co-Occurrence Matrix für 8 Nachbarn Matrix für (dx,dy) = Matrix für (-dx,-dy) Computergrafik 2 SS

18 Haralick'sche Texturmaße zunächst P Δ,α normieren: P Δ,α := 1 s P Δ,α mit K 1 K 1 g 1 =0 g 2 =0 ( ) s = P Δ,α g 1, g 2 Energie / Uniformität Kontrast Entropie Homogenität / inverse Differenz K 1 g 1 =0 K 1 g 1 =0 K 1 g 2 =0 K 1 g 2 =0 2 P Δ,α ( g 1, g 2 ) ( g 1 g 2 ) 2 P Δ,α g 1, g 2 ( ) K 1 K 1 P Δ,α ( g 1, g 2 ) log 2 $% P Δ,α ( g 1, g 2 )& ' g 1 =0 g 2 =0 K 1 g 1 =0 K 1 g 2 =0 P Δ,α ( g 1, g 2 ) 1+ g 1 g 2 liefern aussagekräftige Kennwerte für Texturen zur Segmentierung Berechnung für Δ = 1 und α = 0, 45, 90, 135 Merkmalsvektor aus Texturmaßen empfohlene Merkmale zur Texturklassifikation: Entropie, Kontrast, Korrelation Computergrafik 2 SS

19 Haralick'sche Texturmaße (weitere) zunächst P Δ,α normieren: Korrelation mit K 1 g 1 =0 K 1 g 2 =0 µ 1 = g 1 P Δ,α g 1, g 2 K 1 g 1 =0 K 1 K 1 g 2 =0 K 1 P Δ,α := 1 s P Δ,α mit (g 1 µ 1 ) (g 2 µ 2 ) P Δ,α ( g 1, g 2 ) σ 1 σ 2 ( ) ( ) µ 2 = g 2 P Δ,α g 1, g 2 g 2 =0 g 1 =0 K 1 K 1 g 1 =0 g 2 =0 ( ) s = P Δ,α g 1, g 2 K 1 K 1 ( ) σ 1 = (g 1 µ 1 ) 2 P Δ,α g 1, g 2 g 1 =0 K 1 g 2 =0 K 1 ( ) σ 2 = (g 2 µ 2 ) 2 P Δ,α g 1, g 2 g 2 =0 g 1 =0 inverse difference moment K 1 g 1 =0 K 1 g 2 =0 ( ) ( ) 2 P Δ,α g 1, g 2 1+ g 1 g 2 K 1 Unähnlichkeit P Δ,α ( g 1, g 2 ) g 1 g 2 K 1 g 1 =0 g 2 =0 Computergrafik 2 SS

20 Co-Occurrence Matrix mean und range der Richtungen 0, 45, 90, 135 für d=1 Computergrafik 2 SS

21 Co-Occurrence Matrix mean und range der Richtungen 0, 45, 90, 135 für d=1 Computergrafik 2 SS

22 Co-Occurrence Matrix mean und range der Richtungen 0, 45, 90, 135 für d=1 Computergrafik 2 SS

23 Korrelation, Entropie, Kontrast Korrelation Himmel Fels Wasser Entropie min mean max Kontrast mean, min, max berechnet über die Winkel 0, 45, 90, 135 Computergrafik 2 SS

24 Merkmalsvektoren aus Haralickschen Texturmaßen Energie inv. diff. moment Kontrast Entropie Computergrafik 2 SS

25 Formmerkmale Formmerkmale beschreiben das Äußere von Segmenten Allgemeine Merkmale Mittelpunkt der Bounding Box Schwerpunkt m des Segments Translationsinvariante Merkmale Bounding Box Richtung der größten Ausdehnung und Ausdehnung in dieser Richtung 1 i mg = p, p( i, j) j p( i, j) S p( i, j) S S ( i j) Computergrafik 2 SS

26 Formmerkmale Translations- und rotationsinvariante Merkmale Eingeschlossene Fläche: F Länge des Randes: R Durchschnittliche Krümmungsänderung Translations-, rotations- und skalierungsunabhängige Merkmale Kreisähnlichkeit, d.h. 4πF/R 2 Hauptkomponentenanalyse (Principal Component Analysis, PCA) Computergrafik 2 SS

27 Hauptkomponentenanalyse Gegeben Form eines Objekts Pixel des Objekts (bzw. dessen Rand) der Form x = (x 1,x 2 ) T Finde lokales Koordinatensystem, das Größe, Rotation, und Translation normalisiert Berechne Schwerpunkt m x = 1 K K k=1 x k Berechne Kovarianzmatrix C x = 1 K K k=1 ( x k m x ) x ' = x m x ( x k m x ) T Abbildung: R. C. Gonzalez & R. E. Woods, Digital Image Processing = 1 K K k=1 x ' k x ' k T Computergrafik 2 SS

28 Hauptkomponentenanalyse C x ist real und symmetrisch à C x hat 2 orthogonale Eigenvektoren e 1, e 2 mit Eigenwerten λ 1, λ 2 (λ 1 λ 2 ) λ 1 = Varianz der Hauptkomponente Sei A Matrix mit Zeilen e 1 und e 2 Sei y = A(x-m x ), dann ist m y =0 und die Elemente von y sind unkorreliert Wegen A -1 =A T gilt für die Rücktransformation x=a T y + m x Abbildung: R. C. Gonzalez & R. E. Woods, Digital Image Processing Verhältnis λ 1 / λ 2 gut geeignet als Formmerkmal Computergrafik 2 SS

29 Topologische Formmerkmale L = 2 C = 1 E = -1 Topologische Merkmale ändern sich auch dann nicht, wenn sich die Form des Objektes verändert, solange es nicht zerrissen oder geklebt wird. E = 0 E = -1 Beispiele Anzahl der Löcher L Anzahl C der verbundenen Strukturen eines Gebiets Eulerzahl: E=C-L Computergrafik 2 SS

30 Welche, wie viele Merkmale? Merkmale sollten aus den vermuteten Objekteigenschaften abgeleitet werden Merkmale sollten voneinander unabhängig sein Objekte der gleichen Klasse sollten im Merkmalsraum an ähnlichen Orten zu finden sei (Häufungspunkte der Klasse, Cluster) Segmente einer Klasse in eng begrenzter Region im Merkmalsraum; Segmente verschiedener Klassen gut voneinander separiert Je weniger Merkmale zur Unterscheidung notwendig sind, desto effektiver die Entscheidungsfindung Computergrafik 2 SS

31 Klassifikation im n-dimensionalen Merkmalsraum Visuelle Suche nach Häufungspunkten oder Entscheidungsgrenzen ist nicht möglich Automatische Verfahren: Optimale Methoden: Minimierung der Wahrscheinlichkeit einer Fehlklassifikation Klassifikation nach Training: Entscheidung anhand von antrainierten Häufungspunkten oder Entscheidungsgrenzen Clustering: Automatische Suche nach Häufungsbereichen im Merkmalsraum Computergrafik 2 SS

32 Methode des geringsten Abstandes Für jede der n Klassen existieren Stichproben Aus den Stichproben jeder Klasse wird ein durchschnittlicher Merkmalsvektor der Klasse berechnet (Clusterzentrum) Eine unbekannte Stichprobe wird derjenigen Klasse zugeordnet, zu der ihr Abstand am geringsten ist Häufige Probleme Anzahl der Stichproben nicht ausreichend Stichproben nicht repräsentativ Unterschiedliche Skalierungen für die Merkmale Computergrafik 2 SS

33 Computergrafik 2 SS Cluster- Zentren für drei Klassen bestimmen

34 ? Computergrafik 2 SS

35 Bayes-sche Klassifikation Gibt es eine optimale Klassifikation? Optimal Kriterium so gewählt, dass Anzahl der Fehlklassifikationen minimal Lösungsansatz Fels Merkmalsträger als Stichproben von statistischen Verteilungen der einzelnen Klassen im Merkmalsraum Kriterium minimiert Wahrscheinlichkeit einer Fehlentscheidung Himmel Computergrafik 2 SS

36 A-Posteriori-Wahrscheinlichkeit Wahrscheinlichkeit mit der ein Segment s mit Merkmalen m der Klasse c i angehört: P s = c i m s ( ) ( ) Klassifikation: wähle diejenige Klasse, für die die Wahrscheinlichkeit am größten ist Die Anzahl der Fehlentscheidungen ist minimal, da die Lösung mit höchster Wahrscheinlichkeit gewählt wird Problem: A-Posteriori-Wahrscheinlichkeit schwer zu bestimmen für jede Merkmalskombination müssen klassenabhängige Wahrscheinlichkeiten bestimmt werden Computergrafik 2 SS

37 Merkmalsverteilungsfunktion Leichter ist zu bestimmen, wie sich für jede Klasse separat die Merkmalswerte verteilen: Bestimmung Für jede Klasse c i existiert eine Trainingsmenge T i von bereits klassifizierten Segmenten Trainingsmenge besteht aus Stichproben für die gesuchte Verteilungsfunktion Aus den Stichproben können die Verteilungsfunktionen oder deren Parameter geschätzt werden ( ( ) s = c ) i P m s P( m ( s) s = c ) i m s ( ) Computergrafik 2 SS

38 Schätzung der Merkmalsverteilungsfunktion Schätzung einer beliebigen Funktion Zerlegung des Merkmalsraums in Intervalle (Binning, Anzahl der Bins abhängig von der Anzahl der Stichproben) Zuordnung der Stichproben zu Bins Interpolation einer Funktion durch die Stichproben Schätzung von Parametern einer Funktion Vorgabe einer Verteilungscharakteristik (z.b. Normalverteilung; muss begründbar sein!) Schätzung der Parameter P( m ( s) s = c i ) ( ( ) s = c i ) P m s µ σ m s ( ) m s ( ) Computergrafik 2 SS

39 A-Priori-Wahrscheinlichkeit A-Priori-Wahrscheinlichkeit: Klassenwahrscheinlichkeit ohne Kenntnis der Merkmale P( s = c ) i Merkmalsverteilungsfunktion wird mit der A-Priori- Wahrscheinlichkeit gewichtet Beispiel: Segmente von Personen allgemein: P(s=Mann)=0.5, P(s=Frau)=0.5 in Informatikfakultät: P(s=Mann)=0.8, P(s=Frau)=0.2 Computergrafik 2 SS

40 Schätzung der A-Priori- Wahrscheinlichkeit Bestimmung aus vorhandenem Wissen Beispiel: es gibt etwa gleich viele Männer und Frauen Bestimmung aus der Trainingsmenge Trainingsmenge T = T 1 T 2 T K ist repräsentativ für alle K Klassen Anteil der Elemente von T i an T entspricht der A-Priori-Wahrscheinlichkeit, dass ein beliebig ausgewähltes Element der Klasse c i angehört T T 1 T 2 T 3 T K Computergrafik 2 SS

41 Satz von Bayes P(A B) = P(B A) P(A) P(B) Wahrscheinlichkeit Klasse c 1 Klasse c 2 Thomas Bayes, ohne mit Gewichtung mit A-Priori- Wahrscheinlichkeit Merkmalswert Entscheidungsgrenze P s = c i m s ( ) ( ) = K k=1 ( ) P s = c i P m s ( ) s = c i ( ) P( m ( s) s = c k ) P( s = c ) k Computergrafik 2 SS

42 Satz von Bayes P m ( s) s = c P( s = c i m ( s )) i = P m ( s) s = c k K k=1 ( ) ( ) ( ) P s = c i ( ) P s = c k Thomas Bayes, K k=1 ( ) P m ( s) s = c k Klasse c 1 : P( s = c k ) P( m ( s) s = c 1 ) P( m ( s) s = c 2 ) m s ( ) T T 1 T 2 T 3 P( s = c 1 ) P( s = c 2 ) P( s = c 3 ) Klasse c 2 : m s ( ) Computergrafik 2 SS T K P( s = c K )

43 Beispiel Gegeben sei eine Menge von Bildern jedes Bild enthält eine Frucht (a: Apfel oder b: Birne), die segmentiert wurde Merkmale m 1 und m 2 sind m 1 = Kreisähnlichkeit (Äpfel sind runder als Birnen) m 2 = Helligkeit (Äpfel sind dunkler als Birnen) beide Merkmale sind unabhängig voneinander Es existiert für jede Klasse eine Trainingsmenge von 10 segmentierten Früchten Die A-Priori-Wahrscheinlichkeit P(s=a) = 0.67 und P(s=b) = 0.33 (d.h. doppelt so viele Äpfel wie Birnen) Computergrafik 2 SS

44 Merkmalsverteilungsfunktionen (Äpfel) Merkmale in der Trainingsmenge! # " m 1 m 2 $ & =! # % " $ & % Kreisähnlichkeit Helligkeit tatsächlich geschätzt E(m 1 ) = 0.93, σ 2 (m 1 ) = E(m 2 ) = 0.66, σ 2 (m 2 ) = Computergrafik 2 SS

45 Merkmalsverteilungsfunktionen (Birnen) Merkmale in der Trainingsmenge! # " m 1 m 2 $ & =! # % " $ & % Kreisähnlichkeit Helligkeit E(m 1 ) = 0.75, σ 2 (m 1 ) = E(m 2 ) = 0.81, σ 2 (m 2 ) = Computergrafik 2 SS

46 Überlagerte Klassenwahrscheinlichkeiten Äpfel Birnen Entscheidungsgrenze Computergrafik 2 SS

47 Gesamtwahrscheinlichkeiten Aus den Parametern der Testdatenmengen berechnete 2D-Verteilungsfunktionen Annahme: unkorrelierte Merkmale! (Produkte der Einzelwahrsch.) m = (m 1,m 2 ) = (Kreisähnlichkeit, Helligkeit) P( m(s) s = a) = 1 " π exp m $ # ( ) 2 % ' 1 " & π exp m $ # ( ) 2 % ' & P( m(s) s = b) = 1 " π exp m $ # ( ) 2 % ' 1 " & π exp m $ # ( ) 2 % ' & Computergrafik 2 SS

48 Klassifikation Klassifikation eines unbekannten Segments mit Werten (0.83, 0.72): P a ( ) (( ) a ) 0.67 ( ) a P ( ) b (( ) b ) 0.33 ( ) a P ( ) b ( ) = P P b ( ) ( ) P ( ) = P ( ) P ( ) 0.33 = 0.61 ( ) 0.33 = 0.39 Birnen Tatsächliche Wahrscheinlichkeiten: P(a ( ))=0.60 und P(b ( ))=0.40! (0.83, 0.72)... Apfel oder Birne? Äpfel Computergrafik 2 SS

49 A-Posteriori-Wahrscheinlichkeiten Äpfel Birnen Computergrafik 2 SS

50 Direkte Schätzung der A-Posteriori- Wahrscheinlichkeiten Beobachtung bei gut gewählten Merkmalen Unterschied zwischen den A- Posteriori-Wahrscheinlichkeiten für untersch. Klassen groß selbst große Fehler bei der Schätzung der Merkmalsverteilungsfunktionen resultieren in geringen Fehlern bei der Schätzung der A-Posteriori-Wahrscheinlichkeit Konsequenz direkte Schätzung der A-Posteriori-Wahrscheinlichkeit für eine gegebene Merkmalskombination Computergrafik 2 SS

51 Single Nearest Neighbour Birnen Äpfel Für die zu bestimmende A-posteriori-Wahrscheinlichkeit wird die Umgebung gerade so groß gemacht, dass sie eine klassifizierte Stichprobe c k umfasst. Schätzung von P(s=c i m(s)): unbekanntes Segment kürzeste Entfernung P = 1.0 für c i =c k P = 0.0 sonst anfällig gegenüber Ausreißern Computergrafik 2 SS

52 k-nearest-neighbour (knn) Vergrößerung der Umgebung, so dass sie die k nächsten Nachbarn umfasst. Schätzung von P(s=c i m(s)): Birnen unbekanntes Segment Äpfel P = k i /k k i : Anzahl der Stichproben, die der Klasse c i angehören k kürzeste Entfernungen Computergrafik 2 SS

53 knn-klassifikation je dichter die Stichproben liegen, desto kleiner ist Umgebung für gegebenes k falls k und die Stichprobendichte gegen unendlich gehen, nähert sich die Qualtität der knn-klassifikation der der Bayes schen Entscheidung an Problem: Für jede zu klassifizierende Stichprobe müssen die Entfernungen zu allen(!) Stichproben des Merkmalsraums berechnet werden Lösung: Vor der Klassifikation wird die Grenzfläche geschätzt, an der die Klasse wechselt Computergrafik 2 SS

54 Lineare Entscheidungsgrenzen Klassifikation in zwei Klassen c 1 und c 2 Klassen linear separierbar, falls es gibt lineare Funktion D m 1, m 2,..., m M ( ) = w 0 + w 1 m w M m M D m ( ) = w T m (m 0 =1) so dass D(m) < 0, falls Merkmale aus c 1 und D(m) 0 falls Merkmale aus c 2 Training: Finde die Parameter w 0,, w M Klassifikation: Einsetzen der Merkmale m eines unbekannten Segments in Funktion D, Entscheidung nach Funktionswert Computergrafik 2 SS

55 Lineare Entscheidungsgrenzen m 2 c D( m 1, m 2 ) < 0 x x x x x x x x x c 2 ( ) 0 x x x x D m 1, m D m 1 Entscheidungsgrenze: D( m 1, m ) 2 = 0 = w 0 + w 1 m 1 + w 2 m 2 = 3+1 m 1 +1 m 2 Zuordnung zu Klasse c 1, falls je kleiner D(m 1,m 2 ), desto weiter von Grenze à sicherer Zuordnung zu Klasse c 2, falls D m 1, m 2 ( ) < 0 D m 1, m 2 ( ) 0 je größer D(m 1,m 2 ), desto weiter von Grenze à sicherer Computergrafik 2 SS

56 Logistische Regression D( m) = w T m (m 0 =1) h( m) = 1 1+ e D ( m ) = 1 1+ e wt m h(m) ß c 1 D(m) c 2 à Hypothese h(m) gibt Vertrauen in Klasse c 2 an: h(m) = P(s=c 2 m) Zuordnung zu Klasse c 1, falls h(m) < 0.5 Zuordnung zu Klasse c 2, falls h(m) 0.5 Computergrafik 2 SS

57 Finden der Parameter w? Trainingsmenge { (m (1), y (1) ), (m (2), y (2) ),, (m (M), y (M) ) } Kostenfunktion Cost ( h w (m), y) = falls y = 1 und h w (m)=1: Cost=0 falls y = 0 und h w (m)=0: Cost=0 falls y = 1 und h w (m)à 0: Costà falls y = 0 und h w (m)à 1: Costà Gesamtkosten über Trainingsmenge " $ # %$ ( ), y =1 ( ), y = 0 log h w (m) log 1 h w (m) hohe Kosten, falls Hypothese h w falsch liegt J w M i=1 ( ) = 1 M Cost h w (m(i) ), y (i) ( ) Gesamtkosten J(w) minimieren! Computergrafik 2 SS

58 Finden der Parameter w? Kostenfunktion Cost ( h w (m), y) = = ylog h w (m) Gesamtkosten über Trainingsmenge J ( w) = 1 M M i=1 " # log h w (m) -grad(j(w)): Richtung des stärksten Abstiegs w j J w ( ) =... = 1 M " $ # %$ ( ), y =1 ( ), y = 0 log 1 h w (m) ( ) (1 y)log( 1 h w (m)) y (i) log( h w (m (i) )) + (1 y (i) )log( 1 h w (m (i) )) M ( h ( w m (i) ) y (i) ) i=1 m w (i) $ % Computergrafik 2 SS

59 Gradientenabstieg zur Minimierung von J J ( w) = 1 M while (J(w) zu groß) { } } M i=1 " # für alle j simultan { y (i) log( h w (m (i) )) + (1 y (i) )log( 1 h w (m (i) )) w j := w j α w j J w ( ) $ % Computergrafik 2 SS

Computergrafik 2: Morphologische Operationen

Computergrafik 2: Morphologische Operationen Computergrafik 2: Morphologische Operationen Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz [email protected] MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies

Mehr

Computergrafik 2: Filtern im Frequenzraum

Computergrafik 2: Filtern im Frequenzraum Computergrafik 2: Filtern im Frequenzraum Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz [email protected] MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies (Grundlagen

Mehr

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte, 90 min Klausur, Analyse mehrdimensionaler Daten, WS 2010/2011, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 21.02.2011 Klausur zur Vorlesung Analyse mehrdimensionaler Daten, Lösungen WS 2010/2011; 6 Kreditpunkte,

Mehr

Technische Universität

Technische Universität Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik IX Grundlagen der Klassifikation Proseminar Grundlagen der Bildverarbeitung Christina Katz Betreuer: Dr. Michael

Mehr

Grundlagen der Bildverarbeitung Klaus D. Tönnies

Grundlagen der Bildverarbeitung Klaus D. Tönnies Grundlagen der Bildverarbeitung Klaus D. Tönnies ein Imprint von Pearson Education München Boston San Francisco Harlow, England Don Mills, Ontario Sydney Mexico City Madrid Amsterdam Inhaltsverzeichnis

Mehr

Übersicht der Vorlesung

Übersicht der Vorlesung Übersicht der Vorlesung. Einführung. Bildverarbeitung. Morphologische Operationen 4. Bildsegmentierung 5. Merkmale von Objekten 6. Klassifikation 7. Dreidimensionale Bildinterpretation 8. Bewegungsanalyse

Mehr

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators

Mehr

Grundlagen der Bildverarbeitung

Grundlagen der Bildverarbeitung Grundlagen der Bildverarbeitung Inhaltsverzeichnis Vorwort 9 Kapitel 1 Einführung 13 1.1 Anwendungen der digitalen Bildverarbeitung 16 1.2 Algorithmische Verarbeitung von Bildinformation 17 1.3 Zu diesem

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Merkmale und Klassifikation Graphische DV und BV, Regina Pohle, 16. Merkmale und Klassifikation 1 Einordnung in die Inhalte der

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator

Mustererkennung. Bayes-Klassifikator. R. Neubecker, WS 2016 / Bayes-Klassifikator Mustererkennung Bayes-Klassifikator R. Neubecker, WS 2016 / 2017 Bayes-Klassifikator 2 Kontext Ziel: Optimaler Klassifikator ( = minimaler Klassifikationsfehler), basierend auf Wahrscheinlichkeitsverteilungen

Mehr

Grundlagen der Bildverarbeitung Klaus D. Tönnies

Grundlagen der Bildverarbeitung Klaus D. Tönnies Grundlagen der Bildverarbeitung Klaus D. Tönnies ein Imprint von Pearson Education München Boston San Francisco Harlow, England Don Mills, Ontario Sydney Mexico City Madrid Amsterdam Grundlagen der Bildverarbeitung

Mehr

Bild-Erkennung & -Interpretation

Bild-Erkennung & -Interpretation Kapitel I Bild-Erkennung & -Interpretation FH Aachen / Jülich, FB 9 Prof. Dr. rer.nat. Walter Hillen (Dig Img I) 1 Einführung Schritte zur Bilderkennung und Interpretation: Bild-Erfassung Vorverarbeitung

Mehr

Computergrafik 2: Übung 2. Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung

Computergrafik 2: Übung 2. Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung Computergrafik 2: Übung 2 Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung Inhalt Besprechung von Übung 1 Subsampling und Moiré Effekte Color Maps Histogrammlinearisierung Computergrafik

Mehr

Principal Component Analysis (PCA)

Principal Component Analysis (PCA) Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen

Mehr

Computergrafik 2: Übung 6. Korrelation im Orts- und Frequenzraum, Filtern im Frequenzraum, Wiener Filter

Computergrafik 2: Übung 6. Korrelation im Orts- und Frequenzraum, Filtern im Frequenzraum, Wiener Filter Computergrafik : Übung 6 Korrelation im Orts- und Frequenzraum, Filtern im Frequenzraum, Wiener Filter Quiz Warum Filtern im Frequenzraum? Ideales Tiefpassfilter? Parameter? Eigenschaften? Butterworth-Filter?

Mehr

Klassifikation von Daten Einleitung

Klassifikation von Daten Einleitung Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung

Mehr

Klassifikation und Ähnlichkeitssuche

Klassifikation und Ähnlichkeitssuche Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell

Mehr

Modul Digitale Bildverarbeitung SS16 Bestandteile der Lehrveranstaltung und Prüfung: Vorlesungen Übungsserien Praktika (ImageJ) bis Mai 2016 Projekt

Modul Digitale Bildverarbeitung SS16 Bestandteile der Lehrveranstaltung und Prüfung: Vorlesungen Übungsserien Praktika (ImageJ) bis Mai 2016 Projekt Modul Digitale Bildverarbeitung SS16 Bestandteile der Lehrveranstaltung und Prüfung: Vorlesungen Übungsserien Praktika (ImageJ) bis Mai 2016 Projekt im Juni 2016 Themen: Digitale Bilder, Eigenschaften

Mehr

3. Analyse der Kamerabewegung Video - Inhaltsanalyse

3. Analyse der Kamerabewegung Video - Inhaltsanalyse 3. Analyse der Kamerabewegung Video - Inhaltsanalyse Stephan Kopf Bewegungen in Videos Objektbewegungen (object motion) Kameraoperationen bzw. Kamerabewegungen (camera motion) Semantische Informationen

Mehr

2D Graphik: Bildverbesserung. Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 2. Dezember 2005

2D Graphik: Bildverbesserung. Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 2. Dezember 2005 2D Graphik: Bildverbesserung Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 2. Dezember 2005 Themen heute Rauschen, Entropie Bildverbesserung Punktbasiert Flächenbasiert Kantenbasiert Was ist

Mehr

Lineare Klassifikationsmethoden

Lineare Klassifikationsmethoden Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung

Mehr

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB

INTELLIGENTE DATENANALYSE IN MATLAB INTELLIGENTE DATENANALYSE IN MATLAB Bildanalyse Literatur David A. Forsyth: Computer Vision i A Modern Approach. Mark S. Nixon und Alberto S. Aguado: Feature Extraction and Image Processing. Ulrich Schwanecke:

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Computergrafik 2: Fourier-Transformation

Computergrafik 2: Fourier-Transformation Computergrafik 2: Fourier-Transformation Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz [email protected] MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies (Grundlagen

Mehr

10.5 Maximum-Likelihood Klassifikation (I)

10.5 Maximum-Likelihood Klassifikation (I) Klassifikation (I) Idee Für die Klassifikation sind wir interessiert an den bedingten Wahrscheinlichkeiten p(c i (x,y) D(x,y)). y Wenn man diese bedingten Wahrscheinlichkeiten kennt, dann ordnet man einem

Mehr

Computergraphik 1 2. Teil: Bildverarbeitung. Fouriertransformation Ende FFT, Bildrestauration mit PSF Transformation, Interpolation

Computergraphik 1 2. Teil: Bildverarbeitung. Fouriertransformation Ende FFT, Bildrestauration mit PSF Transformation, Interpolation Computergraphik 1 2. Teil: Bildverarbeitung Fouriertransformation Ende FFT, Bildrestauration mit PSF Transformation, Interpolation LMU München Medieninformatik Butz/Hoppe Computergrafik 1 SS2009 1 2 Repräsentation

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Unüberwachtes Lernen

Unüberwachtes Lernen Unüberwachtes Lernen Mustererkennung und Klassifikation, Vorlesung No. 12 M. O. Franz 17.01.2008 Übersicht 1 Hauptkomponentenanalyse 2 Nichtlineare Hauptkomponentenanalyse 3 K-Means-Clustering Übersicht

Mehr

Deskriptive Beschreibung linearer Zusammenhänge

Deskriptive Beschreibung linearer Zusammenhänge 9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler [email protected] Mainz, 5. Juli 2011 Zunächst: PCA (Hauptkomponentenanalyse) ist eine mathematische Prozedur, die eine Anzahl von (möglicherweise korrelierten) Variablen

Mehr

Digitale Bildverarbeitung

Digitale Bildverarbeitung Digitale Bildverarbeitung 01a: Einführung und Motivation Prof. Dr. Gudrun Socher Dozentin Dozentin Prof. Dr. Gudrun Socher ([email protected]) Sprechstunde Donnerstag 9:15-10:00 Uhr Anmeldung per E-Mail

Mehr

Übungen mit dem Applet Rangwerte

Übungen mit dem Applet Rangwerte Rangwerte 1 Übungen mit dem Applet Rangwerte 1 Statistischer Hintergrund... 2 1.1 Verteilung der Einzelwerte und der Rangwerte...2 1.2 Kurzbeschreibung des Applets...2 1.3 Ziel des Applets...4 2 Visualisierungen

Mehr

Graphische Datenverarbeitung und Bildverarbeitung

Graphische Datenverarbeitung und Bildverarbeitung Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Bildverbesserung - Filterung Graphische DV und BV, Regina Pohle,. Bildverbesserung - Filterung Einordnung in die Inhalte der Vorlesung

Mehr

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

2D Graphik: FFT und Anwendungen der Fouriertransformation. Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 25.

2D Graphik: FFT und Anwendungen der Fouriertransformation. Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 25. LMU München Medieninformatik Butz/Hilliges D Graphics WS005 5..005 Folie D Graphik: FFT und Anwendungen der Fouriertransformation Vorlesung D Graphik Andreas Butz, Otmar Hilliges Freitag, 5. ovember 005

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen

Mathematische Werkzeuge R. Neubecker, WS 2018 / 2019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 018 / 019 Optimierung Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen 1 Optimierung Optimierungsprobleme Suche nach dem Maximum oder Minimum

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Übung: Computergrafik 1

Übung: Computergrafik 1 Prof. Dr. Andreas Butz Prof. Dr. Ing. Axel Hoppe Dipl.-Medieninf. Dominikus Baur Dipl.-Medieninf. Sebastian Boring Übung: Computergrafik 1 Filtern im Frequenzraum Segmentierung Organisatorisches Klausuranmeldung

Mehr

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Inhaltliche Planung für die Vorlesung

Inhaltliche Planung für die Vorlesung Vorlesung: Künstliche Intelligenz - Mustererkennung - P LS ES S ST ME Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte der KI, PROLOG 2) Expertensysteme

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber ([email protected]) S. Nguyen ([email protected]) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

4. Segmentierung von Objekten Video - Inhaltsanalyse

4. Segmentierung von Objekten Video - Inhaltsanalyse 4. Segmentierung von Objekten Video - Inhaltsanalyse Stephan Kopf Inhalt Vorgehensweise Berechnung der Kamerabewegungen zwischen beliebigen Bildern Transformation eines Bildes Hintergrundbilder / Panoramabilder

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Überblick Bessere Modelle, die nicht nur den Mittelwert von Referenzvektoren sondern auch deren Varianz berücksichtigen Weniger Fehlklassifikationen Mahalanobis Abstand Besseres Abstandsmaß basierend

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces

Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces EFME-Zusammenfassusng WS11 Kurze Fragen: Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces Unter welcher Bedingung konvergiert der Online Perceptron Algorithmus?

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Flächen- und Volumenmessung lokaler Objekte in DICOM-Bildern und Bildfolgen

Flächen- und Volumenmessung lokaler Objekte in DICOM-Bildern und Bildfolgen Flächen- und Volumenmessung lokaler Objekte in ICOM-Bildern und Bildfolgen Sergei Hludov, Christoph Meinel und Thomas Engel Institut für Telematik Bahnhofsstr. 30-3, 549 Trier Email: [email protected] Zusammenfassung.

Mehr

1. Referenzpunkt Transformation

1. Referenzpunkt Transformation 2.3 Featurereduktion Idee: Anstatt Features einfach wegzulassen, generiere einen neuen niedrigdimensionalen Featureraum aus allen Features: Redundante Features können zusammengefasst werden Irrelevantere

Mehr

Multivariate Verteilungen. Gerhard Tutz LMU München

Multivariate Verteilungen. Gerhard Tutz LMU München Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS

Mehr

Prof. J. Zhang Universität Hamburg. AB Technische Aspekte Multimodaler Systeme. 20. Januar 2004

Prof. J. Zhang Universität Hamburg. AB Technische Aspekte Multimodaler Systeme. 20. Januar 2004 [email protected] Universität Hamburg AB Technische Aspekte Multimodaler Systeme [email protected] Inhaltsverzeichnis 6. Bildverarbeitung..........................415 Aufbau

Mehr

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Statistik & Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte

Mehr

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3 Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Computergrafik 2: Fourier-Transformation

Computergrafik 2: Fourier-Transformation Computergrafik 2: Fourier-Transformation Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz [email protected] MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies (Grundlagen

Mehr

Bildregistrierung in der Medizin. Fethi KAYA - Yusuf ÖZBEK

Bildregistrierung in der Medizin. Fethi KAYA - Yusuf ÖZBEK Bildregistrierung in der Medizin Fethi KAYA - Yusuf ÖZBEK 30.05.2011 1 Inhalt 1. Einführung zur Registrierung 2. Registrierungsalgorithmen 3. Transformationen 4. Mutual Information 5. Demo 2 1- Registrierung

Mehr

Klausur zur Vorlesung Lineare Algebra B im SS 2002 an der Universität Hannover

Klausur zur Vorlesung Lineare Algebra B im SS 2002 an der Universität Hannover Dozent: Prof. Dr. Wolfgang Ebeling Übungsleiter: Dr. Detlef Wille Klausur zur Vorlesung Lineare Algebra B im SS an der Universität Hannover Joachim Selke 9. Februar Lineare Algebra B SS Klausur zur Vorlesung

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Die n-dimensionale Normalverteilung

Die n-dimensionale Normalverteilung U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung

Mehr

Methoden zur Cluster - Analyse

Methoden zur Cluster - Analyse Kapitel 4 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics

Mehr

10. Übung zur Linearen Algebra I -

10. Übung zur Linearen Algebra I - . Übung zur Linearen Algebra I - en Kommentare an [email protected] FU Berlin. WS 29-. Aufgabe 37 i Für welche α R besitzt das lineare Gleichungssystem 4 αx + αx 2 = 4x + α + 2x 2 = α genau eine,

Mehr