Computer Vision: Segmentierung I

Ähnliche Dokumente
Shape Gradient for Image and Video Segmentation

Computer Vision: Kalman Filter

Bildverarbeitung: Filterung. D. Schlesinger () Bildverarbeitung: Filterung 1 / 17

Bildverarbeitung Herbstsemester

4 Fehlerabschätzungen und Konvergenz der FEM

Komplexe regionenbasierte Segmentierungsverfahren mit der Level Set Methode in der medizinischen Bildverarbeitung

Computer Vision: Optische Flüsse

Modul Digitale Bildverarbeitung SS16 Bestandteile der Lehrveranstaltung und Prüfung: Vorlesungen Übungsserien Praktika (ImageJ) bis Mai 2016 Projekt

INTELLIGENTE DATENANALYSE IN MATLAB

Bildverarbeitung/Mustererkennung: Zusammenfassung und Ausblick

Nichtlineare Gleichungssysteme

Bild-Erkennung & -Interpretation

EVC Repetitorium Blender

5 Interpolation und Approximation

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Klausur zu Analysis II - Lösungen

1.6 Implizite Funktionen

Faltung und Approximation von Funktionen

1 Eingebettete Untermannigfaltigkeiten des R d

1.3. DAS COULOMBSCHE GESETZ, ELEKTROSTATISCHES FELD 9

Dynamische Systeme eine Einführung

Universität des Saarlandes Seminar der Fachrichtung Mathematik Rudolf Umla

κ Κα π Κ α α Κ Α

Mathematik III. Vorlesung 74. Folgerungen aus dem Satz von Fubini. (( 1 3 x3 1 2 x2 y +2y 3 x) 1 2)dy. ( y +2y y +4y3 )dy

Taylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe

ÜBUNGSBLATT 11 LÖSUNGEN MAT121/MAT131 ANALYSIS II FRÜHJAHRSSEMESTER 2011 PROF. DR. CAMILLO DE LELLIS

Inhaltsbasierte Bildsuche. Matthias Spiller. 17. Dezember 2004

f f(x ɛξ) f(x) 0, d.h. f (x)ξ = 0 für alle ξ B 1 (0). Also f (x) = 0. In Koordinaten bedeutet dies gerade, dass in Extremstellen gilt: f(x) = 0.

12. Übungsblatt zur Analysis II

5 Der Gaußsche und Stokes sche Integralsatz

Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen

Konvexe Hülle. Konvexe Hülle. Mathematik. Konvexe Hülle: Definition. Mathematik. Konvexe Hülle: Eigenschaften. AK der Algorithmik 5, SS 2005 Hu Bin

Symplektische Geometrie

Bildverbesserung (Image Enhancement)

Bildverarbeitung: Fourier-Transformation. D. Schlesinger () BV: Fourier-Transformation 1 / 16

In der Praxis werden wir häufig mit relativ komplexen Funktionen konfrontiert. y

Überlagerung I. Überlagerung für z z 2 : komplexe Quadratwurzel. Christoph Schweigert, Garben p.1/19

Lösungen zu den Hausaufgaben zur Analysis II

8 Spontane Symmetriebrechung

Analysis III Gewöhnliche Differentialgleichungen 3. Übungsblatt (mit Lösungshinweisen)

Flüsse, Fixpunkte, Stabilität

Bildverarbeitung: 3D-Geometrie. D. Schlesinger () Bildverarbeitung: 3D-Geometrie 1 / 13

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17

) auf dem Band auf Osiris zu, während Osiris sich auf dem Weg in die Unterwelt mit der Geschwindigkeit 0.35 Schoinen pro Stunde (v 2 = 1 m s

Übersicht der Vorlesung

3.3 Das Abtasttheorem

Outline. 1 Funktionen von mehreren Veränderlichen. 2 Grenzwert und Stetigkeit. 3 Partielle Ableitungen. 4 Die verallgemeinerte Kettenregel

1 Einleitung. 1.1 Motivation. 6 Differentialgeometrie: Grundlagen Vorlesung 1

Die Interpolationsaufgabe besteht darin, eine (einfache) Funktion u n U n zu finden,

Brückenkurs Mathematik

4. Vortrag - Garben. Ling Lin, Kristijan Cule Datum: 26. April 2009

Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2

Bayessche Tomographie

10.6. Implizite ebene Kurven und Tangenten

Einführung in die medizinische Bildverarbeitung WS 12/13

4 Fehlerabschätzungen und Konvergenz der FEM

2 Die Dimension eines Vektorraums

KAPITEL 1: ENDLICHE KÖRPER 1 ALLGEMEINES 2 GLEICHUNGEN ÜBER EINEM ENDLICHEN KÖRPER

Definition 1.1 (Wirkung) Wir wollen die Kurvenverläufe x(t) finden, die das Funktional

Differential- und Integralrechnung

- 1 - zum Extremum macht, wenn y(x) eine bestimmte, genau charakterisierte Funktionenklasse ( n

Bootstrap: Punktschätzung

Differentialformen Äußere Ableitung Abbildungen Konverse Poincaré Lemma. Die Äußere Ableitung. Felix Retter

Ljapunov Exponenten. Reiner Lauterbach

3 Grundlagen statistischer Tests (Kap. 8 IS)

Musterlösung. TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Klausur Mathematik für Physiker 3 (Analysis 2) I... II...

1. Anfangswertprobleme 1. Ordnung

4 Die Fibonacci-Zahlen

Rekonstruktion 3D-Datensätze

4.7 Der Taylorsche Satz

Segmentierung. Seminar: Medizinische Visualisierung. Daniel Lange

Bildverarbeitung Herbstsemester. Mustererkennung

Statistik IV für Studenten mit dem Nebenfach Statistik Lösungen zu Blatt 9 Gerhard Tutz, Jan Ulbricht SS 07

Ein Buch. Für Anwendungen des Stoffs in den Wirtschaftswissenschaften: Knut Sydsæter, Peter Hemmond: Mathematik für Wirtschaftswissenschaftler

Statistik und Wahrscheinlichkeitsrechnung

Numerische Methoden I FEM/REM

Optimierung für Wirtschaftsinformatiker: Lineare Programme

Stochastik für die Naturwissenschaften

Einführung in Support Vector Machines (SVMs)

Nichtlineare Optimierung ohne Nebenbedingungen

55 Lokale Extrema unter Nebenbedingungen

3.2 Implizite Funktionen

Dreiecke, Geraden, Lineare Gleichungssysteme

Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung

FEM isoparametrisches Konzept

Prüfung zur Vorlesung Mathematik I/II

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Interpolation und Approximation

18.4 Das Newton-Verfahren

Fehlerfortpflanzung & Extremwertbestimmung. Folie 1

Der Laplace-Operator auf einer Riemannschen Mannigfaltigkeit

Kapitel VIII - Tests zum Niveau α

Principal Component Analysis (PCA)

3 Lineare Differentialgleichungen

Technische Universität Berlin Fakultät II Institut für Mathematik SS 13 G. Bärwolff, C. Mehl, G. Penn-Karras

Orientierung der Vektoren b 1,..., b n. Volumen des von den Vektoren aufgespannten Parallelotops

Transkript:

Computer Vision: Segmentierung I D. Schlesinger TUD/INF/KI/IS Der Plan: D. Schlesinger () CV: Segmentierung I 1 / 13

Segmentierung Man hat das... Man braucht das. D. Schlesinger () CV: Segmentierung I 2 / 13

Segmentierung Was braucht man? ein schlecht gestelltes Problem (d.h. es gibt keine einheitliche Definition). Normalerweise soll ein Objekt segmentiert werden. Was wird dabei benötigt? Farbmodelle A-priori Wissen über Form alles mit zugelassenen Transformationen evtl. Beziehungen zu anderen Objekten, Lage, Geometrie, Topologie etc. Man hat nun das... D. Schlesinger () CV: Segmentierung I 3 / 13

(Einfache) Clusterung Idee: Für jeden Pixel werden Merkmale berechnet, Die so entstehende Menge wird geclustert Beispiel: Zwei Clusters (Segmente), Grauwertbilder, Merkmal Grauwert Geclustert wird nach dem K-Means Prinzip (mithilfe der Histogramme) Binarisierung mit einem Schwellwert Erweiterungen: Glättung vorher/nachher Kompliziertere lokale Merkmale Andere Clusterung Methoden/Abstände... D. Schlesinger () CV: Segmentierung I 4 / 13

Aktive Konturen (Snakes) [Kass, Witkin, Terzopoulos, 1988] Eine Segmentierung ist es nicht ganz Eine Kontur ist parametrisch beschrieben: v(s) = x(s), y(s), s [0, 1] (geschlossen, nicht geschlossen) parametrisch, mit Slpines usw. Seine Energie ist: E(v) = Z 1h i Eint v(s) + Eimage v(s) + Econ v(s) ds 0 Interne Energie: Eint v(s) = α(s) vs (s) 2 + β(s) vss (s) 2 /2 mit vs und vss die erste bzw. die zweite Ableitungen, α(s) und β(s) sind positionspezifische Gewichte repräsentieren die gewünschte Form z.b. β(s ) = 0 bedeutet Ecke an der Stelle s ist möglich Eimage v(s) ist der Datenterm I x(s), y(s) (Intensität), I x(s), y(s) 2 (Kanten)... Econ v(s) sind zusätzliche Kräfte (z.b. vom Nutzer explizit angegeben). D. Schlesinger () CV: Segmentierung I 5 / 13

Aktive Konturen (Snakes) Paar Beispiele: Andrew Blake and Michael Isard: Active Contours http://www.robots.ox.ac.uk/ contours/ D. Schlesinger () CV: Segmentierung I 6 / 13

Region Growing Man hat bereits eine Region (diskret eine Teilmenge der Pixel) und lässt sie wachsen: Für die aktuelle Region werden bestimmte Charakteristika berechnet, wie z.b. den mittleren Grauwert, Streuung, andere Farbcharakteristika (Statistik der Kanten Ecken usw.), Größe, Ausdehnung, Umfang (Geometrische Merkmale)... Pixel zu der aktuellen Region benachbarten Pixel werden betrachtet Abhängig von den lokalen Pixelmerkmalen und den Charakteristika der Region wird entschieden, ob der Pixel zu der Region gehört. Ergänzungen: Mehrere Regionen Split, Merge... Ähnlichkeiten zu Aktiven Konturen: eine lokale Vorgehensweise Evaluierung einer Kontur eine Initialisierung ist notwendig Unterschiede: Topologie: RG automatisch, AK problematisch Metrische Fehler (durch Diskretisierung) bei RG Globale Charakteristika sind bei AK schwierig zu berücksichtigen Modell bei RG ist meist nicht explizit definiert D. Schlesinger () CV: Segmentierung I 7 / 13

Mumford-Shah Funktional [Mumford, Shah, 1989] Motivation: Das betrachtete 2-dimensionale Bild ist eine Projektion einer 3D-Szene Lichtstrahlen treffen Objekte Bildfunktion innerhalb der Projektion eines Objektes ist glatt Objektgrenzen in 3D verursachen Diskontinuitäten der Bildfunktion Bildfunktion soll stückweise glatt sein R R 2 Bilddomäne, Γ Diskontinuitäten (Segmentgrenzen) g : R R (die zu approximierende) Bildfunktion f : R R stückweise glatte Approximation E(f, Γ) = µ 2 (f g) 2 dxdy + f 2 dxdy + ν Γ min f,γ R R Γ Die Approximation soll mit der Bildfunktion möglichst übereinstimmen glatt sein möglichst wenig Grenzen haben D. Schlesinger () CV: Segmentierung I 8 / 13

Mumford-Shah Funktional Beispiele für unterschiedliche µ und ν Problem der Topologie wieder!!! Dies ist keine Segmentierung im Sinne der Partitionierung des Bildes auf disjunkte Gebiete. Die gefundenen Kanten sind nicht unbedingt Segmentgrenzen D. Schlesinger () CV: Segmentierung I 9 / 13

Mumford-Shah Funktional Spezialfall: Stückweise konstante Approximation Cartoon-Limit E(f, Γ) = µ 2 (f g) 2 dxdy + f 2 dxdy + ν Γ min f,γ R R Γ geht bei µ, ν 0 gegen E(a, Γ) = (g a i ) 2 dxdy + ν Γ min a,γ i R i Die Lösung bezüglich a i bei der fixierten Partitionierung Γ ist: a i = 1 g dxdy R i R i das Bild wird in die Regionen zerlegt (partitioniert), Farbwert innerhalb einer Region ist konstant Jetzt ist die Topologie in Ordnung: die Kanten dürfen nicht mehr willkürlich enden, denn das ist offensichtlich energetisch ungünstig (wegen Γ ). D. Schlesinger () CV: Segmentierung I 10 / 13

Chan-Vese Modell Bei Cartoon-Limit wird die Anzahl der Segmente nicht festgelegt. Diese Anzahl ergibt sich automatisch. Moch spezieller: nur zwei Regionen [Chan, Vese, 2001]: E(c 1, c 2, C) = µ Length(C) + ν Area(C) +λ 1 u 0 (x, y) c 1 2 dxdy inside(c) +λ 2 u 0 (x, y) c 2 2 dxdy outside(c) Kann effizient mit Level Set Methoden gelöst werden. D. Schlesinger () CV: Segmentierung I 11 / 13

Level Set Methoden [Osher, Sethian, 1988?] Idee: eine Kontur wird durch Nullstelle einer Levelset Funktion φ : R 2 R beschrieben, d.h. C = {(x, y) Ω : φ(x, y) = 0}, inside(c) = {(x, y) Ω : φ(x, y) > 0}, outside(c) = {(x, y) Ω : φ(x, y) < 0} Heaviside Funktion H(z) = 1I(z > 0) ( Step ), Dirac Funktion δ(z) = H(z) ( Delta ) Mit diesen Hilfsfunktionen lassen sich alle Bestandteile wie folgt schreiben: Length(C) = inside(c) Ω ( ) δ φ(x, y) dxdy, Area(C) = bla(x, y)dxdy = Ω Ω H ( φ(x, y) ) bla(x, y)dxdy H ( φ(x, y) ) dxdy Andere Charakteristika der Kontur (wie z.b. die Krümmung) lässt sich auch relativ einfach ausdrücken. usw. Integrale über bestimmte Gebiete werden durch Integrale über den gesamten Ω ersetzt. D. Schlesinger () CV: Segmentierung I 12 / 13

Level Set Methoden Weiter: Nichtdifferenzierbare H und δ werden durch etwas differenzierbares ersetzt entweder - Gateau Ableitungen auf Null setzen Euler-Lagrange Gleuchungen - Diskretisieren Gleichungssystem - Mit iterativen Methoden lösen oder - Gateau Ableitungen Gragienten - Gradientabstieg Die Topologie ist korrekt Die Topologie kann sich während der Evaluation der Kurve ändern Weniger sensitiv zur Initialisierung Vieles lässt sich einheitlich und bequem ausdrücken Nur mühsam für mehr als zwei Segmente übertragbar Statistische Interpretation schwierig Probleme mit dem Lernen (betrifft alle kontinuierliche Ansätze) D. Schlesinger () CV: Segmentierung I 13 / 13