Bildverarbeitung: Kontinuierliche Energieminimierung. D. Schlesinger BV: () Kontinuierliche Energieminimierung 1 / 9

Ähnliche Dokumente
Computer Vision: Optische Flüsse

Mathematik 1 für Wirtschaftsinformatik

Kevin Caldwell. 18.April 2012

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10

Wir unterscheiden folgende drei Schritte im Design paralleler Algorithmen:

Teil II. Nichtlineare Optimierung

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

Optimalitätskriterien

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17

Mathematik für Bioinformatik und Systembiologie. - Kapitel Einführung in die Optimierung - Roland Herzog und Dirk Lebiedz

Optimierung mit Matlab

Bestimmung einer ersten

Modulabschlussklausur Analysis II

2.4 Adaptive Verfahren mit Schrittweitensteuerung

Lineare Gleichungssysteme

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen.

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Serie 13: Online Test

Rekursionen. Georg Anegg 25. November Methoden und Techniken an Beispielen erklärt

17. Penalty- und Barriere-Methoden

Elemente der Analysis II

Bildverarbeitung/Mustererkennung: Zusammenfassung und Ausblick

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli Fachbereich für Mathematik und Statistik Universität Konstanz

Linearen Gleichungssysteme Anwendungsaufgaben

Optimierung für Nichtmathematiker

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.

Nichtlineare Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Finite Differenzen und Elemente

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x y = x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775,

Nichtlineare Optimierungsprobleme mit Komplexität

2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik

Übungsaufgaben mit Lösungsvorschlägen

Bildverarbeitung Herbstsemester Kanten und Ecken

Name: Klasse: Datum: Klassenarbeit Wachstumsvorgänge Kl10-Gruppe B

AES. Jens Kubieziel 07. Dezember Friedrich-Schiller-Universität Jena Fakultät für Mathem atik und Informatik

Name: Klasse: Datum: Klassenarbeit Wachstumsvorgänge Kl10-Gruppe A

Skalare Differentialgleichungen

1 Lineare Gleichungssysteme

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

Technische Mathematik

Numerische Behandlung des Eigenwertproblems

Lineare Gleichungssysteme

Optimierung. Florian Jarre Josef Stoer. Springer

Kapitel 15: Differentialgleichungen

Anwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Finite Elemente in Materialwissenschaften

Lineare Gleichungssysteme

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen

MINT-Circle-Schülerakademie

Kapitel 15. Lösung linearer Gleichungssysteme

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Geoadditive Regression

Rekonstruktion 3D-Datensätze

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Mathematische Ökologie

Informatik-Sommercamp Mastermind mit dem Android SDK

Höhere Mathematik III für Wirtschaftsinformatiker

Realtime Human Body Tracking

Multivariate Statistik

Einführung. Vita Rutka. Universität Konstanz Fachbereich Mathematik & Statistik AG Numerik SS 2009

Bevor lineare Gleichungen gelöst werden, ein paar wichtige Begriffe, die im Zusammenhang von linearen Gleichungen oft auftauchen.

Sudoku-Informatik oder wie man als Informatiker Logikrätsel löst

Monte Carlo Methoden in Kreditrisiko-Management

Markov-Ketten-Monte-Carlo-Verfahren

Statistische Thermodynamik I Lösungen zur Serie 1

Das Briefträgerproblem

Dünn besetzte Matrizen. Unterschiede in Speicherbedarf und Rechenzeit im Vergleich zu voll besetzten Matrizen. Besetzungsmuster mit spy.

Z = 60! 29!31! 1,

Optimierungsprobleme mit Nebenbedingungen - Einführung in die Theorie, Numerische Methoden und Anwendungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung mit Ungleichungsnebenbedingungen

6 Allgemeine Theorie des elektromagnetischen Feldes im Vakuum

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr.

Musterlösungen zu Prüfungsaufgaben über gewöhnliche Differentialgleichungen Prüfungsaufgabe a) Gegeben sei die lineare Differentialgleichung

Übungen lineare Gleichungssysteme - Lösungen 1. Bestimme die Lösungsmenge und führe eine Probe durch! a)

Mathematik für Wirtschaftswissenschaftler: Übungsaufgaben

Approximationsalgorithmen

TEILWEISE ASYNCHRONE ALGORITHMEN

OPERATIONS-RESEARCH (OR)

2 Kapitel 1. Einleitung

Segmentierung von Faserstrukturen in tomographischen Aufnahmen. Workshop Analyse der Mikrostruktur von Faserverbundwerkstoffen in Volumenbildern

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg OPTIMIERUNG II. Aufgaben und Lösungen

Beispiel Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) =

13 Java 4 - Entwurfsmuster am Beispiel des Rucksackproblems

Berechnung von Eigenwerten und Eigenvektoren

Bildverarbeitung Herbstsemester. Binärbildanalyse

Definition und Eigenschaften Finiter Elemente

DIFFERENTIALGLEICHUNGEN

Hamilton-Formalismus

Binäre abhängige Variablen

Integrierte Umlauf- und Dienstplanung im ÖPNV

Lernzettel Mathe Inhaltsverzeichnis

(Lineare) stochastische Optimierung

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung

Transkript:

Bildverarbeitung: Kontinuierliche Energieminimierung D. Schlesinger BV: () Kontinuierliche Energieminimierung 1 / 9

Idee Statt zu sagen, wie die Lösung geändert werden muss (explizite Algorithmus, Diffusion), werden die erwünschten Eigenschaften der Lösung explizit formuliert. Die Ausprägungen eines Objektes werden durch Abbildungen repräsentiert. Beispiele: Menge der Pixel Menge der Farben (alles diskret). Menge der Pixel Kontinuierlicher Grauwertbereich. Eigenschaften des Modells werden mittels Energie dargestellt Funktion, die ungünstige Abbildungen bestraft. Die Aufgebe wird zu einem Optimierungsproblem suche nach der günstigsten Abbildung. Fälle: Definitionsbereich: kontinuierlich 2 diskret Menge der Pixel Wertebereich: kontinuierlich diskret z.b. [0... 255] Heute: Wertebereich kontinuierlich, Beispiel Entrauschen (denoising). D. Schlesinger BV: () Kontinuierliche Energieminimierung 2 / 9

Diskreter Definitionsbereich Z 2 die Pixelmenge, E 2 die Nachbarschaftstruktur (z.b. 4-Nachbarschaft) x : Z das Ausgangsbild, y : die gesuchte Abbildung (das restaurierte Bild). Energie E : besteht (normalerweise) aus zwei Teilen: 1) Der Daten-Term: E d (y) = (x r y r ) 2 r (entspricht Gausschem auschen). 2) Der Modell-Term: E m(y) = (y r y r ) 2 rr E Annahme: der rekonstruierte Grauwertverlauf (die Abbildung y) soll glatt sein Die Optimierungsaufgabe: [ ] y = arg min Ed (y) + αe m(y) y D. Schlesinger BV: () Kontinuierliche Energieminimierung 3 / 9

Diskreter Definitionsbereich Lösungsweg Ableitungen Nullsetzen: [ ] (x r y r ) 2 + α (y r y r ) 2 = y r r rr E y r x r + α (y r y r ) = 0 r :r r E (1 + 4α)y ij αy ij 1 αy ij+1 αy i 1j αy i+1j = x ij i, j System linearer Gleichungen mir n = Variablen und n Gleichungen: A y = x mit y = (y 1, y 2,..., y n) n die Lösung, x = (x 1, x 2,..., x n) Z n das Ausgangsbild, a k = 1 + 4α, a kl = α wenn die entsprechenden Pixel benachbart sind, sonst 0. Das System kann bezüglich y mithilfe Standardmethoden (Gaussche Eliminierung, LU-Dekomposition, A invertieren usw.) gelöst werden das ist aber leider sehr Zeitaufwendig (nur im 1D-Fall effizient). (Merke: online/offline Varianten). D. Schlesinger BV: () Kontinuierliche Energieminimierung 4 / 9

Diskreter Definitionsbereich Die Matrix A ist schwach besetzt iterative Methoden. Jacobi Methode: Man zerlege A = D + M mit einer diagonalen Matrix M: Ay = x (D + M)y = x Dy = x My y = D 1 (x My) y (k+1) = D 1 (x My (k) ) Vorteile: extrem einfach, parallelisierbar Nachteile: immer noch zu langsam, konvergiert nur bei k, konvergiert nur wenn die Matrix streng diagonal dominant ist, d.h. a ii > j i a ij, was glücklicherweise für das Beispiel gerade der Fall ist. Andere Algorithmen: Gauss-Seidel, Successive Over-relaxation (schneller), Konjugierte Gradienten (bessere Konvergenz), Multigrid Methoden (viel schneller aber komplizierter) etc. Das obige Beispiel ist sehr einfach quadratische Energie lineare Gleichungssystem. Probleme wenn nicht differenzierbar, nicht konvex etc. D. Schlesinger BV: () Kontinuierliche Energieminimierung 5 / 9

Kontinuierlicher Definitionsbereich Definitionsbereich wird zu 2, die Abbildung y : 2 ist somit eine Funktion, Die Energie wird zum Energiefunktional E :. Calculus of Variations, Variationelle Ansätze. Beispiel das Entrauschen: E(y) = [ (y(r) x(r) ) 2 + α y(r) 2] dr min y Gâteaux Ableitungen entlang ichtungen h : 2 (ichtungsableitungen im Funktionsraum): E h (y) y E(y + εh) E(y) = lim = ε 0 ε de(y + εh) dε Euler-Lagrange Gleichungen: im Optimum sind alle Gâteaux Ableitungen (d.h. für alle h) Null. ε=0 D. Schlesinger BV: () Kontinuierliche Energieminimierung 6 / 9

Kontinuierlicher Definitionsbereich ] d [(y + εh x) 2 + α (y + εh) 2 dε // koordinatenweise in 2 d dε 2 2 dr ε=0 [ (y + εh x) 2 + α ( r 1 (y + εh) ) 2 + α ( [ (y + εh x)h + α ( = ) ] 2 (y + εh) dr = r 2 ε=0 (y + εh) h ) ( + α (y + εh) h ) ] dr r 1 r 1 r 2 r 2 [ (y x)h + α ( y r 1 h r 1 ) + α ( y r 2 h r 2 ) ] dr = // partielle Integration [ ( 2 y 2 (y x)h α r 2 1 2 ) ( 2 y )] h α r2 2 h dr +... (Grenzeffekte) = (y x α y)h dr +... (Grenzeffekte) = 0 h ε=0 = D. Schlesinger BV: () Kontinuierliche Energieminimierung 7 / 9

Kontinuierlicher Definitionsbereich y x α y = 0 r, und für die Grenzen n, y = 0 elation zum Fall diskretes Definitionsbereiches: Diskretisiert man die Bedingungen und schreibt sie für alle Pixel (i, j) auf, d.h. ( ) y i,j x i,j α (y i 1,j 2y i,j + y i+1,j ) + (y i,j 1 2y i,j + y i,j+1 ) = 0 so entsteht dasselbe lineare Gleichungssystem wie beim diskreten Definitionsbereich: y i,j (1 + 4α) αy i 1,j αy i+1,j αy i,j 1 αy i,j+1 = x i,j (i, j). elation zur Diffusion: (Anti)Gradient Verfahren zur Minimierung der Energie E(y): y (t+1) = y (t) E(y) y Vergleiche mit der linearen isotropischen Diffusion: = y (t) + α y + (x y) u (t+1) = u (t) + u t = u(t) + c u D. Schlesinger BV: () Kontinuierliche Energieminimierung 8 / 9

Kontinuierlicher Definitionsbereich Erweiterungen (kompakte Schreibweise): [ ] E(y) = (y x) 2 + αψ( y 2 ) dr min y mit einem egularisator Ψ: Ψ(s 2 ) = s 2 Ψ(s 2 ) = s 2 Ψ(s 2 ) = 1 λ 2 exp( s2 λ 2 ) { 0 wenn s Ψ(s 2 ) = 2 = 0 1 else Tikhonov Total Variation Perona-Malik Potts-Modell Euler-Lagrange Gleichungen: div ( Ψ ( y 2 ) y ) y x α = 0 D. Schlesinger BV: () Kontinuierliche Energieminimierung 9 / 9