Computergrafik 2: Übung 2. Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung

Ähnliche Dokumente
2D Graphik: Bildverbesserung. Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 2. Dezember 2005

Computergrafik 2: Digitale Bilder & Punktoperationen

Graphische Datenverarbeitung und Bildverarbeitung

Computergraphik 1 2. Teil: Bildverarbeitung

Computergrafik 2: Digitale Bilder & Punktoperationen

Computergrafik 2: Übung 6. Korrelation im Orts- und Frequenzraum, Filtern im Frequenzraum, Wiener Filter

Bildverbesserung. Frequenz-, Punkt- und Maskenoperationen. Backfrieder-Hagenberg

Proseminar Grundlagen der Bildverarbeitung Thema: Bildverbesserung Konstantin Rastegaev

Bildpunkt auf dem Gitter: Pixel (picture element) (manchmal auch Pel)

INTELLIGENTE DATENANALYSE IN MATLAB

Nichtmonotone Grauwertabbildung

Digitale Bildverarbeitung (DBV)

Struktur des menschlichen Auges. Bildgebende Verfahren in der Medizin und medizinische Bildverarbeitung Bildverbesserung 2 / 99

Computergrafik 2: Fourier-Transformation

Einführung in die medizinische Bildverarbeitung WS 12/13

- Sei r(x,y) Eingangsbild, dass nur Rauschen (Quantenrauschen) enthält.

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Bildverarbeitung Herbstsemester Punktoperationen

Bildrekonstruktion & Multiresolution

Kapitel 9: Informationstheorie. 2. Entropie

Einführung in die medizinische Bildverarbeitung WS 12/13

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Adaptive Systeme. Sommersemester Prof. Dr. -Ing. Heinz-Georg Fehn. Prof. Dr. rer. nat. Nikolaus Wulff

Bildverbesserung (Image Enhancement)

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch

2 Zufallsvariable und Verteilungsfunktionen

10 Transformation von Zufallsvariablen

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Mathematische und statistische Methoden II

Wahrscheinlichkeitsrechnung und Statistik

Statistik und Wahrscheinlichkeitsrechnung

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

3.3 Das Abtasttheorem

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

und mit t in Sekunden wird mit einer Frequenz von 8000 Hz abgetastet. Die Abtastung beginnt bei t=0 mit dem Zeitindex n=0.

Splitting. Impurity. c 1. c 2. c 3. c 4

Musterlösung: 23. Oktober 2014, 16:42

Schätzung von Parametern

Computergestützte Datenanalyse in der Kern- und Teilchenphysik

Mathematische und statistische Methoden II

Proseminar: Grundlagen Bildverarbeitung / Bildverstehen. Bildverbesserung. Sylwia Kawalerowicz

(Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!)

Kapitel 3: Etwas Informationstheorie

Lösungen zu Übungsaufgaben Blatt 9

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Digitalisierung und Kodierung

Die Maximum-Likelihood-Methode

Multivariate Zufallsvariablen

Digitale Bildverarbeitung Einheit 6 Punktoperationen

Unabhängige Zufallsvariablen

L 3. L a 3. P a. L a m 3. P a l. L a m a 3. P a l m. P a l m e. P o 4. P o p 4. L a. P o p o 4. L a m. Agnes Klawatsch

R a i n e r N i e u w e n h u i z e n K a p e l l e n s t r G r e v e n T e l / F a x / e

F r e i t a g, 3. J u n i

Statistische Thermodynamik I Lösungen zur Serie 1

Digitale Bildverarbeitung (DBV)

P (X = 2) = 1/36, P (X = 3) = 2/36,...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Ablauf. 1 Imitationsdynamik. 2 Monotone Auszahlung. 3 Entscheidung gegen iterativ dominierte Strategien. 4 Beste-Antwort-Dynamik 2 / 26

2. Digitale Codierung und Übertragung

Statistische Grundlagen

2. Digitale Codierung und Übertragung

Inhalte. Photogram. Aufnahmesysteme. HS BO Lab. für Photogrammetrie: Digitalisierung analoger Bilder 1

Das Nyquist-Shannon Theorem

Klassen diskreter Variablen

Kapitel 8: Zufallsvektoren

Interaktives Skriptum: Elementare Wahrscheinlichkeitsrechnung

Copula Funktionen. Eine Einführung. Nils Friewald

Graphische Datenverarbeitung und Bildverarbeitung

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines

Bildverarbeitung in R

Statistische Kenngrößen. Histogramm. Grundlagen zur statistischen Signalverarbeitung. Statistische Beschreibung von Audio

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze

Die Varianz (Streuung) Definition

Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1

Einführung in Bildverarbeitung und Computervision

Digitale Bildverarbeitung Einheit 5 Bilder und Statistik

2. Digitale Codierung und Übertragung

Einführung in die medizinische Bildverarbeitung SS 2013

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

Primärstruktur. Wintersemester 2011/12. Peter Güntert

Bildverarbeitung: Fourier-Transformation. D. Schlesinger () BV: Fourier-Transformation 1 / 16

Übungsaufgaben zur Vorlesung Quellencodierung

2. Digitale Codierung und Übertragung

Kapitel IV - Spezielle Verteilungen: Diskrete Verteilungen

Computergrafik 2: Klassifikation

Zuverlässigkeitstheorie

Statistik I. 1. Klausur Wintersemester 2010/2011 Hamburg, Art der Anmeldung: STiNE FlexNow Zulassung unter Vorbehalt

IGDT: Image Processing Advanced Teil 9

Beispiel: Zufallsvariable

4. Kumulierte Häufigkeiten und Quantile

Kapitel 8: Operationen auf Rasterdaten

Transkript:

Computergrafik 2: Übung 2 Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung

Inhalt Besprechung von Übung 1 Subsampling und Moiré Effekte Color Maps Histogrammlinearisierung Computergrafik 2 SS2012 2

Abtasttheorem von Nyquist-Shannon Ein digitales Signal mit maximalem Frequenzanteil f max muss mit mindestens der doppelten Frequenz 2 f max abgetastet werden Computergrafik 2 SS2012 3

Subsampling und Moiré-Effekte Zone Plate f f abtast alias = < 2 f f signal abtast! f signal Computergrafik 2 SS2012 4

Farbe zur Kontrastverstärkung Es können wesentlich mehr Farb- als Grauwerte unterschieden werden. Kontrastverstärkung durch drei nicht-lineare, nichtmonotone Abbildungsfunktionen der Grauwerte: redi(g), greeni(g) bluei(g) Computergrafik 2 SS2012 5

Alltägliches Beispiel Computergrafik 2 SS2012 6

Maximierung der Entropie Gibt es eine optimale Kontrast-Korrektur? Entropie als Maß für Ungewissheit (Münzwurf) Entropie als Maß für Kontrast (neben lokalem und globalem Kontrast) optimal = maximale Entropie Histogramm c local = 4.245 Computergrafik 2 SS2012 7

Informationsgehalt einer Pixelfolge Grauwertbereich {0,..., K-1} Histogramm {H(0),..., H(K-1)} Normiertes Histogramm {H P (0),..., H P (K-1)} Normiertes Histogramm als Schätzung für P Informationsgehalt eines Grauwerts 1 I(g) = log 2 H P (g) = log 2 H P (g) Informationsgehalt einer Folge von Pixeln der Länge N: Häufigkeit des Auftretens gewichtet mit Informationsgehalt: I ges = K 1 i=0 H ( i) log 2 H P ( i) Durchschnittlicher Informationsgehalt = Entropie: Entropie( H P ) = 1 N K 1 H ( i) log 2 H P ( i) = H P ( i) log 2 H P i i=0 K 1 i=0 ( ) Computergrafik 2 SS2012 8

Beispiel: Entropie bei Münzwurf Zwei Ereignisse mit Wahrscheinlichkeit p(0)=x und p(1) = 1-p(0), bei idealer Münze: p(0) = p(1) = 0.5 Entropie: H = p( 0) log 2 p( 0) p( 1) log 2 p( 1) für p(0) = p(1) = 0.5: H = 1 für p(0) = 0.8, p(1) = 0.2: H = 0.72 H 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 p(0) Computergrafik 2 SS2012 9

Maximierung der Entropie H H(g) g Entropie ist maximal, falls H P (i) = const für i = 0, K-1 gesucht: Histogrammtransformation T(g) zur Maximierung der Entropie H [ ] H(T(g)) E H(g) Annahme: H(g) ist normiert und kontinuierlich, d.h., H(g)=1 Dann existiert die Transferfunktion T g mit T(g) = 0...g H(w) dw Computergrafik 2 SS2012 10

Histogrammlinearisierung Idee: Finden einer Transformation g = T(f), so dass g gleichverteilt ist und den gesamten Wertebereich füllt Vereinfachende Annahmen: 0 f 1 0 g 1 T(f) ist streng monoton steigend, also existiert f = T -1 (g) Gesucht: p g (g) = 1 für alle 0 g 1 R. C. Gonzalez & R. E. Woods, Digital Image Processing Computergrafik 2 SS2012 11

Histogram Equalization p(x) dx = p(y) dy p(y) = const = 1 dy dx = f '(x) = p(x) y = f (x) = x p(u)du 0 = P(x) P(0) = P(x) p(y)=1 p: Wahrscheinlichkeitsdichte P: kumulative Verteilungsfunktion Source: http://fourier.eng.hmc.edu/e161/lectures/contrast_transform/node3.html Computergrafik 2 SS2012 12

Beispiel Histogramm Entropie(f) = 6.49 Entropie max = 8.00 Aber: was ist, falls g'(g) (N-1) keine ganze Zahl ist? Transferfunktion Computergrafik 2 SS2012 13

Histogrammlinearisierung Transferfunktion für ein diskretes Histogramm H: N gray = Anzahl der Grauwerte, N img = Anzahl der Bildpunkte T(g) = N gray N img g i=0 H(i) Beispiel (N gray = 8, N img = 1000): Grauwert g 0 1 2 3 4 5 6 7 H(g) 50 150 350 250 100 60 30 10 g i=0 H(i) 50 200 550 800 900 960 990 1000 T(g) 0 1 4 6 7 7 7 8 clamp to 0..N gray -1 0 1 4 6 7 7 7 7 Da diskretes Histogramm: Keine Linearisierung, sondern von der Häufigkeit abhängige Spreizung. Computergrafik 2 SS2012 14

Histogrammlinearisierung (H normalisiert) Transferfunktion für ein normalisiertes Histogramm H P : N gray = Anzahl der Grauwerte T P (g) = N gray g i=0 H P (i) g H P (i) =1 i=0 Beispiel (N gray = 8): Grauwert g 0 1 2 3 4 5 6 7 H(g) 50 150 350 250 100 60 30 10 H P (g) 0.05 0.15 0.35 0.25 0.1 0.06 0.03 0.01 g i=0 H P (i) 0.05 0.2 0.55 0.8 0.9 0.96 0.99 1 T P (g) 0.4 1.6 4.4 6.4 7.2 7.68 7.92 8 round and clamp to 0..N gray -1 0 2 4 6 7 7 7 7 Computergrafik 2 SS2012 15

p(g) P(g) Computergrafik 2 SS2012 16

Weiteres Beispiel Quelle: Wikipedia-User Konstable, CC-BY Computergrafik 2 SS2012 17

Adaptive Histogrammlinearisierung Lokale Histogramme: Pixel p1 am Rand des Bildes Pixel des lokalen Histogramms von p1 R Pixel p0 an i,j R Pixel des lokalen Histogramms von p0 Computergrafik 2 SS2012 18

Kontrastlimitierende Adaptive Histogrammlinearisierung AHE Histogramm g Transferfunktion Steigung begrenzen! g Computergrafik 2 SS2012 19