Computergrafik 2: Übung 2. Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung
|
|
- Horst Vogt
- vor 6 Jahren
- Abrufe
Transkript
1 Computergrafik 2: Übung 2 Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung
2 Inhalt Besprechung von Übung 1 Subsampling und Moiré Effekte Color Maps Histogrammlinearisierung Computergrafik 2 SS2012 2
3 Abtasttheorem von Nyquist-Shannon Ein digitales Signal mit maximalem Frequenzanteil f max muss mit mindestens der doppelten Frequenz 2 f max abgetastet werden Computergrafik 2 SS2012 3
4 Subsampling und Moiré-Effekte Zone Plate f f abtast alias = < 2 f f signal abtast! f signal Computergrafik 2 SS2012 4
5 Farbe zur Kontrastverstärkung Es können wesentlich mehr Farb- als Grauwerte unterschieden werden. Kontrastverstärkung durch drei nicht-lineare, nichtmonotone Abbildungsfunktionen der Grauwerte: redi(g), greeni(g) bluei(g) Computergrafik 2 SS2012 5
6 Alltägliches Beispiel Computergrafik 2 SS2012 6
7 Maximierung der Entropie Gibt es eine optimale Kontrast-Korrektur? Entropie als Maß für Ungewissheit (Münzwurf) Entropie als Maß für Kontrast (neben lokalem und globalem Kontrast) optimal = maximale Entropie Histogramm c local = Computergrafik 2 SS2012 7
8 Informationsgehalt einer Pixelfolge Grauwertbereich {0,..., K-1} Histogramm {H(0),..., H(K-1)} Normiertes Histogramm {H P (0),..., H P (K-1)} Normiertes Histogramm als Schätzung für P Informationsgehalt eines Grauwerts 1 I(g) = log 2 H P (g) = log 2 H P (g) Informationsgehalt einer Folge von Pixeln der Länge N: Häufigkeit des Auftretens gewichtet mit Informationsgehalt: I ges = K 1 i=0 H ( i) log 2 H P ( i) Durchschnittlicher Informationsgehalt = Entropie: Entropie( H P ) = 1 N K 1 H ( i) log 2 H P ( i) = H P ( i) log 2 H P i i=0 K 1 i=0 ( ) Computergrafik 2 SS2012 8
9 Beispiel: Entropie bei Münzwurf Zwei Ereignisse mit Wahrscheinlichkeit p(0)=x und p(1) = 1-p(0), bei idealer Münze: p(0) = p(1) = 0.5 Entropie: H = p( 0) log 2 p( 0) p( 1) log 2 p( 1) für p(0) = p(1) = 0.5: H = 1 für p(0) = 0.8, p(1) = 0.2: H = 0.72 H p(0) Computergrafik 2 SS2012 9
10 Maximierung der Entropie H H(g) g Entropie ist maximal, falls H P (i) = const für i = 0, K-1 gesucht: Histogrammtransformation T(g) zur Maximierung der Entropie H [ ] H(T(g)) E H(g) Annahme: H(g) ist normiert und kontinuierlich, d.h., H(g)=1 Dann existiert die Transferfunktion T g mit T(g) = 0...g H(w) dw Computergrafik 2 SS
11 Histogrammlinearisierung Idee: Finden einer Transformation g = T(f), so dass g gleichverteilt ist und den gesamten Wertebereich füllt Vereinfachende Annahmen: 0 f 1 0 g 1 T(f) ist streng monoton steigend, also existiert f = T -1 (g) Gesucht: p g (g) = 1 für alle 0 g 1 R. C. Gonzalez & R. E. Woods, Digital Image Processing Computergrafik 2 SS
12 Histogram Equalization p(x) dx = p(y) dy p(y) = const = 1 dy dx = f '(x) = p(x) y = f (x) = x p(u)du 0 = P(x) P(0) = P(x) p(y)=1 p: Wahrscheinlichkeitsdichte P: kumulative Verteilungsfunktion Source: Computergrafik 2 SS
13 Beispiel Histogramm Entropie(f) = 6.49 Entropie max = 8.00 Aber: was ist, falls g'(g) (N-1) keine ganze Zahl ist? Transferfunktion Computergrafik 2 SS
14 Histogrammlinearisierung Transferfunktion für ein diskretes Histogramm H: N gray = Anzahl der Grauwerte, N img = Anzahl der Bildpunkte T(g) = N gray N img g i=0 H(i) Beispiel (N gray = 8, N img = 1000): Grauwert g H(g) g i=0 H(i) T(g) clamp to 0..N gray Da diskretes Histogramm: Keine Linearisierung, sondern von der Häufigkeit abhängige Spreizung. Computergrafik 2 SS
15 Histogrammlinearisierung (H normalisiert) Transferfunktion für ein normalisiertes Histogramm H P : N gray = Anzahl der Grauwerte T P (g) = N gray g i=0 H P (i) g H P (i) =1 i=0 Beispiel (N gray = 8): Grauwert g H(g) H P (g) g i=0 H P (i) T P (g) round and clamp to 0..N gray Computergrafik 2 SS
16 p(g) P(g) Computergrafik 2 SS
17 Weiteres Beispiel Quelle: Wikipedia-User Konstable, CC-BY Computergrafik 2 SS
18 Adaptive Histogrammlinearisierung Lokale Histogramme: Pixel p1 am Rand des Bildes Pixel des lokalen Histogramms von p1 R Pixel p0 an i,j R Pixel des lokalen Histogramms von p0 Computergrafik 2 SS
19 Kontrastlimitierende Adaptive Histogrammlinearisierung AHE Histogramm g Transferfunktion Steigung begrenzen! g Computergrafik 2 SS
2D Graphik: Bildverbesserung. Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 2. Dezember 2005
2D Graphik: Bildverbesserung Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 2. Dezember 2005 Themen heute Rauschen, Entropie Bildverbesserung Punktbasiert Flächenbasiert Kantenbasiert Was ist
MehrComputergrafik 2: Digitale Bilder & Punktoperationen
Computergrafik 2: Digitale Bilder & Punktoperationen Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz michael.rohs@ifi.lmu.de MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D.
MehrGraphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Bildverbesserung - Grauwertmodifikation Graphische DV und BV, Regina Pohle, 10. Bildverbesserung - Grauwertmodifikation 1 Einordnung
MehrComputergraphik 1 2. Teil: Bildverarbeitung
1 Computergraphik 1 2. Teil: Bildverarbeitung Bildverbesserung 2 Themen jetzt gleich Rauschen, Entropie Bildverbesserung Punktbasiert Flächenbasiert Kantenbasiert 3 Was ist Rauschen? Rauschen n(m,n) ist
MehrComputergrafik 2: Digitale Bilder & Punktoperationen
Computergrafik 2: Digitale Bilder & Punktoperationen Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz michael.rohs@ifi.lmu.de MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D.
MehrComputergrafik 2: Übung 6. Korrelation im Orts- und Frequenzraum, Filtern im Frequenzraum, Wiener Filter
Computergrafik : Übung 6 Korrelation im Orts- und Frequenzraum, Filtern im Frequenzraum, Wiener Filter Quiz Warum Filtern im Frequenzraum? Ideales Tiefpassfilter? Parameter? Eigenschaften? Butterworth-Filter?
MehrBildverbesserung. Frequenz-, Punkt- und Maskenoperationen. Backfrieder-Hagenberg
Bildverbesserung Frequenz-, Punkt- und Maskenoperationen Filtern im Frequenzraum Fouriertransformation f(x)->f( ) Filter-Multiplikation F =FxH Rücktransformation F ( )->f (x) local-domain frequency-domain
MehrProseminar Grundlagen der Bildverarbeitung Thema: Bildverbesserung Konstantin Rastegaev
Proseminar Grundlagen der Bildverarbeitung Thema: Bildverbesserung Konstantin Rastegaev 1 Inhaltsverzeichnis: 1.Pixelbasierte Bildverbesserung...3 1.1.Monotone Grauwertabbildung...3 1.1.1.Maximierung des
MehrBildpunkt auf dem Gitter: Pixel (picture element) (manchmal auch Pel)
4. Digitalisierung und Bildoperationen 4.1 Digitalisierung (Sampling, Abtastung) Rasterung auf 2D-Bildmatrix mathematisch: Abb. einer 2-dim. Bildfunktion mit kontinuierlichem Definitionsbereich auf digitales
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Bildanalyse Literatur David A. Forsyth: Computer Vision i A Modern Approach. Mark S. Nixon und Alberto S. Aguado: Feature Extraction and Image Processing. Ulrich Schwanecke:
MehrNichtmonotone Grauwertabbildung
LMU München Medieninformatik Butz/Hilliges 2D Graphics WS2005 02.12.2005 Folie 1 Nichtmonotone Grauwertabbildung Zwei Grauwertfenster in einem Bild. g (g) 0 511 2100 g Erzeugt künstliche Kanten. Grenzen
MehrDigitale Bildverarbeitung (DBV)
Digitale Bildverarbeitung (DBV) Prof. Dr. Ing. Heinz Jürgen Przybilla Labor für Photogrammetrie Email: heinz juergen.przybilla@hs bochum.de Tel. 0234 32 10517 Sprechstunde: Montags 13 14 Uhr und nach Vereinbarung
MehrStruktur des menschlichen Auges. Bildgebende Verfahren in der Medizin und medizinische Bildverarbeitung Bildverbesserung 2 / 99
Struktur des menschlichen Auges 2 / 99 Detektoren im Auge Ca. 100 150 Mio. Stäbchen Ca. 1 Mio. Zäpfchen 3 / 99 Zapfen Entlang der Sehachse, im Fokus Tagessehen (Photopisches Sehen) Scharfsehen Farbsehen
MehrComputergrafik 2: Fourier-Transformation
Computergrafik 2: Fourier-Transformation Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz michael.rohs@ifi.lmu.de MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies (Grundlagen
MehrEinführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von
Mehr- Sei r(x,y) Eingangsbild, dass nur Rauschen (Quantenrauschen) enthält.
Eingang System Ausgang - Sei r(x,y) Eingangsbild, dass nur (Quantenrauschen) enthält. - Das Bild enthalte keinerlei Information, d.h. das Spektrum ist weiß und es gibt keine Korrelationen zwischen den
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrBildverarbeitung Herbstsemester Punktoperationen
Bildverarbeitung Herbstsemester 2012 Punktoperationen 1 Inhalt Histogramm und dessen Interpretation Definition von Punktoperationen Änderungen der Bildintensität Linearer Histogrammausgleich Gammakorrektur
MehrBildrekonstruktion & Multiresolution
Bildrekonstruktion & Multiresolution Verkleinern von Bildern? Was ist zu beachten? Es kann aliasing auftreten! Das Abtasttheorem sagt wie man es vermeidet? ===> Page 1 Verkleinern von Bildern (2) Vor dem
MehrKapitel 9: Informationstheorie. 2. Entropie
ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE
MehrEinführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:
MehrAdaptive Systeme. Sommersemester Prof. Dr. -Ing. Heinz-Georg Fehn. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Sommersemester 2015 Prof. Dr. -Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Prof. Dr. H.-G. Fehn und Prof. Dr. N. Wulff 1 Adaptive Systeme Adaptives System: ein System, das
MehrBildverbesserung (Image Enhancement)
Prof. Dr. Wolfgang Konen, Thomas Zielke Bildverbesserung (Image Enhancement) WS07 7.1 Konen, Zielke Der Prozess der Bildverbesserung (1) Bildverbesserung wird häufig dafür eingesetzt, die für einen menschlichen
MehrBeispiel 6 (Einige Aufgaben zur Gleichverteilung)
Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß
MehrGrundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch
Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
Mehr10 Transformation von Zufallsvariablen
10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :
MehrProgramm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung
Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Unabhängigkeit von Ereignissen A, B unabhängig:
MehrÜbung 1: Wiederholung Wahrscheinlichkeitstheorie
Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable
MehrMathematische und statistische Methoden II
Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+
MehrWahrscheinlichkeitsrechnung und Statistik
5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrÜberblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator
Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrZusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen
Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k
Mehr3.3 Das Abtasttheorem
17 3.3 Das Abtasttheorem In der Praxis kennt man von einer zeitabhängigen Funktion f einem Signal meist nur diskret abgetastete Werte fn, mit festem > und ganzzahligem n. Unter welchen Bedingungen kann
MehrTeil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung
Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()
Mehrund mit t in Sekunden wird mit einer Frequenz von 8000 Hz abgetastet. Die Abtastung beginnt bei t=0 mit dem Zeitindex n=0.
Aufgabe 1 Das periodische Signal x t) 0,5 sin(2 f t) 0,5 cos(2 f t) mit f 1000Hz und mit f 2000Hz ( 1 2 1 2 und mit t in Sekunden wird mit einer Frequenz von 8000 Hz abgetastet. Die Abtastung beginnt bei
MehrSplitting. Impurity. c 1. c 2. c 3. c 4
Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision
MehrMusterlösung: 23. Oktober 2014, 16:42
Audiotechnik II Digitale Audiotechnik:. Übung Prof. Dr. Stefan Weinzierl 3..4 Musterlösung: 3. Oktober 4, 6:4 Amplitudenstatistik analoger Signale a) Ein Signal (t) hat die durch die Abbildung gegebene
MehrSchätzung von Parametern
Schätzung von Parametern Schätzung von Parametern Quantitative Wissenschaft: Messung von Parametern Gemessene Werte weichen durch (statistische und systematische) Messfehler vom wahren Wert des Parameters
MehrComputergestützte Datenanalyse in der Kern- und Teilchenphysik
Computergestützte Datenanalysein der Kern- und Teilchenphysik p. 1/?? Computergestützte Datenanalyse in der Kern- und Teilchenphysik Vorlesung 4 Jan Friedrich Computergestützte Datenanalysein der Kern-
MehrMathematische und statistische Methoden II
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de
MehrProseminar: Grundlagen Bildverarbeitung / Bildverstehen. Bildverbesserung. Sylwia Kawalerowicz
Proseminar: Grundlagen Bildverarbeitung / Bildverstehen Bildverbesserung Sylwia Kawalerowicz Betreuer: Michael Roth Abgabetermin: 8 April 2006 Inhaltverzeichnis Kapitel...3.. Die wichtigen Fragen der Bildverbesserung....3.2
Mehr(Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!)
Teil 1: Fragen und Kurzaufgaben (Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!) Frage 1 (6 Punkte) Es wird ein analoges
MehrKapitel 3: Etwas Informationstheorie
Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens
MehrLösungen zu Übungsaufgaben Blatt 9
Diskrete Zufallsgrößen Zu Aufgabe Die zufällige Anzahl X von Ausfällen eines Servers pro Jahr genüge folgender Verteilung: ai 0 3 4 5 6 >6 pi /0 /0 3/0 /0 /0 /0 /0 0 Ein Ausfall des Servers verursacht
MehrMathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1
Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrDigitalisierung und Kodierung
Digitalisierung und Kodierung Digitale Medien liegen in digitaler Form vor Deshalb werden analoge Medien digitalisiert und geeignet kodiert Ziel der Digitalisierung: effiziente Berechnung wenig Verluste
MehrDie Maximum-Likelihood-Methode
Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft
MehrMultivariate Zufallsvariablen
Kapitel 7 Multivariate Zufallsvariablen 7.1 Diskrete Zufallsvariablen Bisher haben wir immer nur eine Zufallsvariable betrachtet. Bei vielen Anwendungen sind aber mehrere Zufallsvariablen von Interesse.
MehrDigitale Bildverarbeitung Einheit 6 Punktoperationen
Digitale Bildverarbeitung Einheit 6 Punktoperationen Lehrauftrag WS 06/07 Fachbereich M+I der FH-Offenburg Dr. Bernard Haasdonk Albert-Ludwigs-Universität Freiburg Ziele der Einheit Elementare Bildverbesserung
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrL 3. L a 3. P a. L a m 3. P a l. L a m a 3. P a l m. P a l m e. P o 4. P o p 4. L a. P o p o 4. L a m. Agnes Klawatsch
1 L 3 P 1 L a 3 P a 1 L a m 3 P a l 1 L a m a 3 P a l m 2 P 3 P a l m e 2 P o 4 L 2 P o p 4 L a 2 P o p o 4 L a m 4 L a m p 6 N a 4 L a m p e 6 N a m 5 5 A A m 6 6 N a m e N a m e n 5 A m p 7 M 5 A m p
MehrR a i n e r N i e u w e n h u i z e n K a p e l l e n s t r G r e v e n T e l / F a x / e
R a i n e r N i e u w e n h u i z e n K a p e l l e n s t r. 5 4 8 6 2 8 G r e v e n T e l. 0 2 5 7 1 / 9 5 2 6 1 0 F a x. 0 2 5 7 1 / 9 5 2 6 1 2 e - m a i l r a i n e r. n i e u w e n h u i z e n @ c
MehrF r e i t a g, 3. J u n i
F r e i t a g, 3. J u n i 2 0 1 1 L i n u x w i r d 2 0 J a h r e a l t H o l l a, i c h d a c h t e d i e L i n u x - L e u t e s i n d e i n w e n i g v e r n ü n f t i g, a b e r j e t z t g i b t e
MehrStatistische Thermodynamik I Lösungen zur Serie 1
Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen
MehrDigitale Bildverarbeitung (DBV)
Digitale Bildverarbeitung (DBV) Prof. Dr. Ing. Heinz Jürgen Przybilla Labor für Photogrammetrie Email: heinz juergen.przybilla@hs bochum.de Tel. 0234 32 10517 Sprechstunde: Montags 13 14 Uhr und nach Vereinbarung
MehrP (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrAblauf. 1 Imitationsdynamik. 2 Monotone Auszahlung. 3 Entscheidung gegen iterativ dominierte Strategien. 4 Beste-Antwort-Dynamik 2 / 26
Spieldynamik Josef Hofbauer and Karl Sigmund: Evolutionary Games and Population Dynamics, Cambridge, Kap. 8 Simon Maurer Saarbrücken, den 13.12.2011 1 / 26 Ablauf 1 Imitationsdynamik 2 Monotone Auszahlung
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München Prof.
MehrStatistische Grundlagen
Statistische Grundlagen 2 2.1 Motivation Dieses Kapitel gibt eine kurze Übersicht über die im weiteren Verlauf des Buches benötigten mathematischen und statistischen Grundlagen. Zu Beginn wird der Begriff
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München, Medieninformatik
MehrInhalte. Photogram. Aufnahmesysteme. HS BO Lab. für Photogrammetrie: Digitalisierung analoger Bilder 1
Inhalte Photogram. Aufnahmesysteme Metrische Kameras (Definition der Inneren Orientierung) Analoge Messkameras Fotografische Aspekte Digitalisierung analoger Bilder Digitale Aufnahmesysteme (Messkameras)
MehrDas Nyquist-Shannon Theorem
Fachbereich Medieninformatik Hochschule Harz Das Nyquist-Shannon Theorem Referat Philip Lücke Matrikelnummer: 10070 Abgabe: 15.01.2007 Seite: 1 Inhaltsverzeichnis 1 Einleitung...3 2 Das Phänomen des stillstehenden
MehrKlassen diskreter Variablen
Modelle diskreter Variablen Klassen diskreter Variablen binär multinomial Weitere Klassifizierung multinomialer diskreter Variablen: kategorial y = 1, falls Einkommen < 3000 e. y = 2, falls Einkommen zw.
MehrKapitel 8: Zufallsvektoren
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und
MehrInteraktives Skriptum: Elementare Wahrscheinlichkeitsrechnung
Interaktives Skriptum: Elementare Wahrscheinlichkeitsrechnung 1. Grundbegriffe Würfeln, Werfen einer Münze, Messen der Lebensdauer einer Glühbirne Ausfall/Ausgang: Würfeln: Augenzahlen 1, 2, 3, 4, 5, 6
MehrCopula Funktionen. Eine Einführung. Nils Friewald
Copula Funktionen Eine Einführung Nils Friewald Institut für Managementwissenschaften Abteilung Finanzwirtschaft und Controlling Favoritenstraße 9-11, 1040 Wien friewald@imw.tuwien.ac.at 13. Juni 2005
MehrGraphische Datenverarbeitung und Bildverarbeitung
Graphische Datenverarbeitung und Bildverarbeitung Hochschule Niederrhein Bildverbesserung - Filterung Graphische DV und BV, Regina Pohle,. Bildverbesserung - Filterung Einordnung in die Inhalte der Vorlesung
MehrKapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
MehrSeite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines
Seite 1 Georg-August-Universität Göttingen Robert Schaback Zum Begriff der Information in Mathematik und Informatik Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A)
MehrBildverarbeitung in R
Bildverarbeitung in R Tobias Klinke Proseminar R Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg Betreuer: Jakob Lüttgau 2016-07-13 Tobias Klinke
MehrStatistische Kenngrößen. Histogramm. Grundlagen zur statistischen Signalverarbeitung. Statistische Beschreibung von Audio
8.3.6 Statistische Kenngrößen Grundlagen zur statistischen Signalverarbeitung Dr. Detlev Marpe Fraunhofer Institut für achrichtentechnik HHI Histogramm Wahrscheinlichkeitsdichteverteilung Mittelwert µ
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrGrundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1
Informationsgehalt Kapitel 4.1 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916) Quelle Sender
MehrEinführung in Bildverarbeitung und Computervision
Einführung in Bildverarbeitung und Computervision Vorlesung 1: Grundlagen Dipl.-Math. Dimitri Ovrutskiy SS 2010 HTWdS Auf Basis der Vorlesungen von und mit Danksagung an Hr. Prof. Dr. J. Weikert Bildverarbeitung
MehrDigitale Bildverarbeitung Einheit 5 Bilder und Statistik
Digitale Bildverarbeitung Einheit 5 Bilder und Statistik Lehrauftrag SS 2007 Fachbereich M+I der FH-Offenburg Dr. Bernard Haasdonk Albert-Ludwigs-Universität Freiburg Ziele der Einheit Verstehen, welche
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien
MehrEinführung in die medizinische Bildverarbeitung SS 2013
Einführung in die medizinische Bildverarbeitung SS 2013 Stephan Gimbel 1 Kurze Wiederholung Gradienten 1. und 2. Ableitung grad( f ( x, y) ) = f ( x, y) = f ( x, y) x f ( x, y) y 2 f ( x, y) = 2 f ( x,
MehrDiskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier
Diskrete Strukturen und Logik WiSe 2007/08 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Diskrete Strukturen und Logik Gesamtübersicht Organisatorisches Einführung Logik & Mengenlehre
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrPrimärstruktur. Wintersemester 2011/12. Peter Güntert
Primärstruktur Wintersemester 2011/12 Peter Güntert Primärstruktur Beziehung Sequenz Struktur Proteinsequenzen, Sequenzdatenbanken Sequenzvergleich (sequence alignment) Sequenzidentität, Sequenzhomologie
MehrBildverarbeitung: Fourier-Transformation. D. Schlesinger () BV: Fourier-Transformation 1 / 16
Bildverarbeitung: Fourier-Transformation D. Schlesinger () BV: Fourier-Transformation 1 / 16 Allgemeines Bilder sind keine Vektoren. Bilder sind Funktionen x : D C (Menge der Pixel in die Menge der Farbwerte).
MehrÜbungsaufgaben zur Vorlesung Quellencodierung
Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = 1 0.1 0.1 0.1 y 2
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München, Medieninformatik
MehrKapitel IV - Spezielle Verteilungen: Diskrete Verteilungen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel IV - Spezielle Verteilungen: Diskrete Verteilungen Markus Höchstötter Lehrstuhl
MehrComputergrafik 2: Klassifikation
Computergrafik 2: Klassifikation Prof. Dr. Michael Rohs, Dipl.-Inform. Sven Kratz michael.rohs@ifi.lmu.de MHCI Lab, LMU München Folien teilweise von Andreas Butz, sowie von Klaus D. Tönnies (Grundlagen
MehrZuverlässigkeitstheorie
3. Grundbegriffe der Wahrscheinlichkeitsrechnung Prof. Jochen Seitz Fachgebiet Kommunikationsnetze 20. November 2008 Übersicht Gesetz der großen Zahlen von Bernoulli 1 Gesetz der großen Zahlen von Bernoulli
MehrStatistik I. 1. Klausur Wintersemester 2010/2011 Hamburg, Art der Anmeldung: STiNE FlexNow Zulassung unter Vorbehalt
Statistik I 1. Klausur Wintersemester 2010/2011 Hamburg, 11.02.2011 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................
MehrIGDT: Image Processing Advanced Teil 9
Teil 9 Rainer Schubert Institut für Biomedizinische Bildanalyse Inhalt Teil 9 Registrierung Grauwert-basierte / Intensity-based Methoden Klassifikation von Registrierungsmethoden 1 Viele Klassifikationskriterien
MehrBeispiel: Zufallsvariable
Beispiel: Zufallsvariable 3 Münzen werden unabhängig voneinander geworfen. Jede Münze kann entweder Kopf oder Zahl zeigen. Man ist nur an der Zahl der Köpfe interessiert. Anzahl Kopf Elementarereignis
Mehr4. Kumulierte Häufigkeiten und Quantile
4. Kumulierte Häufigkeiten und Quantile Statistik für SoziologInnen 1 4. Kumulierte Häufigkeiten und Quantile Kumulierte Häufigkeiten Oft ist man nicht an der Häufigkeit einzelner Merkmalsausprägungen
MehrKapitel 8: Operationen auf Rasterdaten
LUDWIG- MAXIMILIANS- UNIVERSITY MUNICH DEPARTMENT INSTITUTE FOR INFORMATICS DATABASE Kapitel 8: Operationen auf Rasterdaten Skript zur Vorlesung Geo-Informationssysteme Wintersemester 2015/16 Ludwig-Maximilians-Universität
Mehr