IGDT: Image Processing Advanced Teil 9
|
|
- Hans Lang
- vor 6 Jahren
- Abrufe
Transkript
1 Teil 9 Rainer Schubert Institut für Biomedizinische Bildanalyse Inhalt Teil 9 Registrierung Grauwert-basierte / Intensity-based Methoden
2 Klassifikation von Registrierungsmethoden 1 Viele Klassifikationskriterien möglich, hier 8 Kriterien nach [1]: Dimensionalität: Anzahl der Dimensionen der benutzen Bilder bestimmt den Aufwand für die Transformation und z.b. die benötigte Anzahl an korrespondierenden Elementen Registrierungsbasis: Die Basismerkmale, über die eine Korrespondenz hergestellt wird, z.b. Punktepaare, Linien, Fläche, Objektoberflächen, Grauwertverteilung, äußere Landmarken (Stereotaxirahmen, Gipsschalen etc.) Geometrische Transformation: Die Art der benötigten Transformation, wird bestimmt durch die erwarteten geometrischen Veränderungen zwischen den Bildern Grad der Interaktion: Ausmaß der benötigten Benutzereingaben, reicht von vollautomatisch bis zu kompletter, umfangreicher manueller Anpassung der Bilder Intensity-based Registration: Idee Die gesuchte Transformation wird durch Betrachtung der Pixel- oder Voxelwerte bestimmt Im einfachsten Fall wird ein Ähnlichkeitsmaß für alle Bildpunkte berechnet und die optimierende Transformation bestimmt Verbesserungen können durch eine sinnvolle Auswahl einer Teilmenge von Bildpunkten erreicht werden: Nach technischen Gesichtspunkten (z.b. nach einem Raster, zufällig etc.) In Abhängigkeit von der Grauwertverteilung (homogene Bereiche, in bestimmten Intervallen etc.) Inhaltsspezifisch (z.b. nur Knochengewebe, erfordert Segmentation)
3 Gemeinsamkeiten aller Verfahren Iterative Verfahren: Aus der Analyse der Grauwerte wird ein Ähnlichkeitsmaß berechnet und eine Transformation abgeschätzt Die Transformation wird angewendet Das Ähnlichkeitsmaß wird für das Ergebnisbild der Transformation bestimmt und erneut eine Transformation abgeschätzt Wiederholung bis das Ähnlichkeitsmaß minimiert / maximiert ist Hinweis: Verwendet man in diesen Verfahren ein Modellbild oder einen Atlas, erhält man einen Ansatz zur Segmentierung! Ähnlichkeitsmaße Grauwertdifferenzen Korrelationskoeffizient Ratio-Image Uniformity Partitioned Intensity Uniformity Probability Distribution Function (PDF) basierte Methoden Joint entropy Mutual information Praktisch alle Verfahren arbeiten am besten auf geglätteten, isotropen Bildern! (Warum?)
4 Grauwertdifferenzen Idee: Für zwei Bilder A und B finde die Transformation, die die Summe der Abstandsquadrate (Sum of Squares of Differences, SSD) minimiert: 1 SSD = N N 1 A( B ( i A B Problem: funktioniert gut bei Bildern, die zwar geometrisch transformiert sind, deren Inhalt aber identisch ist (z.b. gleiche Modalität, gleicher Zeitpunkt, unterschiedliche Lage). Sobald die Grauwerte durch zeitliche (pathologische, therapeutische) Veränderungen oder unterschiedliche Modalitäten nicht mehr vergleichbar sind, führt der Ansatz zu Fehlern! 2 Korrelationskoeffizient Idee: Finde die Transformation, die den Korrelationskoeffizienten für die Grauwerte der Bilder A und B maximiert: CC = ( i ( A( A)( B ( B ) i A( A) ( B ( B ) Funktioniert gut für Bilder, deren Grauwerte sich linear zueinander verhalten (z.b. globale Helligkeitsänderungen). Funktioniert schlecht bei verändertem Inhalt, unterschiedlicher Modalität und / oder Individuen. 2 i 2
5 Ratio-Image-Uniformity Idee: Das Quotienten-Bild (Ratio-Image) zweier Bilder A und B wird als Maß für die Optimierung benutzt. Das Verfahren ist daher unabhängiger von den absoluten Werten und betont das typische Kontrastverhalten von Strukturen in einer Modalität. Bei einer guten Übereinstimmung wird eine geringe Variation des Quotientenbildes erwartet. Funktioniert gut für Bilder gleicher Modalität mit wenig variablem Grauwertkontrast Kann eingeschränkt werden auf die Bereiche der Bilder, in denen die Voraussetzung gilt: Beispielsweise durch vorherige Segmentierung Ratio-Image-Uniformity: Algorithmus Idee: Finde die Transformation, die für die Bilder A und B die normalisierte Standardabweichung der Grauwertquotienten minimiert: Berechne das Ratio-Image: Berechne den Mittelwert von R: R ( = B ( A( 1 R = R( i N Berechne die normalisierte Standardabweichung von R: 1 σ = N R i ( R( R) R 2
6 Ratio-Image Uniformity: Variationen Das Vertauschen der Bilder A und B führt zu einer weiteren Registrierungsmethode, die nicht die Umkehrung der Methode ist (Warum?) und daher auch andere Ergebnisse liefert: A A/B B B/A Partitioned Intensity Uniformity Modifizierte Version der Ratio-Image-Uniformity Methode für multimodale Registrierung: Beruht auf der Annahme, dass ein bestimmtes Gewebe sich in beiden Modalitäten (z.b. PET und MR) durch wertverschiedene aber uniforme Grauwerte abbildet Aufgabe des Algorithmus ist es daher, eine Transformation zu finden, für die die normalisierten Standardabweichung der Grauwerte z.b. des PET-Bildes, die auf Bildpunkte mit einem bestimmten Grauwert (Partition) des MR-Bildes zu liegen kommen, minimal ist! Konkret werden für eine gegebene Transformation, für alle Grauwerte aus der einen Modalität jeweils die Bildpunkte bestimmt, die in der zweiten Modalität an gleicher Lokalisation stehen. Deren normalisierte Standardabweichung wird aufsummiert. Diejenige Transformation, die diese Summe minimiert, ist die gesuchte
7 Partitioned Intensity Uniformity: Algorithmus Finde die Transformation, die PIU minimiert: n PIU = a A ( a) σ B ( a) {} a N B ( a) Die Anzahl der Elemente von {a} hängt von der Grauwertauflösung ab, z.b. 256 Der Algorithmus bekommt Probleme, wenn die Verteilung der zu einem Grauwert in A gehörigen Grauwerte in B nicht unimodal ist (Warum?). Daher ist es u.u. nötig, inhomogene und variable Gewebe vor Anwendung des Algorithmus durch Segementierung zu entfernen oder zu homogenisieren. PDF-basierte Methoden Idee: Benutzung statistischer Informationen (Atlanten) über die Grauwertverteilung der spezifischen Registrierungsaufgabe Atlas: PDF (Probability Distribution Function)! Typischerweise wird für die n Modalitäten der Registrierungsaufgabe (z.b. MR-T1, MR-T2, PET) ein n-dimensionales, normalisiertes Histogramm aus bereits korrekt registrierten Bildern erstellt Diese PDF gibt dann für jede Kombination von Grauwerten die Häufigkeit ihres Auftretens in einem Bildpunkt an!
8 Erzeugen einer 2D-PDF Für zwei registrierte Bilder A und B mit den Intensitätswerten {a} und {b}: Erzeuge ein Array HIST[k] mit den Dimensionen Na und Nb Initialisiere das Histogramm mit HIST[k]=0 für alle k Für jedes Voxel i A B bestimme die Intensitätswerte a i und b i und inkrementiere HIST[a,b] Berechne die Gesamtsumme aller Grauwertkombinationen: j, k HIST Normalisiere das Histogramm: PDF [ k] = [ k] HIST HIST k [ k] [ k] Eigenschaften und Anwendungen der PDF Typischerweise verändert sich die PDF in Registrierungsaufgaben in Abhängigkeit von der Transformation! Damit ergibt sich der Ansatz, durch transformationsabhängige Optimierung der PDF zu registrieren (und zu segmentieren...) Schön an diesem Ansatz ist, dass sich herausgestellt hat, dass die PDF sich für verschiedenste Kombinationen von Bildmodalitäten ähnlich verhält: Je besser die Registrierung, desto strukturierter ist die PDF!
9 Beispiel: T1-T2 M1 n I M1 I n I M2 n M1 M2 I M2 Entropie-basierte Verfahren Idee: Da die PDF bei guter Registrierung geordneter ist als bei schlechter, kann ein Maß für die Unordnung als Optimierungskriterium herangezogen werden. Ein solches Maß stellt die Entropy nach Shannon dar: Sie beschreibt die durchschnittliche Menge an Informationsgehalt für eine beliebige Menge S von Symbolen {s} mit einer Auftrittswahrscheinlichkeit p(s). H ( S) p( s)log p( s) = s Wann hat H ein Maximum, wann ein Minimum? Was hat das mit PDFs zu tun?
10 Entropie Für ein Bild ist die Information durch die Menge X der Grauwerte {x} gegeben. Die Entropie eines Bildes ergibt sich daher als Das entspricht: H ( X ) = p( x)log p( x) H ( X ) HIST( x)log HIST( x) = X Joint Entropy Die gemeinsame Entropie zweier Bilder mit den Grauwertverteilungen X und Y ist definiert als: H ( X, Y ) p( x, y)log p( x, y) Das entspricht: = X Y H ( X, Y ) = X, Y PDF( x, y)log PDF( x, y) Und gibt die Unordnung für die Verteilung der Grauwert-Paare x,y an
11 Entropie und PDFs Setzt man also für die Menge {s} die Menge der Einträge PDF[k] und für die Wahrscheinlichkeiten p(s) deren Werte, so erhält man mit der Joint Entropie ein Maß für die Ordnung der PDF! Bei einer optimalen Registrierung wird es in der PDF kleine, scharfe Cluster geben, die weitgehend von Schwarz umgeben sind. Die Entropie hat dann ein Minimum. Umgekehrt ist die Verteilung der PDF bei einer schlechten Registrierung diffus und die Entropie strebt einem Maximum zu. Dieses Verhalten legt eine Verwendung der Entropie als Optimierungskriterium nahe. Algorithmus: Minimierung der Joint Entropy Finde die Transformation T für die Bilder A und B, für die die Entropie minimal ist: H ( A, B ) = k PDF[ k]log PDF[ k] Problem: Es wird nur die Information für den von der Transformation T abhängigen jeweiligen Überlappungsbereich von A und B benutzt.
12 Beispiel H H Mutual Information Mutual: gegen-, wechselseitig Mutual Information (MI) beschreibt die wechselseitig aus dem Wissen einer Informationsmenge für die andere Informationsmenge zu erwartenden Werte. Für die Informationsmenge Entropie zweier Bilder mit den Grauwertverteilungen X und Y ist die MI definiert als MI( X, Y ) = H ( X ) + H ( Y ) H ( X, Y ) Sie stellt eine Möglichkeit dar, das Wissen über die Verteilungen in den Einzelbildern als wechselseitige Erwartung mit einzubeziehen
13 MI-Maximization-Algorithmus Finde die Transformation T, für die MI(A,B ) maximal ist: Berechne die PDF[k] der Bilder A und B Berechne die Entropien für A und B mit PDF[ k] logpdf[ j l] H ( A) = j k l, H ( B ) =, PDF[ i, k] logpdf[ j k] k i j Berechne die gemeinsame Entropie H(A,B ) Berechne die Mutual Information MI(A,B ): MI( A, B ) = H ( A) + H ( B ) H ( A, B ) Interpretation Die bedingte Entropie ist definiert als: H ( X Y ) = H ( X, Y ) H ( Y ) H ( Y X ) = H ( X, Y ) H ( X ) Sie gibt die Entropie für die Verteilung X in Abhängigkeit von der Verteilung Y (oder umgekehrt) an! Für zwei Bilder A und B: H ( A B ) = H ( B A) = k j HIST( k)log HIST( k) HIST( j)log HIST( j) k k PDF[ k]log PDF[ k] PDF[ k]log PDF[ k]
14 Interpretation Setzt man in MI( X, Y ) = H ( X ) + H ( Y ) H ( X, Y ) die bedingte Entropie ein, so erhält man: MI( X, Y ) = H ( X ) H ( X Y ) So wird (hoffentlich) etwas anschaulicher, dass MI(X,Y) ein Maß ist, dass für eine gegebene Transformation die gegenseitige Abhängigkeit der Grauwertverteilungen berücksichtigt! Bewertung Die MI-Maximization liefert robustere und bessere Ergebnisse als das Joint-Entropy-Verfahren und führt auch bei multimodaler Registrierung veränderter Bilder zu guten Lösungen Sie bekommt Probleme, wenn in den Bildern größere leere Flächen (z.b. Hintergrund, Luft etc.) vorhanden sind (Warum?) Sie reagiert relativ empfindlich auf Rauschen und Artefakte Man kann die Ergebnisse durch heuristische Ergänzungen erweitern: Vorherige Segmentierung relevanter Strukturen Normalisierung zur Reduktion des Einflusses von Rauschen etc.
15 Literatur (1) Handbook of Medical Imaging, Volume 2: Medical Image Processing and Analysis (SPIE PRESS Monograph Vol. PM80) (2) Originalveröffentlichung von Wells et al.: lls/mia-html/mia.html
Bildregistrierung in der Medizin. Fethi KAYA - Yusuf ÖZBEK
Bildregistrierung in der Medizin Fethi KAYA - Yusuf ÖZBEK 30.05.2011 1 Inhalt 1. Einführung zur Registrierung 2. Registrierungsalgorithmen 3. Transformationen 4. Mutual Information 5. Demo 2 1- Registrierung
MehrEinführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von
MehrEinführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von
MehrVisual Servoing using Mutual Information
Visual Servoing using Mutual Information Christian Rupprecht Robotics and Embedded Systems Technische Universität München Outline 1 Visual Servoing Was ist Visual Servoing? Typische Lösungsansätze 2 Mutual
MehrWas bisher geschah. digitale Bilder: Funktion B : pos col Matrix B col
Was bisher geschah digitale Bilder: Funktion B : pos col Matrix B col pos mit den Mengen pos von Positionen (Adressen) col von Farben, Intensitäten Aufgaben maschineller Bildverarbeitung: Erzeugung, Wiedergabe,
Mehr10.5 Maximum-Likelihood Klassifikation (I)
Klassifikation (I) Idee Für die Klassifikation sind wir interessiert an den bedingten Wahrscheinlichkeiten p(c i (x,y) D(x,y)). y Wenn man diese bedingten Wahrscheinlichkeiten kennt, dann ordnet man einem
MehrEinführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Prozess einer räumliche Transformation zu finden um ein Bild auf ein anderes Bild abzubilden Eingabe: Fixed und
MehrSplitting. Impurity. c 1. c 2. c 3. c 4
Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision
MehrStatistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II
Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen
MehrComputergrafik 2: Übung 8. Corner-Detektoren, Bildsegmentierung
Computergrafik 2: Übung 8 Corner-Detektoren, Bildsegmentierung Organisation KLAUSURANMELDUNG (UNIWORX) NICHT VERGESSEN! Computergrafik 2 SS2012 2 Besprechung Übung 7 Anmerkungen? Computergrafik 2 SS2012
MehrAutomatic segmentation for dental operation planning. Diplomarbeit. Nguyen The Duy
Automatic segmentation for dental operation planning Diplomarbeit Nguyen The Duy 24.02.2012 Motivation Quelle: bestbudapestdentist.com Aufgabenstellung Segmentierung des Oberkiefers (Maxilla) Detektion
MehrMustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle
Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators
MehrComputergrafik 2: Übung 2. Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung
Computergrafik 2: Übung 2 Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung Inhalt Besprechung von Übung 1 Subsampling und Moiré Effekte Color Maps Histogrammlinearisierung Computergrafik
MehrLineares Gleichungssystem - Vertiefung
Lineares Gleichungssystem - Vertiefung Die Lösung Linearer Gleichungssysteme ist das "Gauß'sche Eliminationsverfahren" gut geeignet - schon erklärt unter Z02. Alternativ kann mit einem Matrixformalismus
MehrMATHEMATIK 3 STUNDEN
EUROPÄISCHES ABITUR 2013 MATHEMATIK 3 STUNDEN DATUM : 10. Juni 2013, Vormittag DAUER DER PRÜFUNG: 2 Stunden (120 Minuten) ERLAUBTES HILFSMITTEL Prüfung mit technologischem Hilfsmittel 1/6 DE AUFGABE B1
MehrStatistik K urs SS 2004
Statistik K urs SS 2004 3.Tag Grundlegende statistische Maße Mittelwert (mean) Durchschnitt aller Werte Varianz (variance) s 2 Durchschnittliche quadrierte Abweichung aller Werte vom Mittelwert >> Die
MehrMathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1
Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:
MehrAllgemeine Chemie Computer Praktikum Frühjahrssemester Regressions-Tutorial Lineare und nicht-lineare Regression
1 Einführung Allgemeine Chemie Computer Praktikum Frühjahrssemester Regressions-Tutorial Lineare und nicht-lineare Regression Datenauswertung In einem naturwissenschaftlichen Experiment werden Sie meist
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
MehrLage- und Streuungsparameter
Lage- und Streuungsparameter Beziehen sich auf die Verteilung der Ausprägungen von intervall- und ratio-skalierten Variablen Versuchen, diese Verteilung durch Zahlen zu beschreiben, statt sie graphisch
MehrFlächen- und Volumenmessung lokaler Objekte in DICOM-Bildern und Bildfolgen
Flächen- und Volumenmessung lokaler Objekte in ICOM-Bildern und Bildfolgen Sergei Hludov, Christoph Meinel und Thomas Engel Institut für Telematik Bahnhofsstr. 30-3, 549 Trier Email: hludov@ti.fhg.de Zusammenfassung.
Mehr5.2 Asymptotische Entwicklungen Im Folgenden: sei dimensionslos (ansonsten sind und nicht vergleichbar)
5.2 Asymptotische Entwicklungen Im Folgenden: sei dimensionslos (ansonsten sind und nicht vergleichbar) (C5.1d.6) nur Potenzen mit n > N Formel (C5.1n.3) sagt: wie schnell verschwindet Rest für festes
MehrKlausur vom
UNIVERSITÄT KOBLENZ LANDAU INSTITUT FÜR MATHEMATIK Dr. Dominik Faas Stochastik Wintersemester 00/0 Klausur vom 09.06.0 Aufgabe (++4=9 Punkte) Bei einer Umfrage wurden n Personen befragt, an wievielen Tagen
MehrEinführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Pipeline Pipelinestufen können sich unterscheiden, beinhalten aber i.d.r. eine Stufe zur Bildvorverarbeitung zur
MehrRäumliche Vorverarbeitung funktioneller Bilddaten
Jena Räumliche Vorverarbeitung funktioneller Bilddaten Christian Gaser Structural Brain Mapping Group Kliniken für Neurologie und Psychiatrie Universitätsklinikum Vom Rohdatensatz zum Ergebnis? T 1 -Volumen
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)
MehrProseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung"
Fakultät Informatik, Institut für künstliche Intelligenz, Intelligent Systems Proseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung" Lokale Merkmalsdeskriptoren Jens Stormberg - Dresden, 19.06.2009
MehrTheorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte
Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann Probe-Klausur zur Vorlesung Ökonometrie Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte (die eigentliche Klausur wird
MehrWahrscheinlichkeitstheorie 2
Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Übung 3 1 Inhalt der heutigen Übung Vorrechnen der Hausübung B.7 Beschreibende Statistik Gemeinsames Lösen der Übungsaufgaben C.1: Häufigkeitsverteilung C.2: Tukey
MehrÜbungen zur Ingenieur-Mathematik III WS 2011/12 Blatt Aufgabe 25: Berechnen Sie den kritischen Punkt der Funktion
Übungen zur Ingenieur-Mathematik III WS 11/1 Blatt 8 3.11.11 Aufgabe 5: Berechnen Sie den kritischen Punkt der Funktion fx, y 3x 5xy y + 3 und entscheiden Sie, ob ein Maximum, Minimum oder Sattelpunkt
MehrSuche nach korrespondierenden Pixeln
Suche nach korrespondierenden Pixeln Seminar Algorithmen zur Erzeugung von Panoramabildern Philip Mildner, Gliederung 1. Motivation 2. Anforderungen 3. Moravec Detektor 4. Harris Detektor 5. Scale Invariant
MehrBildverarbeitung Herbstsemester. Mustererkennung
Bildverarbeitung Herbstsemester Herbstsemester 2009 2012 Mustererkennung 1 Inhalt Einführung Mustererkennung in Grauwertbildern Ähnlichkeitsmasse Normalisierte Korrelation Korrelationskoeffizient Mustererkennung
MehrStatistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
MehrEntwicklung einer robusten Methode zur Berechnung von Stereokorrespondenzen
Entwicklung einer robusten Methode zur Berechnung von Stereokorrespondenzen Seminar - Wintersemester 2010/2011 Fakultät Technik und Informatik Department Informatik Gregory Föll Übersicht Rückblick Stereo
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
Mehr1 x 1 y 1 2 x 2 y 2 3 x 3 y 3... n x n y n
3.2. Bivariate Verteilungen zwei Variablen X, Y werden gemeinsam betrachtet (an jedem Objekt werden gleichzeitig zwei Merkmale beobachtet) Beobachtungswerte sind Paare von Merkmalsausprägungen (x, y) Beispiele:
MehrAdaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Evolutionäre Algorithmen: Überlebenskampf und Evolutionäre Strategien Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überblick Einleitung Adaptive Filter Künstliche
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung 3. Vorlesung Dr. Jochen Köhler 1 Inhalte der heutigen Vorlesung Ziel: Daten Modellbildung Probabilistisches Modell Wahrscheinlichkeit von Ereignissen Im ersten
MehrTheoretische Biophysik - Statistische Physik
Theoretische Biophysik - Statistische Physik 14. Vorlesung Pawel Romanczuk Wintersemester 2018 http://lab.romanczuk.de/teaching/ 1 Zusammenfassung letzte VL Aktive Brownsche Bewegung Effektive Diffusion
MehrDatenmodelle, Regression
Achte Vorlesung, 15. Mai 2008, Inhalt Datenmodelle, Regression Anpassen einer Ausgleichsebene Polynomiale Regression rationale Approximation, Minimax-Näherung MATLAB: polyfit, basic fitting tool Regression
MehrOptimalcodierung. Thema: Optimalcodierung. Ziele
Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.
Mehr10. Medizinische Statistik
10. Medizinische Statistik Projektplanung Deskriptive Statistik Inferenz-Statistik Literatur: Hüsler, J. und Zimmermann, H.: Statistische Prinzipien für medizinische Projekte, Verlag Hans Huber, 1993.
Mehr5. Anwendungsaufgaben
5. Anwendungsaufgaben 5.1 Dose Titel V2 5-1 Dose 2 Version Mai 2011 Themenbereich Themen Rolle des CAS Methoden Hinweise Quelle Zeitlicher Rahmen Anwendungsaufgaben zur Differenzialrechnung Optimierung
MehrInformatik II, SS 2016
Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 8 (13.5.2016) Hashtabellen I Algorithmen und Komplexität Dictionary mit sortiertem Array Laufzeiten: create: O(1) insert: O(n) find: O(log
MehrRegistrierung von Aufnahmen des Augenhintergrundes zur Erstellung großflächiger Kompositionsaufnahmen
Registrierung von Aufnahmen des Augenhintergrundes zur Erstellung großflächiger Kompositionsaufnahmen Daniel Baumgarten 1, Axel Doering 2, Michael Trost 2 1 Institut für Biomedizinische Technik und Informatik,
Mehr1 Wahrscheinlichkeitsdichtefunktion
1 Wahrscheinlichkeitsdichtefunktion Es wird zunächst der Begriff der Wahrscheinlichkeitsdichtefunktion vorgestellt, die zur statistischen Beschreibung von zufälligen Prozessen oder zufälligen Signalen
MehrGenerierung von Abflussganglinien für f unbeobachtete Einzugsgebiete
Generierung von Abflussganglinien für f unbeobachtete Einzugsgebiete Vortrag beim 9. Internationalen Anwenderforum Kleinwasserkraftwerke, 14.-15.09.2006, Kempten Jürgen Brommundt András Bárdossy, Jan Bliefernicht
MehrEinführung in die medizinische Bildverarbeitung SS 2013
Einführung in die medizinische Bildverarbeitung SS 2013 Stephan Gimbel 1 Kurze Wiederholung Gradienten 1. und 2. Ableitung grad( f ( x, y) ) = f ( x, y) = f ( x, y) x f ( x, y) y 2 f ( x, y) = 2 f ( x,
MehrMod. 2 p. 1. Prof. Dr. Christoph Kleinn Institut für Waldinventur und Waldwachstum Arbeitsbereich Fernerkundung und Waldinventur
Histogramme der Grauwerte der TM Kanäle 1-7 für das Beispielsbild. - Kanäle 4 und 5 zeigen mehr Differenzierung als die anderen (Kontrast=das Verhältnis der hellsten zur dunkelsten Fläche in der Landschaft).
MehrKonvexe Hülle. Konvexe Hülle. Mathematik. Konvexe Hülle: Definition. Mathematik. Konvexe Hülle: Eigenschaften. AK der Algorithmik 5, SS 2005 Hu Bin
Konvexe Hülle Konvexe Hülle AK der Algorithmik 5, SS 2005 Hu Bin Anwendung: Computergraphik Boundary Kalkulationen Geometrische Optimierungsaufgaben Konvexe Hülle: Definition Mathematik Konvex: Linie zwischen
MehrHow To Create A Panorama Image From A Photoelectric Image From An Image From The Camera (I)
Chapter 3 Image Registration Distributed Algorithms for Einführung (I) Definition: Image Registration Gegeben: 2 Bilder der gleichen Szene aber aufgenommen aus unterschiedlichen Perspektiven Gesucht: Transformation,
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
Mehr1. Maße der zentralen Tendenz Beispiel: Variable Anzahl der Geschwister aus Jugend '92. Valid Cum Value Frequency Percent Percent Percent
Deskriptive Statistik 1. Verteilungsformen symmetrisch/asymmetrisch unimodal(eingipflig) / bimodal (zweigipflig schmalgipflig / breitgipflig linkssteil / rechtssteil U-förmig / abfallend Statistische Kennwerte
Mehr2. Schnitterkennung Video - Inhaltsanalyse
2. Schnitterkennung Video - Inhaltsanalyse Stephan Kopf Definition: Schnitt Schnitte (cut) liefern Informationen über den Produktionsprozess eines Filmes. trennen kontinuierliche Aufnahmen, die als Kameraeinstellungen
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.
Mehr2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
Mehr2D Graphik: Bildverbesserung. Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 2. Dezember 2005
2D Graphik: Bildverbesserung Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 2. Dezember 2005 Themen heute Rauschen, Entropie Bildverbesserung Punktbasiert Flächenbasiert Kantenbasiert Was ist
MehrEine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
MehrInformatik II, SS 2018
Informatik II - SS 2018 (Algorithmen & Datenstrukturen) Vorlesung 21 (11.7.2018) String Matching (Textsuche) II Greedy Algorithmen I Algorithmen und Komplexität Textsuche / String Matching Gegeben: Zwei
MehrBiomathematik für Mediziner, Klausur WS 1999/2000 Seite 1
Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1 Aufgabe 1: Wieviele der folgenden Variablen sind quantitativ stetig? Schulnoten, Familienstand, Religion, Steuerklasse, Alter, Reaktionszeit, Fahrzeit,
MehrWie liest man Konfidenzintervalle? Teil II. Premiu m
Wie liest man Konfidenzintervalle? Teil II Premiu m - Hintergrund Anderer Wahrscheinlichkeitsbegriff subjektiver Wahrscheinlichkeitsbegriff Beispiel: Was ist die Wahrscheinlichkeit dafür, dass ein Patient
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrINTELLIGENTE DATENANALYSE IN MATLAB
INTELLIGENTE DATENANALYSE IN MATLAB Bildanalyse Literatur David A. Forsyth: Computer Vision i A Modern Approach. Mark S. Nixon und Alberto S. Aguado: Feature Extraction and Image Processing. Ulrich Schwanecke:
Mehr3. Suchen. Das Suchproblem. Suche in Array. Lineare Suche. 1 n. i = n Gegeben Menge von Datensätzen.
Das Suchproblem Gegeben Menge von Datensätzen. 3. Suchen Beispiele Telefonverzeichnis, Wörterbuch, Symboltabelle Jeder Datensatz hat einen Schlüssel k. Schlüssel sind vergleichbar: eindeutige Antwort auf
MehrWahrscheinlichkeitsrechnung und Statistik
7. Vorlesung - 2018 Bemerkung: Sei X = X 1,..., X n Zufallsvektor. Der n dimensionale Vektor EX = EX 1,..., EX n ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N0, 1. X, Y sind die Koordinaten
MehrWahrscheinlichkeitsverteilungen
Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet
MehrBivariate explorative Datenanalyse in R
Bivariate explorative Datenanalyse in R Achim Zeileis, Regina Tüchler 2006-10-09 In der LV Statistik 1 haben wir auch den Zusammenhang von 2 Variablen untersucht. Hier werden die dazugehörenden R-Befehle
MehrBestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler
6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung
MehrVorlesung 13b. Relative Entropie
Vorlesung 13b Relative Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). 2 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. S sei eine abzählbare Menge (ein
MehrShape Gradient for Image and Video Segmentation
Shape Gradient for Image and Video Segmentation [1] S. Jehan-Besson, A. Herbulot, M. Barlaud und G. Aubert 23. Mai 2007 Martin Schröttner und Michael Schneeberger Mat Vis-Gra SS07 1 Überblick Aktive Konturen
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrSegmentierung. Vorlesung FH-Hagenberg SEM
Segmentierung Vorlesung FH-Hagenberg SEM Segmentierung: Definition Die Pixel eines Bildes A={a i }, i=1:n, mit N der Anzahl der Pixel, werden in Teilmengen S i unterteilt. Die Teilmengen sind disjunkt
MehrProjektionen für f r die Scanregistrierung mit Hilfe von Bildmerkmalen
Projektionen für f r die Scanregistrierung mit Hilfe von Bildmerkmalen Prof. Dr. Andreas Nüchter Jacobs University Bremen Campus Ring 1 28759 Bremen 1 Hintergrund (1) Automatisierung von terrestrischen
MehrDiese Fragen sollten Sie auch ohne Skript beantworten können: Was beschreibt der Differenzenquotient? Wie kann man sich die Steigung im vorstellen? Wa
103 Diese Fragen sollten Sie auch ohne Skript beantworten können: Was beschreibt der Differenzenquotient? Wie kann man sich die Steigung im vorstellen? Was bedeutet das für die Ableitungen? Was ist eine
Mehr4. Segmentierung von Objekten Video - Inhaltsanalyse
4. Segmentierung von Objekten Video - Inhaltsanalyse Stephan Kopf Inhalt Vorgehensweise Berechnung der Kamerabewegungen zwischen beliebigen Bildern Transformation eines Bildes Hintergrundbilder / Panoramabilder
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:
MehrEntscheidungsbäume aus großen Datenbanken: SLIQ
Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:
MehrArithmetisches Codieren
Arithmetisches Codieren 1. Motivation: Als Alternative zum arithmetischen Codieren bot sich damals als effizientester Algorithmus das Huffmann-Coding an. Dieses jedoch hatte einen entscheidenden Nachteil:
MehrEntscheidungen bei der Durchführung einer Cluster-Analyse
7712Clusterverfahren Entscheidungen bei der Durchführung einer Cluster-Analyse nach: Eckes, Thomas, und Helmut Roßbach, 1980: Clusteranalysen; Stuttgart:Kohlhammer A. Auswahl der Merkmale Festlegung des
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Übung 7 1 Inhalt der heutigen Übung Statistik und Wahrscheinlichkeitsrechnung Vorrechnen der Hausübung D.9 Gemeinsames Lösen der Übungsaufgaben D.10: Poissonprozess
Mehr3.3 Optimale binäre Suchbäume
3.3 Optimale binäre Suchbäume Problem 3.3.1. Sei S eine Menge von Schlüsseln aus einem endlichen, linear geordneten Universum U, S = {a 1,,...,a n } U und S = n N. Wir wollen S in einem binären Suchbaum
MehrStatistics, Data Analysis, and Simulation SS 2015
Mainz, May 12, 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler
Mehr6. Texterkennung in Videos Videoanalyse
6. Texterkennung in Videos Videoanalyse Dr. Stephan Kopf 1 Übersicht Motivation Texterkennung in Videos 1. Erkennung von Textregionen/Textzeilen 2. Segmentierung einzelner Buchstaben 3. Auswahl der Buchstabenpixel
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr9. Rekursion. 1 falls n 1 n (n 1)!, andernfalls. Experiment: Die Türme von Hanoi. Links Mitte Rechts. Mathematische Rekursion
Experiment: Die Türme von Hanoi. Rekursion Mathematische Rekursion, Terminierung, der Aufrufstapel, Beispiele, Rekursion vs. Iteration Links Mitte Rechts Mathematische Rekursion Viele mathematische Funktionen
MehrUnsicherheit * M RS = 6
Informationstheorie Gegenstand Unsicherheit Überraschung Entropie Relative und maximale Entropie, Redundanz Konditionale Entropie und Verbundentropie Wechselseitige ("Mutual") Information Gegenstand Kodierung,
MehrAufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen
Ü b u n g 1 Aufgabe 1 Die Ereignisse A, B und C erfüllen die Bedingungen P(A) = 0. 7, P(B) = 0. 6, P(C) = 0. 5 P(A B) = 0. 4, P(A C) = 0. 3, P(B C) = 0. 2, P(A B C) = 0. 1 Bestimmen Sie P(A B), P(A C),
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 6 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 16. Mai 2018 [Letzte Aktualisierung: 18/05/2018,
MehrÜbungen mit dem Applet
Übungen mit dem Applet 1. Visualisierung der Verteilungsform... 1.1. Normalverteilung... 1.. t-verteilung... 1.3. χ -Verteilung... 1.4. F-Verteilung...3. Berechnung von Wahrscheinlichkeiten...3.1. Visualisierung
MehrLineare Optimierung und Simplex-Algorithmus
Lineare Optimierung und Simplex-Algorithmus Problemstellung Beispiel : Unser Unternehmen verfügt über drei Maschinen A, B, C, mit denen zwei verschiedene Produkte P, P2 hergestellt werden. Die Maschinen
Mehr