Medizinische Bildverarbeitung VO Zusammenfassung

Größe: px
Ab Seite anzeigen:

Download "Medizinische Bildverarbeitung VO Zusammenfassung"

Transkript

1 Medizinische Bildverarbeitung VO Zusammenfassung residual = Residuum:...speziell in der Statistik die Differenz zwischen einer Regressionsgeraden und den Messwerten...speziell in der Numerik die Größe, um die eine Gleichung nicht erfüllt ist, wenn man eine Näherung der Lösung einsetzt, im Gegensatz zum Fehler, also den Abstand der Näherung zur Lösung generative model = Generatives Modell: auffassen als statistische Modellierung eines unbekannten Datenerzeugungsprozesses Ein Generatives Modell modelliert eine vorgegebene Datenquelle durch einen stochastischen Prozess, der Datenwerte hervorbringt, die nach Struktur und Verteilung die vorgegebene Datenquelle approximieren. Eine Hypothese ist, dass das Gehirn sich beim Sammeln von Sinneseindrücken deren Statistik sozusagen selbst zu Eigen macht und seine internen Strukturen so anpasst, dass sie die Eigenschaften der einströmenden Reize nachahmen. Theoretische Modelle, die nach diesem Prinzip funktionieren, nennt man generative Modelle. Wenn sie mit Daten gefüttert werden, verändern sie in jedem Rechenschritt ihre eigenen Einstellungen so, dass sie selber den Daten immer ähnlicher werden. Die Modelle heißen generativ, weil man sie dazu benutzen kann, selbst Daten zu erzeugen eine Art naturgetreue Phantasie -Daten. Simulated Annealing: Die simulierte Abkühlung ist ein heuristisches Optimierungsverfahren. Das Verfahren wird zum Auffinden einer approximativen Lösung von Optimierungsproblemen eingesetzt. Übertragen auf das Optimierungsverfahren entspricht die Temperatur einer Wahrscheinlichkeit, mit der sich ein Zwischenergebnis der Optimierung auch verschlechtern darf (je länger Algorithmus dauert, desto geringer ist die Temperatur/Wahrscheinlichkeit Abkühlung). Im Gegensatz zu einem Lokale-Suche-Algorithmus kann das Verfahren ein lokales Optimum wieder verlassen und ein besseres finden.

2 1.Foliensatz: Rheumatoide Arthritis o joint space widths o erosions PCA (Principal Component Analysis) o Statistische Methode (Anisotropie bezeichnet die Richtungsabhängigkeit einer Eigenschaft oder eines Vorgangs) o Eigenwert: Ein Eigenvektor einer Abbildung ist in der linearen Algebra ein vom Nullvektor verschiedener Vektor, dessen Richtung durch die Abbildung nicht verändert wird. Ein Eigenvektor wird also nur gestreckt, und man bezeichnet den Streckungsfaktor als Eigenwert der Abbildung. siehe auch Eigenwertproblem: lem.glos.html o Faktoren/Dimensionen reduzieren, Daten mit weniger Dimensionen beschreiben (aber trotzdem ausreichend gut annähern) o Eigenvektor mit höchstem Eigenwert an erster Stelle, usw. Die Varianz der Daten ist in diese Richtung am höchsten Wenn Daten nur mit einer Dimension repräsentiert werden müssten, sollte man Sie mit diesem Eigenvektor/dieser Achse (mit dem höchsten Eigenwert) beschreiben ASM (Active shape models) o Initialisierung (mit Trainingsdaten Mean-Model erstellen, lokale Texturmodelle, etc.) o Shape zur Textur anpassen (neue Landmarkpositionen x) o Shape-Model-Instance anpassen (entsprechend den neuen Positionen) o Schritt 2&3 wiederholen bis Konvergenz eintritt

3 2.Foliensatz: AAM (Active Appearance Models) o Erweiterung der ASM-Methode o Shape-Model: Mean Shape Model + Modes (Eigenvektoren, die variiert plausible Abweichungen/Deformationen ergeben) o Texture-Model: gesamte Textur der Trainingssets wird berücksichtigt o Verwendung eines combined-model o Gesamte Textur innerhalb der Landmarks wird verwendet (alle Training- Shapes werden trianguliert und auf den Mean-Shape gemapped, aus jedem Training-Example wird ein Texturvektor erstellt, alle Pixeln werden ausgelesenviele Einträge im Vektor (bei 10x30-Bild: 300 Einträge)) o Training notwendig (Zusammenhang: DifferenzbildKorrekturparameter) o Es wird der residual-error (= Restfehler ) zwischen betrachtetem Bild und generierter Modell-Instanz minimiert, um das Modell dem Bild anzupassen CCA-AAM (Canonical component analysis - AAM) o Mithilfe der CCA kann man Linearkombinationen zwischen zwei Variablen- Sets mit maximaler Korrelation finden. Somit kann die Anzahl der Einträge in der Regressionsmatrix verringert werden, da nur diejenigen Differenzbilder verwendet/gespeichert werden, die eine hohe Korrelation zu den Modellparametern haben (Rauschen in den Testdatensätzen wird somit ignoriert, bzw. hat nicht so einen großen Einfluss). Bei der Suche ist die Frage: Werden Parameter abgeschätzt, oder auch ausgelesen???? o Das Training UND die Suche werden somit verbessert. AAM-Suche: 1. Initialisierung (Kombinierten Eigenspace erstellen, Training: Regressionsmatrix erstellen oder CCA verwenden) 2. Differenzbild berechnen 3. Parameterupdate (mithilfe der Regressionsmatrix oder der CCA aus Differenzbild die Korrekturparameter auslesen/abschätzen) 4. Modelupdate mithilfe der Korrekturparameter (Rotation, Skalierung, Translation) Wiederholen bis die Suche konvergiert AFM (Active Feature Models) o Es wird nur Texturinformation in der Nähe der Landmarks verwendet o CCA wird beim Training/der Suche verwendet o ansonsten wie bei AAM

4 3.Foliensatz: Limitationen o große Datenmengen (mehrere TB) Mühsam die richtigen/gewünschten Daten zu finden o genügend großes Trainingsset: es kann u.u. schwierig sein eine entsprechende Anzahl von gewünschten Bildern (spezielle Erkrankung, unverletzte anatomische Bereiche, etc.) zu finden/auszuwählen oft nur ähnliche Pathologien vorhanden o Landmarks müssen gesetzt werden (annotation notwendig) und miteinander korrespondieren 2 Ansätze: Model learning (ohne/minimale Aufsicht/Überwachung), Retrieval MDL (minimum description length): Die MDL ist ein Kriterium dafür, wie effektiv ein Modell Daten kodieren kann: o das Modell selbst o die Daten kodiert durch das Modell o den Fehler des Modells ( residual error ) o Je kleiner L, desto besser das Modell. Learn model from contours (shape): o Landmark-Übereinstimmung soll gefunden werden (Wo soll Landmark auf der Kontur gesetzt werden? Welche Landmark entspricht welcher Landmark im anderen Example?) o Landmark-Positionen entlang kontinuierlicher Konturen anpassen Dazu wird als Kriterium MDL verwendet. Die korrespondierenden (=übereinstimmenden) Landmarks der Examples (z.b. LM 1) auf allen Trainingsbildern entlang der Kontur so lange verschieben, bis sie bestmöglich übereinstimmen (also die DL minimiert wird). o Einzige Bedingung: Landmarks müssen auf der contour sein 1. Landmarks initiieren 2. Ein Modell der Shape-Vektoren bilden und DL berechnen 3. DL minimieren = reparametrisieren der Kontour = Landmarkpositionen verschieben dadurch werden Variationen die nicht notwendig sind vermieden/minimiert o ABER: Was ist wenn man keine annotierten kontinuierlichen Konturen hat? Learn model from non-annotated data (shape and appearance): Bilder sollen automatisch annotiert werden o Erfassung von Eigenschaften von Punkten (jeder Punkt des Bildes ist ein Kandidat, dessen Eigenschaften mithilfe eines Deskriptors erfasst werden) o Registrierung der Trainingsbilder (verschieben, rotieren, skalieren um eine grobe Deckung herzustellen falls die Trainingsbilder nicht normiert sind) o Interest Points in den Bildern finden: Position + Bildinformationen (lokale Textur-Eigenschaften wie gradient information, etc.) von interesting-pointpositions werden gespeichert

5 o Initiale Korrespondenzen: Paarweises Matchen der Interesting-Points + robust homography estimation (hierbei wird jeder Punkt auf genau einen Punkt abgebildet). Korrespondenzen (=Verbindungen von zusammengehörenden Landmarks) werden in den Interest-point-Listen als Indizes gespeichert, welche zusammen eine Matrix G ergeben. o MDL: Optimierung der Landmark-Positionen (Kriterien: Kodierungs-Kosten für Shape, Textur und elasticity regularization ). Optimierung durch anpassen von G: Genetic Algorithm Search: Landmark-Zuordnungen werden zufällig verändert. Jene neuen Lösungen die besser bewertet werden, werden weiter mutiert. Direct Fine Search: Ein Example herausnehmen und ins Modell projizieren, welches aus restlichen Examples gebildet wird. Mithilfe des gebildeten Modells das projizierte Example verbessern (Landmark- Zuordnungen werden gegebenenfalls verändert) Nach Konvergenz des Algorithmus müssen noch fehlende Landmarks als solche definiert/markiert werden. Dies wird dann gemacht, wenn die a-posteriori-wahrscheinlichkeit (die Wahrscheinlichkeit, dass die betrachtete Landmark zu einer bestimmten Gruppe gehört, unter der Bedingung, dass sie dieser bestimmten Gruppe zugeordnet wurde was ja im vorangegangenen Algorithmus passiert ist) einer Landmark gering ist. o Fehler: Konturfehler ca. 2px o Mit dieser Methode ist es auch möglich Bewegungen nach zu verfolgen ( track the movement ). Korrespondenzen werden zwischen Interesting-Points gebildet Ein bestimmter Punkt wird durch Bildsequenz verfolgt. Ergebnis sind Bahnkurven/Trajektorien ( trajectories ). Damit können z.b. die Deformationseigenschaften eines Materials getestet/untersucht werden. Learn the structure of models: o Hier geht es darum die gefundenen Landmarks zu gruppieren (z.b. Landmarks anatomischen Strukturen zuordnen). o Mit Simulated Annealing die Gruppierung optimieren mit MDL als Kriterium. o Nach der erfolgten Gruppierung werden (wenn notwendig) neue Landmarks generiert, um die Textur besser abzudecken, bzw. die anatomische Struktur besser nachzubilden. Diese Landmarks werden dann Trianguliert um eine konvexe Hülle zu bilden. o Mit dieser Model-Clique-Methode wird der Rekonstruktionsfehler verringert und die erfasste Varianz erhöht (also mehr Daten werden erfasst) Model- Clique besser/genauer!!!

6 4.Foliensatz: Retrieval: Einen ähnlichen schon bewerteten/analysierten/diagnostizierten Fall finden, anstatt den aktuellen vollkommen neu zu bewerten/analysieren/diagnostizieren. es werden Maße benötigt, um Bilder ranken/vergleichen zu können Probleme: o kleine Unterschiede im Bild können pathologisch großen Unterschied ausmachen o es besteht eine (natürliche) beträchtliche Variabilität in der Population (nicht alle Menschen sind gleich) o Bilder=beschränkte Domäne o viele verschiedene Bildgebungsmodalitäten Holistic (Ganzheitlicher Ansatz): Miniature Alignment o Entscheidend ist der charakteristische Gesamteindruck o Man hat ein Trainingsset aus dem Miniaturbilder erstellt werden; auf diese wird dann die PCA angewendet und ein kd-baum erstellt o Das Query-Bild wird dann ebenfalls zu einem Miniaturbild umgewandelt o Die Miniaturbilder aus dem Trainingsset werden gerankt (indem das Miniatur- Query-Bild mit dem Miniatur-Trainingsset abgeglichen wird) mithilfe von: Euklidische Distanz Registrierung + anschließende Normierte Korrelation o 3D-Daten werden als Slices gespeichert Ranking mithilfe von: Registration der Miniaturbilder geschieht paarweise (Slice mit Slice) + anschließende normierte Korrelation Binäre Masken + Gaussian Smoothing + sum(abs(a-b))hierbei werden die Unterschiede aufsummiert Binäre Masken + Gaussian Smoothing + SIFT-like (chi-squared Distance)charakteristische Punkte werden verglichen Based on Vocabulary (Ansatz basierend auf Vokabular): Hier wird für eine spezielle anatomische Region ein Vokabular von Merkmalen (Textur-Vokabular) angelernt o Wenn kleine Variabilitäten der erlernten Merkmale (statistische Eigenschaften) auftreten, sollen diese erfasst werden o Basis-Merkmale aus einer großen Datenmenge erfassen (die wenig bis nicht annotiert ist) o Descriptor soll ein bestimmtes Vokabular kennen, mit dem er das Organ (bzw. Krankheiten des Organs) beschreiben kann für jede Merkmals-Region wird ein Textur-Histogramm erstellt, welches die Region charakterisiert (Jede Region hat ein Histogramm mit einer charakteristischen Frequenz) o Query: für das Query-Bild wird für eine Region ebenfalls ein Histogramm erstellt. Durch den Vergleich mit den Histogrammen aus dem Trainingsset kann das Trainingsset gerankt werden (Diffusion distance, Chi-Squared distance) Grundsätzliches zu Retrieval Finden von ähnlichen Fällen: o Merkmalsbeschreibung von Bildern oder Regionen in Bildern

7 o Distanz zwischen Merkmalen bestimmen o Ranking der Ergebnisse basierend auf Ähnlichkeit ( Similarity )

8 5.Foliensatz: CT o Röntgenstrahlung Abschwächung wird gemessen, aus Abschwächungsprofilen (jeder Punkt im Abschwächungsprofil ist das Ergebnis der Abschwächung durch das Gewebe zwischen Röntgenquelle und Detektor) wird dann Bild rekonstruiert o Abschwächung kann durch Lambeert-Beers law beschrieben werden o Jedes Gewebe hat einen bestimmten Absorptionskoeffizienten o Houndsfield Unit (Luft: -1000, Wasser: 0), HU liegt ca. zwischen und 3000 o CT Rekonstruktion: Aus der Radon-Transformation der Projektionen/Röntgenabsorption wird das ursprüngliche Bild mittels gefilterter Rückprojektion( filtered backprojection ) gefunden Ziel: Von jedem Voxel/Punkt im Gewebe einen Absorptionskoeffizienten herausfinden o Unterschiedliche Beams: Parallel,- Fan,- oder Cone-Beam o Gated CT Bildsequenzen einer sich periodisch bewegenden Struktur (z.b. Herz) 1.Periode: vom 1.Ort/Teilvolumen zu versch. Zeitpunkten Aufnahmen machen 2.Periode: vom 2.Ort/Teilvolumen zu den gleichen versch. Zeitpunkten Aufnahmen machen usw. (bis man das gesamte Volumen hat) dadurch erhält man letztendlich zu jedem Zeitpunkt ein Bild vom Gesamten Volumen Segmentation ohne Modell (ohne a priori Wissen): Active Contours, Level Sets, Graph Cuts Active Contours Snakes (explicit) o Ansatz: Gradient an Übergängen/Grenzen größer Grenzen haben eine gewisse smoothness (=Gleichmäßigkeit) bestimmtes Kriterium formulieren Optimierungsansatz finden Kriterium optimieren o Kontur wird explizit durch Punkte beschrieben, die miteinander verbunden sind (Positionen der Punkte werden mithilfe eines Kriteriums gefunden) o Kontur wird optimiert, indem ein bestimmtes Kriterium (=Energiefunktion) minimiert wird Kurve kann parametrisiert (= verändern der Parameter(=Koordinaten) der Punkte = verschieben der Punkte) werden. o Energiefunktion: Bestimmt durch Interne Energie: Form der Kurve (Elastizität (1.Ableitung der Kurve): Punkte nicht so weit auseinanderkontur wird tendenziell kleiner, Rigidität (2.Ableitung der Kurve): nicht so starke Krümmungen) Externe Energie: Zusammenspiel von Bildinhalt und Kurve z.b. Gradienten entlang der Kurve (gesucht: hoher Gradientenwert, lokales

9 MaximumEnergie minimal), Wege entlang niedriger Gradientenwerte werden bestraft α,β Gewichtungsfaktoren (zusätzlich könnte auch die externe Energie Gewichtet werden o Limitationen durch explizite Beschreibung: endliche Anzahl von Kontrollpunkten (Auflösung ist fixiert, kann dann möglicherweise zu niedrig sein) begrenzte topologische/räumliche Struktur (Anzahl der Segmente muss ebenfalls vorher festgelegt werden und ist dann nicht mehr änderbar) o kann für das annotieren von Trainingssets verwendet werden o in 3D: gleiches Kriterium, aber für eine Oberfläche o Wird oft auf interaktive Art verwendet o 3D-Beispiel Gefäße: aus CT-Daten Gefäß-Modell bilden, dann im Originalbild registrieren Sensor (eine deformierbares Modell/Oberfläche, die durch die Gefäße wandert) Explorer-Balloon minimiert Energiefunktion (Interne Energie + Externe Energie + Pressure Force) Sensor wandert durch Gefäße und speichert in Regelmäßigen Abständen Mittelpunkt+Radius der Gefäße Abzweigungen erkennen: bei Abzweigung ist Segment fertig und neue Segmente beginnen (Segmente werden zum Schluss zu einem Gefäßbaum zusammengefügt) Active Contours Level sets (implicit): keine Landmarks, keine Parametrisierung (anpassen der Kontur-Punkt-Koordinaten), keine fixen Topologien(zum Beispiel die Anzahl der zusammenhängenden Gebiete) o eine Funktion wird auf dem ganzen Bild/Volumen definiert level-set function Φ o ein level-set ist ein Schnitt durch diese Funktion bei einem bestimmten Wert o In einem Level Set (Niveaumenge) sind alle Punkte für die Φ den gleichen Wert liefert zusammengefasst. Die Menge (engl. set) aller Pixel mit dem Wert Null nennt man Zero-Level-Set. Sie trennt das Innere und Äußere der Kontur und ist immer geschlossen. Punkte die auf der Kontur liegen haben den Wert Null. Das Innere ist negativ, bzw. das Äußere positiv. o dann wird die Kontur so lange verändert (der Wert des Level-Sets verändert), bis das Konvergenzkriterium erreicht wird (=das passende Level-Set gefunden wurde) o Dense Field Levelset Algorithmus 1. Initialisiere geschlossene Startkontur, die den Problemraum eindeutig in konturinnere und -äußere Regionen teilt 2. Berechne eine vorzeichenbehaftete Distanztransformation auf dem Gitter in das Innere und das Äußere der Startkontur (Ich stelle mir das so vor: die Kontur wird ins Innere/Äußere verschoben/bewegt )

10 3. Solange das Konvergenzkriterium nicht erreicht ist: 1. Berechne die Änderung des Wertes der Levelsetgleichung auf allen Gitterpunkten mit einer numerischen Näherung der Evolutionsgleichung 2. Aktualisiere das Gitter mit den neuen Werten

11 6.Foliensatz: MRI: viel Noise, Auflösung steigt mit Tesla-Wert, gut für Weichgewebe o Wasserstoffatome (Protonen) haben einen Spin (magnetischer Moment) richten sich am äußeren magnetischen Feld aus. o Störfeld wird appliziert: Radio frequency impulse (muss der Eigenfrequenz der Atome entsprechen: Resonanzfrequenz) lenkt Protonen ab (diese absorbieren die zugeführte Energie, werden abgelenkt und sind dann nicht mehr am äußeren Feld ausgerichtet) o Störfeld wird wieder abgeschalten: Protonen richten sich wieder am äußeren magnetischen Feld aus die Zeit für dieses Wiederausrichten kann gemessen werden: Relaxationszeit (T1: spin-lattice, T2: spin-spin) o Bei der Relaxation senden die Protonen Energie (sie fallen auf ein niedrigeres Energieniveau zurück) diese Energie kann gemessen werden o Da die Relaxationszeit von der chemischen Umgebung (also von der Art des Gewebes) abhängt, wird zum selben Zeitpunkt in unterschiedlichen Geweben ein unterschiedliches Signal gemessen Kontrast o spatial localization (durch Gradientenfelder kann die Larmor-Frequency in einer bestimmten slice abgeändert werden nur diese slice wird erregt) Markov Random Fields (MRF) o Bild/Problem mit Graphen darstellen o Knoten mit mehreren möglichen Labels o Ziel ist es die optimale Zuordnung von Labels (Bezeichnungen wie z.b. Hintergrund, Objekt A) zu den Knoten zu erhalten dazu Kostenfunktion minimieren (Kosten minimieren: Kosten per Knoten & per Kante(zwischen 2 Knoten) minimieren) Segmentation by Graph Cuts: Semi-Automatisch (Benutzer definiert Seed-Points, die er der Quelle oder der Senke zuweist) o Pixel- oder Voxel-Grid als Graph interpretieren, jeder Pixel/Voxel entspricht einem Knoten, Verbindungen zwischen Pixeln/Voxeln sind Kanten o Zuweisen von Kantengewichten (abhängig vom Bildinhalt, z.b. Gradientenidentische Werte von Nachbarknoten=hohes Kantengewicht) und Knotengewichten (basierend auf Appearance oder manuellen Input) Somit wird die Energiefunktion in den Graph eingebettet o Shortest path approach (verbinden von Punkten) VS. graph cuts approach (trennen/separieren von Regionen) On 2D grids: graph cuts and shortest paths give optimal 1D contours On N-D grids: Shortest paths still give optimal 1-D contours, Min-cuts give optimal hyper-surfaces (graph cuts trennen also auch im höherdimensionalen das Bild in Segmente) o Es wird nach dem billigsten (Kostenfunktion minimal) Schnitt/cut durch den Graphen gesucht, der Saatpunkte trennt (In Folien sind es 2 Terminalknoten Quelle/Objekt und Senke/Hintergrund) o Dieser minimale cut definiert eine Segmentierung des Bildes/Volumens

12 o st-mincut wird mithilfe des maximalen Flusses berechnet (min-cut =max-flow) Der maximale Fluss (von Quelle zu Senke) ist gleich der Kapazität entlang des minimalen Schnittes o Globales Minimum wird gesucht/gefunden relativ geringe Noise- Empfindlichkeit o ERWEITERUNG, da der minimale cut geometrisch ungünstig sein kann: mitberücksichtigen der geometrischen Länge geodesic contour : die Kostenfunktion ist jetzt nicht nur abhängig von den Kantengewichten, sondern auch von der Länge (in 2D), bzw. der Fläche (in 3D) o MULTI-WAY-GRAPH-CUTS: Hier hat man mehrere Saatpunkte, die man voneinander trennen will. Saatpunkte die ein Objekt ergeben sollen, sind mit den Terminalpunkten (t-links) verbunden. Bsp: 4 Objekte + Hintergrund 5 t-links; als n-links werden die Kanten bezeichnet, die geschnitten werden Localization by Markov Random Fields: lokalisieren einer gesuchten anatomischen Struktur (auffinden der Position) o Knoten=landmarks, Labels=mögliche Positionen im Bild (=Interest Points, welche in einem Vorverarbeitungsschritt herausgefunden werden) lösen des MRF: jedem Knoten ein Label zuweisen (also jeder Landmark eine Position zuweisen) o Modell-basierter Ansatz: Extrahieren der Informationen aus einem Trainingsset (in n Trainingsbildern je m Landmarks ausgewählt): Knotengewichte: basierend auf lokalem Aussehen/Erscheinen ( local appearance ) wie z.b. Textur Kantengewichte: basierend auf räumlicher Beziehung/Anordnung der Knoten zueinander (Winkel,- und Längenstatistik) o Training des Models mithilfe eines annotierten Trainingssets

13 7.Foliensatz: fmri (functional Magnetic Resonance Imaging): erfassen von Aktivität und der Bereich der Aktivität o räumliche Auflösung: ~4 mm o zeitliche Auflösung: ~1 sec o Es wird das Sauerstofflevel im Blut gemessen: Blood oxygen level dependent contrast (BOLD oder hemodynamic response), also Kontrast abhängig vom Blutsauerstoffgehalt o hemodynamic response: bei erhöhter Aktivität einer Gehirnregion besteht ein erhöhter Sauerstoffbedarf dieser führt zu einer Dilatation der Versorgenden Gefäße (+ erhöhter Sauerstoffgehalt im Gefäß) BOLD Signal wird gemessen, braucht 3-4 Sekunden bis es ansteigt und erreicht nach 5-7 Sekunden den Höchstwert (Hämodynamische Response-Funktion) o Als BOLD-Kontrast bezeichnet man in der Magnetresonanztomographie (MRT) die Abhängigkeit des (Bild-)Signals vom Sauerstoffgehalt in den roten Blutkörperchen. unterschiedliche magnetische Eigenschaften des Hämoglobins(mit/ohne Sauerstoff) General Linear Model (GLM) univariat (Jeder Voxel wird einzeln mit Stimulus verglichen) o Single-Voxel Regressionsmodell o MRI-Bilder werden 1. aufeinander angepasst & normalisiert (Registrierung mit Referenzmodellalso mit einem Bild von einem Gehirn) 2. geglättet und 3. dann mit GLM analysiert o Y = Xβ + e Y Gemessene Werte (VEKTOR), BOLD Signal eines Voxels zu verschiedenen Zeitpunkten X DesignMATRIX, die den Erwartungswert von Y definiert β enthält Regressor/Regressoren und gibt den Einfluss von X auf die Gleichung an (wenn β=0: Y ist nur Rauschen, also kein Zusammenhang; β 0: Y wird zumindest ein wenig von X beeinflusst, eventuell ein Zusammenhang) (VEKTOR) e Fehler (Unterschied zwischen Y und Xβ)der bei optimalem β minimal ist (Methode der kleinsten Quadrate), Annahme: Fehler ist normalverteilt (VEKTOR) Hier:

14 o Analyse der Frage Ist eine Aktivierung des Gehirnbereichs(untersuchter Voxel) im Zusammenhang mit der Bedingung/untersuchten Aktivität (z.b. Fingertippen) gegeben? 1. Messen des BOLD Signals + Designmatrix definieren + [Faltung (HRF mit Designmatrix) und Hoch-Pass-Filtern, ] 2. Nullhypothese: Keine Korrelation β 1 =0. β 2 gibt den Wert der Baseline an! 3. optimales β 1 wird mithilfe der Methode der kleinsten Quadrate berechnet (e wird minimiert) 4. Wenn es unwahrscheinlich ist, dass β 1 =0: Nullhypothese verwerfen, Alternativhypothese zusammenhängende Aktivität gegeben angenommen o Faltung: Bevor die GLM angewendet werden kann, muss der erwartete Response (Designmatrixerwartete Werte) mit der HRF(Hämodynamischen Response FunktionFunktion, die allgemein den Verlauf eines Responses angibt) gefaltet werden + Hochpass-Filtern. Warum?Welt ist nicht perfekt: BOLD-Signal tritt verspätet auf BOLD-Signal enthält ein niedrig-frequenz-rauschen (low-frequencynoiselow frequency drift), das bedeutet der Kontrast wird mit der Zeit immer schwächer. Wenn man das nicht mitberücksichtigt, kann ein Zusammenhang übersehen werden. BOLD-Responses sind korreliert o Probleme/Nachteile: schlechte Registrierung durch Bewegung während der Bildgewinnung Atmung pulsierende Aterie Trainingseffekte (bei den Probanden) Registrierung o Problem: hohe Signal-Noise-Rate o Prozesse von verschiedenen Subjekten um diese zu vergleichen: Reference- Framework Talairach Atlas wird als Referenz verwendet

15 o Bevor Bilder analysiert werden, müssen Sie auf ein Referenz-Bild registriert werden o Brodmann-Areale (Einteilung der Großhirnrinde in Felder) sollen verglichen(bzw. davor aufeinander abgeglichen) werden (aber schwierig aus Anatomie abzuleiten) Multi Voxel Pattern Analysis (MVPA) multivariat (mehrere Voxel werden untersucht auch Beziehung untereinander Ziel ist es eine bestimmte Aktivität zu erkennen (Finger tippen, Gesichter erkennen, )) o Frage: Korrelieren Voxel miteinander? So kann ein bestimmter Voxel bei einer Aktivität immer nicht-aktiviert sein, vorausgesetzt ein anderer ist aktiviert. Das könnte mit GLM nicht erkannt werden, mit MVPA schon! o Brain-Response ist Verteilt und eventuell multivariat deswegen multivariate Analyse notwendig komplexer/schwieriger o Frage: Gibt es ein Muster(pattern) in den beobachteten Voxels (also ein sub-set der beobachteten Voxels), das den Versuchsbedingungen entspricht (Also mit dem eine bestimmte Aktivität erkannt werden kann)? o Wie funktioniert das ganze? Man betrachtet mehrere Voxel (wichtig: relevante Voxel müssen identifiziert werden) man trainiert einen Klassifikator an, der eine bestimmte Aktivität erkennen/vorausberechnen soll (ein bestimmtes sub-set steht für eine bestimmte Versuchsbedingung/Aktivität) Klassifikator analysiert ein bestimmtes response pattern (=Reaktions-Muster: eine bestimmte Kombination von Voxel-Signalen, die ein sub-set der gesamten betrachteten Voxel darstellen) jeder Klassifikator hat features (Voxel-Signale, also die relevanten Voxel mit ihren Signalen) und labels (Bezeichnung, für welche Versuchsbedingung der Voxel steht z.b.: blau für Ruhezustand und rot für Fingertippen) o relevante Regionen müssen identifiziert werden, damit MVPA angewendet werden kann MVPA localization (of distributed activation patterns) Random Forest o identifizieren der Voxel, die für einen bestimmten Task(=Aufgabe) relevant sind um ihn erkennen zu können. o Random Forest: 1. bilden von Entscheidungsbäumen mit zufällig gewählten Voxel jedem Voxel wird ein Vorhersagewert zugeordnet (Ich glaube: Voxel mit geringem Vorhersagewert werden wieder verworfen) Training: Voxel mit höchstem Vorhersagewert an der Wurzel; Voxel mit 2t-höchstem Vorhersagewert 1.Kind, usw. (Bsp. Voxel an der Wurzel sagt Aktivitätweiter nach rechts, nächsten Voxel analysieren, usw. bis Ergebnis feststeht ODER Voxel an der Wurzel sagt keine Aktivitätweiter nach links, nächsten Voxel analysieren, usw. bis Ergebnis feststeht;

16 Ergebnis ist in diesem Fall ob eine bestimmte Aktivität/Aufgabe gerade durchgeführt wird oder nicht, bzw. welche) 2. dann wird jeder Baum im Wald getestet (Wald-Fehlerquote, etc. berechnet) wenn Wald ok, wird er verwendet 3. Die Klassifikation, die am meisten Stimmen erhält wird gewählt (also in unserem Fall ob eine bestimmte Aktivität/Aufgabe gerade durchgeführt wird oder nicht, bzw. welche): Voting MVPA relationship among stimuli Beziehung zwischen verschiedenen Stimuli erkennen/untersuchen schwieriger zu messen da komplexer Connectivity (Konnektivität, Vernetzungsgrad, Verschaltung) 1. strukturell: es gibt neuronen/axone 2. funktional: statistische Abhängigkeiten zwischen lokalen Signalen 3. effektiv: kausale Interaktion zwischen Neuronen Functional Networks o gesucht: globales funktionales Konnektivitäts-Muster o z.b. Resting-State: bestimmte Netzwerke können erkannt werden, die auch bei Tasks relevant sind (bis jetzt nicht völlig aufgeklärt/verstanden), es sind auch im Ruhezustand bestimmte Gehirnbereiche/Netzwerke aktiv diese sind konsistent zwischen Subjekten und Studien! o Paarweise-Korrelation zwischen Voxeln analysieren mit Korrelationsanalyse: Einteilung des Gehirns in Cluster o Netzwerke als reference framework für Registrierung, da Registrierung basierend auf Anatomie nicht so gut funktioniert (z.b. unterschiedliche anatomische Struktur, anatomische Veränderung nach einer Schädigung während funktionale Struktur gleichbleibt) dafür benötigt man ein globales Interaktionsmuster (Registrierung basierend auf Funktion) Markov Chain: Markov-Kette ist ein stochastischer Prozess (eine Folge von Zufallsvariablen), wobei die Zukunft des Prozesses nur vom letzten Wert abhängt (und unabhängig von seiner Vergangenheit ist gedächtnislos ); Wenn man einen zufälligen Spaziergang durch die Daten macht, ist es wahrscheinlicher einen näheren Datenpunkt zu passieren als einen, der weiter weg ist. Basierend darauf wird die Konnektivität zwischen 2 Datenpunkten, x und y, definiert als die Wahrscheinlichkeit beim zufälligen Spaziergang (Bildung einer Markov-Kette) in einem Schritt (oder mehreren) von x nach y zu gelangen. Erstellen einer Funktionalen Karte; Transformation zu einer neuen Geometrie: o Um den Zusammenhang zwischen Tätigkeiten und der Aktivierung im Gehirn auch bei Variabilität der Studienpopulation bestimmen zu können, macht es Sinn auf eine alternative Geometrie auszuweichen. Dabei stehen nicht die anatomischen Bereiche im Vordergrund, sondern der funktionale Zusammenhang zwischen diesen Bereichen. o Mittels Markov Chains wird hier zuerst der paarweise Zusammenhang/ Affinität zwischen den Punkten im Gehirn bestimmt, und die Diffusionsdistanz bestimmt (Diffusionsdistanz ist ein Maß für den Zusammenhang zwischen 2 Punkten Diffusionsdistanz Dt zwischen 2 Punkten in einem Graph ist die

17 Summe der Transaktionskosten aller möglichen Pfade zwischen diesen Punkten mit Pfadlänge <= t). o o Die Eigenwertzerlegung des Diffusionsoperators ermöglicht nun das Mapping der Diffusionsdistanz auf die euklidische Distanz. Die daraus entstehende funktionale Karte lässt sich nun relativ gut zwischen mehreren Subjekten/Populationen vergleichen. Hier ist die Distanz der Punkte zueinander nicht anatomisch, sondern durch deren Korrelation/den Zusammenhang bestimmt (Punkte/Voxel deren Zusammenhang größer ist, sind dann auch nahe beieinander Punkte/Voxel mit niedrigem Zusammenhang sind weiter voneinander entfernt). Atlas: o Registrierung mit Funktionalem Atlas (in funktionaler Geometrie eng zusammenliegende Bereiche werden als Cluster definiert) liefert tendenziell besseres Ergebnis als Registrierung mit Anatomischem Atlas 1. Zuerst Transformation der Subjekte in funktionale Geometrie 2. Dann übereinanderlegen der Daten 3. dann eventuell Rücktransformation in den normalen Raum

18 8.Foliensatz: Anisotropic Diffusion Filtering o Glätten innerhalb einer Region fördern o Glätten in Zwischenbereichen hemmen/verhindern o Basierend auf Bildinformation und Gradienten unterschiedliche Glättungsstärke für unterschiedliche lokale Gradienten o Anwendungsbereiche: Denoising (Entrauschen) Segmentierung o Details + Formeln: Bild: I(x, t) Diffusions-Funktion: c(x, t) = f( I(x, t) ) auf Folien: je größer Gradient, desto kleinerer Wert der Diffusionsfunktion (Abhängig von einer Diffusionskonstante κ) Flow-Function: Φ(x, t) = c(x, t) I(x, t) Fluss hat Maximum wenn Gradientwert ähnlich der Diffusionskonstante κ (kleiner Effekt bei Regionen mit kleinem/großem Gradient. Starker Effekt für Gradienten nahe zur Diffusionskonstanten κ.) Gradient ergibt sich aus Intensitätsunterschieden zwischen benachbarten Pixeln Diffusion Tensor Imaging (DTI) o Diffusion von (Wasser-)Molekülen wird vom MRI-Scanner erfasst o Diffusion von (Wasser-)Molekülen wird dazu verwendet um Fasern zu lokalisieren o Diffusion ist Richtungsabhängig (=anisotrop). Die Richtungsabhängigkeit der Diffusion erlaubt Rückschlüsse auf den Verlauf der großen Nervenfaserbündel. o Wassermoleküle bewegen sich ständig und sind nach einer Zeit T entlang einer Achse verteilt: σ² = 2DT (wobei D der Diffusionskoeffizient ist) o Typischer Ablauf: 1. Aufnehmen von Diffusion weighted images: Durch die Bewegung bzw. Diffusion der Wassermoleküle wird eine Randomisierung der Spinphase (Spin wird verschoben) verursacht und dadurch eine Abschwächung des empfangenen Signals ausgelöst (bei der Relaxation der Moleküle). Die Größe des Signalverlustes ermöglicht so eine quantitative Messung der Diffusion in der Gradientenrichtung (um den Tensor berechnen zu können werden mindestens 6 verschiedene Richtungen benötigt). 2. Ermitteln des Diffusionstensor (Berechnen der Eigenwerte und Eigenvektoren): 3x3 Matrix, Eigenvektoren=Hauptachsen, Eigenwerte=Länge der HauptachsenDiffusionstensor beschreibt das dreidimensionale Diffusionsverhalten 3. Analysieren der Anisotropie 4. Nachverfolgen der Fasern

19 Registrierung o Bei Modellbasierter-Suche wird ein Modell (trainiert und) verwendet, um eine bestimmte Struktur zu finden o Bei Registrierung werden 2 Bilder/Volumen gematched (durch deformieren/transformieren eines Bildes), um Übereinstimmungen/Analogien zwischen Positionen in den 2 Bildern zu finden o Was brauchen wir? 2 Bilder (source und target) Transformation function (rigid/non-rigid, affine, ) Similarity function (um source und target zu vergleichen) similarity-measure o Registrierung basierend auf geometrischen Merkmalen ( geometric features ): es müssen Merkmale (Punkte, Linien, Oberflächen) extrahiert werden abhängig von guter Merkmals-Lokalisierung unabhängig von der Modalität o Registrierung basierend auf Voxel-Similarity-Measure Verwendet eine Messung basierend auf Voxelintensitäten Annahme, dass ein Zusammenhang zwischen den Intensitäten in beiden Bildern existiert kein Extrahieren von Merkmalen es müssen die Modalitäten berücksichtigt werden o Optimierung der (voxelbasierten) similarity: die optimale Transformation wird schrittweise gefunden, indem iterariv die Voxel-based-similarity-measure maximiert wird

20 C ist eine Funktion von: Referenzbild A, Quelbild B, Transformation T (T wird auf B angewendet) Single-Modal (Voxel-Based-)Similarity-Measures: o SSD (Sums of squared differences) single-modal nimmt an, dass Intensitäten in beiden Bildern gleich sind ( Identitäts- Zusammenhang ) optimal wenn unterschied in Bildern nur Gaussian-Noise ist empfindlich auf Ausreißer! o SAD (Sum of absolute differences): single-modal nimmt an, dass Intensitäten in beiden Bildern gleich sind ( Identitäts- Zusammenhang ) weniger empfindlich auf Ausreißer o Correlation: single-modal nimmt an, dass ein linearer Zusammenhang zwischen Bildintensitäten besteht empfindlich auf große Intensitätswerte sinnvoll wenn Bilder mit unterschiedlichen intensity-windows aufgenommen wurden o CC (Normalized Cross Correlation) single-modal nimmt an, dass ein linearer Zusammenhang zwischen Bildintensitäten besteht sinnvoll wenn Bilder mit unterschiedlichen intensity-windows aufgenommen wurden nicht mehr empfindlich auf hohe Intensitätswerte

21 Multi-modale Bildregistrierung (Registrierung von Daten, die das gleiche Objekt zeigen, aber mit unterschiedlichen Modalitäten (=Bildgebungsverfahren) aufgenommen wurden)bildintensitäten haben ungewissen oder statistischen Zusammenhang, Zusammenhang ist a priori nicht bekannt, Zusammenhang kann mithilfe eines 2D-Histogramms oder einer co-occurrence matrix untersucht werden o Intensity Remapping (CT intensities are remapped so they match approximately MR), Gradient correlation o 2D-Histogramm: bei korrekter Übereinstimmung ist die Streuung(=scattering) geringer als bei einer nicht-korrekten Verrückung/Verschiebung. Punkt in Histogramm wird als h(a,b) angegeben o Das Bild kann als Wahrscheinlichkeitsverteilung betrachtet werden Wahrscheinlichkeitsverteilung kann mit 2D-Histogramm abgeschätzt werden (Verbund,- und Randwahrscheinlichkeit) Verbundwahrscheinlichkeit: p(a,b) = h(a,b)/n Wahrscheinlichkeit eines Voxels den Wert a im Bild A zu haben und b in B. Randwahrscheinlichkeit: p(a) = b p(a,b) Wahrscheinlichkeit eines Voxels in Bild A den Wert a zu haben. o joint entropy (gemeinsame Entropie/Informationsgehalt) beschreibt die Menge der Information in den kombinierten Bildern A & B: H(A,B) Wenn Bilder keinen Zusammenhang haben ( schlecht übereinandergelegt sind ): H(A,B) = H(A) + H(B) Wenn Zusammenhang besteht: H(A,B) H(A) + H(B) Wir wollen den Zusammenhang bei Registrierung maximal machen joint entropy zwischen zwei Bildern minimieren Problem: empfindlich bezüglich der Überdeckung (bzw. der Überdeckungsfläche) o mutual information Beschreibt wie gut ein Bild vom Anderen beschrieben wird: I(A,B) = H(A) + H(B) - H(A,B) Für Registrierung: mutual information maximieren o normalized mutual information I(A,B) = (H(A) + H(B)) / H(A,B) unabhängig bezüglich der Überdeckung (bzw. der Überdeckungsfläche) sonst könnte Überdeckung falsch interpretiert werden o All similarity measures can be calculated from a 2D-histogram of the two images. Transformation o Interpolation notwendig (nearest neigbour, bilinear in 2D, trilinear in 3D) o Rigid (starr): Translation, Rotation o Affine: Translation, Rotation, Skalierung, Scherung y = Ax + b y Position in Quellbild

22 x Position in Zielbild b definiert Translation A definiert lineare Transformation (Rotation, Skalierung, Scherung) Transformation ist bijektiv(funktioniert in Beide Richtungen), wenn Matrix A invertierbar ist o Non-rigid: alle Transformationen möglich (auch non-linear) Free form deformation (FFD) Thin plate splines (TPS): mapping basierend auf Kontrollpunkten (jeder Kontrollpunkt ist gewichtet, je nach Gewicht/Wichtigkeit hat er Einfluss auf Transformation und auf andere Kontrollpunkte), Wenn Kontrollpunkte transformiert werden wird Rest auch transformiert Optimization o Optimierung der Ähnlichkeitsfunktion (z.b. Normalized Mutual Information) meist iterativ o globales Optimum meist nicht möglich lokale Suche o Multi-Resolution-Strategy Dabei werden unterschiedliche Auflösungen der Bilder verwendet, um nicht in lokalen Maxima gefangen zu werden Anwendungen: o Langzeitstudien: Registrierung von Bildern des gleichen Patienten mit gleicher Modalität zu verschiedenen Zeitpunkten o Fusion verschiedener Modalitäten o Atlas building

23 9.Foliensatz: Erkennen von Erosionen o Klassifizierungsaufgabe: man teilt die Punkte auf der Kontur als Erosion oder Non-Erosion einführt zu einer Messung des Ausmaßes der erosiven Destruktion auf der Kontur o GMM (Gaussian Mixture Model) Generative Model, ist eine Summe von gewichteten Normalverteilungen. Weil wir d-dimensionale Räume betrachten, brauchen wir auch mehrdimensionale Normalverteilungen. Modelle für gesunde und krankhafte bone-patches o Klassifizierung: A-Posteriori-Wahrscheinlichkeit: Wird bei Klassifizierung verwendet (Wahrscheinlichkeit für Erosion * A-Posteriori- Wahrscheinlichkeit der GMMs (für Erosion) wenn Erosion gewählt werden würde) wird Verglichen mit (Wahrscheinlichkeit für Non-Erosion * A- Posteriori-Wahrscheinlichkeit der GMMs (für Non-Erosion) wenn Non- Erosion gewählt werden würde) je nach dem welche Klasse höhere Wahrscheinlichkeit hat, wird der Punkt Erosion oder Non-Erosion zugeteilt o Klassifizierung anschaulich: Es wird mit dem Modell für gesunde Patches versucht den betrachteten Patch nachzubilden (dasselbe mit Modell für krankhafte Patches) die Nachbildung mit geringerem Residual-Error wird gewählt (also jenes Modell, welches den betrachteten Patch besser beschreiben kann) o Wichtige Punkte die beachtet werden müssen: Pathologien müssen fehlerfrei/genau/korrekt erkannt werden es muss ein gutes Interface und eine gute Visualisierung der korrekten Ergebnisse vorhanden sein, damit der klinische Experte die Ergebnisse überprüfen und bestätigen kann Alzheimer und MCI ( Mild Cognitive Impairment = leichte kognitive Beeinträchtigung) o Ziel: kleine Veränderungen über die Zeit am Hippocampus erkennen o Atlas-basierte-Segmentierung von Gehirnregionen nicht einfach, da Population zu heterogen ist, als dass man Fälle einfach so vergleichen kann Similarity-function (Normalized Mutual Information) misst Ähnlichkeit zwischen regions of interest (Bereich um Hippocampus im jeweiligen Bild) ergibt Ähnlichkeit zwischen allen möglichen Kombinationen Validation Strategies o Notwendig um verschiedene Methoden zu vergleichen Performance und Verlässlichkeit angeben zu können den Output einer Methode mit klinisch relevanter Information verknüpfen zu können (z.b. Patient ist nach 5 Jahren gesund ) o Was kann validiert werden?

24 Messungen einer quantitativen Größe (z.b. joint space width) Klassifizierungen (z.b.: ist im Bild ein maligner Tumor zu sehen? JA/NEIN; Klassifizierung Erosion/Non-Erosion) Segmentierungen, Registrierungen (z.b. Segmentierung eines Knochens, Registrierung zweier Datensätze) Messung, Klassifizierung und Segmentierung sind eng miteinander verknüpft (z.b. joint space width-messungen und Erosion-Detektion bei rheumatoider arthritis) o Verschiedene Merkmale können verglichen werden: Durchführungsdauer Korrektheit des Ergebnisses o Was kann als Referenz (mit dem das Ergebnis verglichen wird) angegeben werden? Ground truth: Messung wird mit Messung an der Gewebeprobe verglichen Relative ground truth: Messung wird mit Messung eines klinischen Experten (oder einer Expertengruppe mit gleicher Erfahrung) verglichen Standard of reference (=Referenzstandard): Vergleich mit einer Standardmethode, die als das momentan beste gilt o Wenn keine Referenz vorhanden ist (z.b. wenn neue Methode besser als Standard of Reference ist), kann trotzdem die Präzision evaluiert werden, also wiederholbare Messungen bereitzustellen (die Fähigkeit bei den gleichen Daten die gleichen Ergebnisse zu erhalten) die Fähigkeit zur Unterscheidung evaluiert werden (zwischen unterschiedlichen Behandlungsstrategien, die nachweislich unterschiedliche Effekte haben) o Was genau wird validiert? Accuracy: Fähigkeit einer Methode Messungen oder Diagnosen des Referenzstandards widerzuspiegeln. Precision: Fähigkeit einer Methode wiederholbare Messungen bereitzustellen (z.b: erhöht geringe Variabilität aufgrund von Noise die kleinste Einheit, die noch verlässlich gemessen werden kann) Sensitivity: Anteil der positiven Fälle, die korrekt als positiv klassifiziert wurden Specifity: Anteil der negativen Fälle, die korrekt als negativ klassifiziert wurden Validating Measurements o Durch Messung eines bestimmten Objektes (joint space width, ) soll etwas über den Status einer Krankheit herausgefunden werden Annahme, dass Messung in Zusammenhang mit einer Eigenschaft der Krankheit steht. Zwei Möglichkeiten um Messungen zu beurteilen: o 1.Möglichkeit: Nur die Messungen selbst werden berücksichtigt (z.b. Vergleich von wiederholten Messungen):

25 Smallest detectable difference (SDD): Der kleinste Unterschied der verlässlich detektiert werden kann Coefficient of variation (CV): Menge der Messungs-Streuung verglichen mit der mittleren Messung CV = σ/μ Relative error: relative error = (measurement standard of reference) / standard of reference o 2.Möglichkeit: Anstatt Referenz-Daten werden andere Informationen berücksichtigt (Krankheitsstatus, ) um einen Erwartungswert für die Messung zu erhalten. Normalerweise steht keine ground truth zur Verfügung, sondern nur ein Standard of Reference diesem sollte man allerdings nur bis zu einem gewissen Grad vertrauen Wenn auch keine s.o.r. vorhanden ist, kann PreWissen über Krankheit verwendet werden. Dabei wird die Fähigkeit der Messmethode, Daten zu differenzieren verwendet. z.b. Man hat zwei Gruppen, bei denen man weiß, dass sie einen Unterschied aufweisen, und beobachtet mit welcher Signifikanz die Messmethode zwischen den 2 Gruppen unterscheiden kann. (hier muss man sehr aufpassen!) Validating Classifications (Pathologiedetektion) o Beurteilen von Klassifikatoren bezogen auf true/false positives/negatives: o Sensitivity: TP/(TP+FN) o Specifity: TN/(FP+TN) o False positive rate: FP / (FP + TN) = 1 - specificity o False negative rate: FN / (TP + FN) = 1 sensitivity o Diagnostic accuracy: o Im Idealfall sind Sensitivität und Spezifität beide 1. Man muss immer beide Werte angeben, sonst sind sie (einzeln) bedeutungslos. o ROC-Kurve (Receiver operator characteristic): Ist eine Kurve um alle möglichen Abwägungen zwischen Sensitivität und Spezifität zu beurteilen. Dabei wird ein Parameter der Methode variiert, der den trade-off zwischen Sensitivität und Spezifität am besten steuert:

26 AUC (area under the curve): Je größer die Fläche unter der Kurve ist, desto größer ist die Wahrscheinlichkeit die richtige Entscheidung zu treffen. (AUC größer Methode besser). Wenn 2 ROC-Kurven denselben AUC-Wert haben, kann man die ROC-Kurven in der klinisch relevanten Region vergleichen. Validating Segmentations o Segmentierung Bild wird in verschiedene Sub-Regionen unterteilt diese Regionen überschneiden sich nicht Pixel/Voxel innerhalb einer Region erfüllen ein bestimmtes Ähnlichkeitskriterium o Segmentation vs. S.O.R.:5 Zustände von Unterschieden zwischen Segmentierung (die bewertet wird) und dem Referenzstandard (=s.o.r.), ausgedrückt mit Parameter T: Correct Segmentation: die gemeinsame Überdeckung zwischen Segmentierung und SOR erfüllt T. Over-Segmentation: Eine Region in SOR entspricht mehreren Regionen in der Segmentierung. Jede Seg-Region hat mindestens T% Überdeckung mit SOR-Region UND SOR-Region hat mindestens T% Überdeckung mit der Seg-Regionen-Kollektion. Under-Segmentation: Gegenteil von Over-Segmentation. Eine Region in Segmentierung überdeckt sich mit einer Kollektion/Ansammlung von SOC-Regionen. Missed Region: Es gibt eine Region in der SOC aber keine Region in der Segmentierung, mit einer ausreichenden Übereinstimmung (T). Noise Region: Es gibt eine Region in der Segmentierung aber keine Region in der SOC, mit einer ausreichenden Übereinstimmung (T). o Oft ist die Segmentierung einer bestimmten Region von Interesse: % der gemeinsamen Überdeckung zwischen Segmentierter Region und SOR-Region MSE (Mean square error) of boundaries(=grenzen/ränder) M S.O.R.-Region

27 o Cross-Validation (Kreuzvalidierung: Validierung von Modellen): 1. Daten werden in k Teilmengen aufgeteilt 2. Daten werden iterativ in 2 Mengen aufgeteilt: (größere Menge=Trainingsmenge=besteht aus k-1 Teilmengen, kleinere Menge=Testmenge=besteht aus 1 Teilmenge) 3. ein Teil der Daten wird zu Trainingszwecken benutzt (Segmentierungsverfahren wird mit Trainingsdaten trainiert) und die restlichen Daten (Testmenge) zur Validierung des Modells verwendet wiederholen bis jede Teilmenge einmal als Testdaten verwendet wurde 5. man benötigt ein zusätzliches test-set zur Validierung des Segmentierungsverfahren, weil: die Parameter des Verfahrens/Algorithmus verändern sich normalerweise während der Kreuzvalidierung validation-sets haben die Wahl der Parameter beeinflusst Cross-Validation gibt trotzdem eine gute Ahnung über die Performance eines Algorithmus Probleme/Fallen: o es werden nur synthetische Daten verwendet o durch Kenntnis des Algorithmus kann die Wahl der Daten kann beeinflusst worden sein tendenziell einfachere/simplere Daten o aufgrund von Sensoren: Artefakte in den Daten o Definiton des Kriteriums/der Entscheidungsgrößen o Zuverlässigkeit des standard of reference? o es kann passieren, dass etwas gemessen wird, was man gar nicht messen will Artefakte aufgrund des Experiment-Designs

Fragensammlung zur Vorlesungsprüfung, Medizinische Bildverarbeitung,

Fragensammlung zur Vorlesungsprüfung, Medizinische Bildverarbeitung, Fragensammlung zur Vorlesungsprüfung, Medizinische Bildverarbeitung, 183.269 1. Was ist der Unterschied zwischen ASMs und AAMs? Der Unterschied zwischen Active Shape Models und Active Appearance Models

Mehr

IGDT: Image Processing Advanced Teil 9

IGDT: Image Processing Advanced Teil 9 Teil 9 Rainer Schubert Institut für Biomedizinische Bildanalyse Inhalt Teil 9 Registrierung Grauwert-basierte / Intensity-based Methoden Klassifikation von Registrierungsmethoden 1 Viele Klassifikationskriterien

Mehr

Multivariate Pattern Analysis. Jan Mehnert, Christoph Korn

Multivariate Pattern Analysis. Jan Mehnert, Christoph Korn Multivariate Pattern Analysis Jan Mehnert, Christoph Korn Übersicht 1. Motivation 2. Features 3. Klassifizierung 4. Statistik 5. Annahmen & Design 6. Similarity 7. Beispiel Grenzen & Probleme der klassischen

Mehr

Pareto optimale lineare Klassifikation

Pareto optimale lineare Klassifikation Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung

Mehr

Einführung in die medizinische Bildverarbeitung SS 2013

Einführung in die medizinische Bildverarbeitung SS 2013 Einführung in die medizinische Bildverarbeitung SS 2013 Stephan Gimbel 1 Kurze Wiederholung Gradienten 1. und 2. Ableitung grad( f ( x, y) ) = f ( x, y) = f ( x, y) x f ( x, y) y 2 f ( x, y) = 2 f ( x,

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

Klassifikation von Daten Einleitung

Klassifikation von Daten Einleitung Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung

Mehr

Beschleunigung von Bild-Segmentierungs- Algorithmen mit FPGAs

Beschleunigung von Bild-Segmentierungs- Algorithmen mit FPGAs Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Algorithmen mit FPGAs Vortrag von Jan Frenzel Dresden, Gliederung Was ist Bildsegmentierung?

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Visual Servoing using Mutual Information

Visual Servoing using Mutual Information Visual Servoing using Mutual Information Christian Rupprecht Robotics and Embedded Systems Technische Universität München Outline 1 Visual Servoing Was ist Visual Servoing? Typische Lösungsansätze 2 Mutual

Mehr

Data Mining und Maschinelles Lernen

Data Mining und Maschinelles Lernen Data Mining und Maschinelles Lernen Wintersemester 2015/16 Musterlösung für das 7. Übungsblatt Aufgabe 1 Evaluierungsmethoden Ein Datenset enthält 2 n Beispiele, wobei genau n Beispiele positiv sind und

Mehr

Multiple Vergleiche Small Volume Correction Effekte mehrerer Kontraste. Multiple Vergleiche. Mareike Düesberg. SPMKurs 2016

Multiple Vergleiche Small Volume Correction Effekte mehrerer Kontraste. Multiple Vergleiche. Mareike Düesberg. SPMKurs 2016 Multiple Vergleiche Mareike Düesberg SPMKurs 2016 Ablauf Multiple Vergleiche Inferenzlevel Inklusive Maskierung Exklusive Maskierung Konjunktion Inferenzlevel Multiple Vergleiche: viele Voxel viele Tests...

Mehr

Computer Vision: Segmentierung I

Computer Vision: Segmentierung I Computer Vision: Segmentierung I D. Schlesinger TUD/INF/KI/IS Der Plan: D. Schlesinger () CV: Segmentierung I 1 / 13 Segmentierung Man hat das... Man braucht das. D. Schlesinger () CV: Segmentierung I

Mehr

Entscheidungsbäume aus großen Datenbanken: SLIQ

Entscheidungsbäume aus großen Datenbanken: SLIQ Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:

Mehr

, Data Mining, 2 VO Sommersemester 2008

, Data Mining, 2 VO Sommersemester 2008 Evaluation 188.646, Data Mining, 2 VO Sommersemester 2008 Dieter Merkl e-commerce Arbeitsgruppe Institut für Softwaretechnik und Interaktive Systeme Technische Universität Wien www.ec.tuwien.ac.at/~dieter/

Mehr

Projektionen für f r die Scanregistrierung mit Hilfe von Bildmerkmalen

Projektionen für f r die Scanregistrierung mit Hilfe von Bildmerkmalen Projektionen für f r die Scanregistrierung mit Hilfe von Bildmerkmalen Prof. Dr. Andreas Nüchter Jacobs University Bremen Campus Ring 1 28759 Bremen 1 Hintergrund (1) Automatisierung von terrestrischen

Mehr

Einführung in die medizinische Bildverarbeitung WS 12/13

Einführung in die medizinische Bildverarbeitung WS 12/13 Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Prozess einer räumliche Transformation zu finden um ein Bild auf ein anderes Bild abzubilden Eingabe: Fixed und

Mehr

Diagnostische Verfahren

Diagnostische Verfahren 6. Diagnostische s Jede Registrierung oder Auswertung einer Information mit dem Ziel der Erkennung einer Erung oder eines speziellen Zustandes wird diagnostischer genannt. Beispiele Reaktion auf Ansprechen

Mehr

Statistisches Testen

Statistisches Testen Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall

Mehr

Einführung in die medizinische Bildverarbeitung WS 12/13

Einführung in die medizinische Bildverarbeitung WS 12/13 Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)

Mehr

3D-Rekonstruktion aus Bildern

3D-Rekonstruktion aus Bildern Allgemeine Nachrichtentechnik Prof. Dr.-Ing. Udo Zölzer 3D-Rekonstruktion aus Bildern Dipl.-Ing. Christian Ruwwe 41. Treffen der ITG-Fachgruppe Algorithmen für die Signalverarbeitung HSU Hamburg 24. Februar

Mehr

Support Vector Machines (SVM)

Support Vector Machines (SVM) Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-

Mehr

Klassifikation und Ähnlichkeitssuche

Klassifikation und Ähnlichkeitssuche Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell

Mehr

Segmentierung. Vorlesung FH-Hagenberg SEM

Segmentierung. Vorlesung FH-Hagenberg SEM Segmentierung Vorlesung FH-Hagenberg SEM Segmentierung: Definition Die Pixel eines Bildes A={a i }, i=1:n, mit N der Anzahl der Pixel, werden in Teilmengen S i unterteilt. Die Teilmengen sind disjunkt

Mehr

Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19

Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19 Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, 2016 6:34 P.M. Page 11 Inhaltsverzeichnis Über die Übersetzerin 9 Einleitung 19 Was Sie hier finden werden 19 Wie dieses Arbeitsbuch aufgebaut ist

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Lineares Gleichungssystem - Vertiefung

Lineares Gleichungssystem - Vertiefung Lineares Gleichungssystem - Vertiefung Die Lösung Linearer Gleichungssysteme ist das "Gauß'sche Eliminationsverfahren" gut geeignet - schon erklärt unter Z02. Alternativ kann mit einem Matrixformalismus

Mehr

Flächen- und Volumenmessung lokaler Objekte in DICOM-Bildern und Bildfolgen

Flächen- und Volumenmessung lokaler Objekte in DICOM-Bildern und Bildfolgen Flächen- und Volumenmessung lokaler Objekte in ICOM-Bildern und Bildfolgen Sergei Hludov, Christoph Meinel und Thomas Engel Institut für Telematik Bahnhofsstr. 30-3, 549 Trier Email: hludov@ti.fhg.de Zusammenfassung.

Mehr

Einführung in die medizinische Bildverarbeitung WS 12/13

Einführung in die medizinische Bildverarbeitung WS 12/13 Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von

Mehr

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand

Mehr

Entwicklung eines Distanzmaßes zwischen Bildern über dem Modell der Fields of Visual Words

Entwicklung eines Distanzmaßes zwischen Bildern über dem Modell der Fields of Visual Words Entwicklung eines Distanzmaßes zwischen Bildern über dem Modell der Fields of Visual Words André Viergutz 1 Inhalt Einführung. Einordnung der Arbeit in die zugrunde liegenden Konzepte Das Modell der Fields

Mehr

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem

Mehr

Räumliche Vorverarbeitung funktioneller Bilddaten

Räumliche Vorverarbeitung funktioneller Bilddaten Jena Räumliche Vorverarbeitung funktioneller Bilddaten Christian Gaser Structural Brain Mapping Group Kliniken für Neurologie und Psychiatrie Universitätsklinikum Vom Rohdatensatz zum Ergebnis? T 1 -Volumen

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 10 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre I Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 25.9.13 Psychologie als Wissenschaft

Mehr

Decision Tree Learning

Decision Tree Learning Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?

Mehr

Mathe III. Garance PARIS. Mathematische Grundlagen III. Evaluation. 16. Juli /25

Mathe III. Garance PARIS. Mathematische Grundlagen III. Evaluation. 16. Juli /25 Mathematische Grundlagen III Evaluation 16 Juli 2011 1/25 Training Set und Test Set Ein fairer Test gibt an, wie gut das Modell im Einsatz ist Resubstitution: Evaluation auf den Trainingsdaten Resubstitution

Mehr

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Inhalt Grundlagen aus der Wahrscheinlichkeitsrechnung Hypothesenwahl Optimale Bayes Klassifikator Naiver Bayes Klassifikator

Mehr

Rekonstruktion 3D-Datensätze

Rekonstruktion 3D-Datensätze Rekonstruktion 3D-Datensätze Messung von 2D Projektionsdaten von einer 3D Aktivitätsverteilung Bekannt sind: räumliche Anordnung der Detektoren/Projektionsflächen ->Ziel: Bestimmung der 3D-Aktivitätsverteilung

Mehr

Nichtmetrische multidimensionale Skalierung (NMDS) Dr. Heike Culmsee Vegetationsanalyse & Phytodiversität

Nichtmetrische multidimensionale Skalierung (NMDS) Dr. Heike Culmsee Vegetationsanalyse & Phytodiversität Nichtmetrische multidimensionale Skalierung (NMDS) Dr. Heike Culmsee Vegetationsanalyse & Phytodiversität Übersicht Ordinationsverfahren Linear methods Weighted averaging Multidimensional scaling Unconstrained

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:

Mehr

Die Funktion f wird als Regressionsfunktion bezeichnet.

Die Funktion f wird als Regressionsfunktion bezeichnet. Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology

Mehr

Neue Ansätze für Mustererkennung und automatisches Lernen

Neue Ansätze für Mustererkennung und automatisches Lernen Z Y X Neue Ansätze für Mustererkennung und automatisches Lernen Vortrag im Rahmen des 2. Technologieforums Bildverarbeitung am 03./04. November 2015 Johannes Zügner STEMMER IMAGING GmbH, Puchheim GLIEDERUNG

Mehr

Einführung in die medizinische Bildverarbeitung WS 12/13

Einführung in die medizinische Bildverarbeitung WS 12/13 Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Pipeline Pipelinestufen können sich unterscheiden, beinhalten aber i.d.r. eine Stufe zur Bildvorverarbeitung zur

Mehr

Statistische Tests (Signifikanztests)

Statistische Tests (Signifikanztests) Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)

Mehr

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests ue biostatistik: hypothesen, fehler 1. und. art, power 1/8 h. lettner / physik Hypothesen: Fehler 1. und. Art, Power eines statistischen Tests Die äußerst wichtige Tabelle über die Zusammenhänge zwischen

Mehr

Projekt Maschinelles Lernen WS 06/07

Projekt Maschinelles Lernen WS 06/07 Projekt Maschinelles Lernen WS 06/07 1. Auswahl der Daten 2. Evaluierung 3. Noise und Pruning 4. Regel-Lernen 5. ROC-Kurven 6. Pre-Processing 7. Entdecken von Assoziationsregeln 8. Ensemble-Lernen 9. Wettbewerb

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

EVC Repetitorium Blender

EVC Repetitorium Blender EVC Repetitorium Blender Michael Hecher Felix Kreuzer Institute of Computer Graphics and Algorithms Vienna University of Technology INSTITUTE OF COMPUTER GRAPHICS AND ALGORITHMS Filter Transformationen

Mehr

Distributed Algorithms. Image and Video Processing

Distributed Algorithms. Image and Video Processing Chapter 7 High Dynamic Range (HDR) Distributed Algorithms for Quelle: wikipedia.org 2 1 High Dynamic Range bezeichnet ein hohes Kontrastverhältnis in einem Bild Kontrastverhältnis bei digitalem Bild: 1.000:1

Mehr

Geometrische Objekte im 3-dimensionalen affinen Raum oder,... wie nützlich ist ein zugehöriger Vektorraum der Verschiebungen

Geometrische Objekte im 3-dimensionalen affinen Raum oder,... wie nützlich ist ein zugehöriger Vektorraum der Verschiebungen Geometrische Objekte im -dimensionalen affinen Raum Bekanntlich versteht man unter geometrischen Objekten Punktmengen, auf die man die üblichen Mengenoperationen wie z.b.: Schnittmenge bilden: - aussagenlogisch:

Mehr

Statistics, Data Analysis, and Simulation SS 2015

Statistics, Data Analysis, and Simulation SS 2015 Mainz, May 12, 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler

Mehr

6 Distanzfunktionen (2) 6 Distanzfunktionen. 6.1 Eigenschaften und Klassifikationen. Einführung

6 Distanzfunktionen (2) 6 Distanzfunktionen. 6.1 Eigenschaften und Klassifikationen. Einführung 6 en 6 en (2) 1. Eigenschaften und Klassifikation 2. en auf Punkten Minkowski L m Gewichtete Minkowski L m w Quadratische d q Quadratische Pseudo Dynamical Partial Semi Pseudo Chi Quadrat Semi Pseudo Kullback

Mehr

Wahrscheinlichkeitstheorie 2

Wahrscheinlichkeitstheorie 2 Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):

Mehr

Scene Reconstruction with Multiple View Geometry

Scene Reconstruction with Multiple View Geometry Scene Reconstruction with Multiple View Geometry Anwendungen 2 16.06.2010 Nikolaus Rusitska nikolausrusitska@gmx.de Inhalt Rückblick Techniken Related Work Fazit 1 Rückblick Techniken Related Work Fazit

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten

Mehr

Anwendungen der Hauptkomponentenanalyse. Volker Tresp vertreten durch Florian Steinke

Anwendungen der Hauptkomponentenanalyse. Volker Tresp vertreten durch Florian Steinke Anwendungen der Hauptkomponentenanalyse Volker Tresp vertreten durch Florian Steinke 1 Dimensionsreduktion für Supervised Learning 2 Beispiel: Kaufentscheidung 3 Verbesserte Abstandsmaße durch Hauptkomponentenanalyse

Mehr

Übersicht der Vorlesung

Übersicht der Vorlesung Übersicht der Vorlesung. Einführung. Bildverarbeitung. Morphologische Operationen 4. Bildsegmentierung 5. Merkmale von Objekten 6. Klassifikation 7. Dreidimensionale Bildinterpretation 8. Bewegungsanalyse

Mehr

6 Distanzfunktionen. Quadratische Pseudo. 1. Eigenschaften und Klassifikation

6 Distanzfunktionen. Quadratische Pseudo. 1. Eigenschaften und Klassifikation 6 Distanzfunktionen 1. Eigenschaften und Klassifikation 2. Distanzfunktionen auf Punkten Minkowski Distanzfunktion L m Gewichtete Minkowski Distanzfunktion L m w Quadratische Distanzfunktion d q Quadratische

Mehr

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn

Optimierung. Optimierung. Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung Fabian Kuhn Optimierung Vorlesung 9 Lineare Programmierung & Kombinatorische Optimierung 1 Assignment Problem (Zuordnungsproblem) Gewichtetes Perfektes Bipartites Matching agents Costs tasks Weise jedem Agenten genau

Mehr

Analysis of Crash Simulation Data using Spectral Embedding with Histogram Distances

Analysis of Crash Simulation Data using Spectral Embedding with Histogram Distances Analysis of Crash Simulation Data using Spectral Embedding with Histogram Distances Luisa Schwartz Universität Bonn Institut für Numerische Simulation Fraunhofer SCAI 25. September 2014 Luisa Schwartz

Mehr

Regression und Korrelation

Regression und Korrelation Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen

Mehr

Einführung in Support Vector Machines (SVMs)

Einführung in Support Vector Machines (SVMs) Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur

Mehr

2. Schnitterkennung Videoanalyse

2. Schnitterkennung Videoanalyse 2. Schnitterkennung Videoanalyse Stephan Kopf Inhalt Definition: Schnitt Klassifikation eines Schnittes Vorgehensweise bei der automatischen Schnitterkennung Pixelbasierte Verfahren Histogramme Aggregierte

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 5. Juli 2011 Zunächst: PCA (Hauptkomponentenanalyse) ist eine mathematische Prozedur, die eine Anzahl von (möglicherweise korrelierten) Variablen

Mehr

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung R. Brinkmann http://brinkmann-du.de Seite 5.05.0 Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung Erwartungswert binomialverteilter Zufallsgrößen Wird ein Bernoulli- Versuch, bei

Mehr

Wissensbasierte Systeme. Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche. Heuristiken und ihre Eigenschaften

Wissensbasierte Systeme. Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche. Heuristiken und ihre Eigenschaften 1 Michael Beetz Technische Universität München Wintersemester 2004/05 Kombinatorische Explosion und die Notwendigkeit Heuristischer Suche 2 3 der Eigenschaften der 4 : 8-Puzzle 5 Heuristiken und ihre Eigenschaften

Mehr

Die Interpretation Optischer Leistungsdaten

Die Interpretation Optischer Leistungsdaten Die Interpretation Optischer Leistungsdaten Einige Fakten über die Carl Zeiss AG Seit 1896 berühmt für Kamera-Objektive Zeiss 1846 von Carl Zeiss gegründet 48 Produktionsstandorte weltweit Die ersten Kamerabilder

Mehr

Modellbasierte Diagnosesysteme

Modellbasierte Diagnosesysteme Modellbasierte Diagnosesysteme Diagnose: Identifikation eines vorliegenden Fehlers (Krankheit) auf der Basis von Beobachtungen (Symptomen) und Hintergrundwissen über das System 2 Arten von Diagnosesystemen:

Mehr

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments 73 Hypothesentests 73.1 Motivation Bei Hypothesentests will man eine gewisse Annahme über eine Zufallsvariable darauf hin überprüfen, ob sie korrekt ist. Beispiele: ( Ist eine Münze fair p = 1 )? 2 Sind

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Sparse Hauptkomponentenanalyse

Sparse Hauptkomponentenanalyse Sparse Referent: Thomas Klein-Heßling LMU München 20. Januar 2017 1 / 36 1 Einführung 2 3 4 5 2 / 36 Einführung Ziel: vorhandene Datenmenge verstehen Daten komprimieren Bei der Sparse (SPCA) handelt es

Mehr

Iterative Methods for Improving Mesh Parameterizations

Iterative Methods for Improving Mesh Parameterizations Iterative Methods for Improving Mesh Parameterizations Autoren: Shen Dong & Michael Garland, SMI 07 Nicola Sheldrick Seminar Computergrafik April 6, 2010 Nicola Sheldrick (Seminar Computergrafik)Iterative

Mehr

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers 4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis

Mehr

Topologieerkennung von Sensornetzwerken

Topologieerkennung von Sensornetzwerken looz@ira.uka.de Institut für Theoretische Informatik - Algorithmik I 26. Januar 2010 Übersicht Motivation Definitionen Überlegungen Algorithmus Resultate Motivation Definitionen Überlegungen Algorithmus

Mehr

Serie 3. z = f(x, y) = 9 (x 2) 2 (y 3) 2 z 2 = 9 (x 2) 2 (y 3) 2, z 0 9 = (x 2) 2 + (y 3) 2 + z 2, z 0.

Serie 3. z = f(x, y) = 9 (x 2) 2 (y 3) 2 z 2 = 9 (x 2) 2 (y 3) 2, z 0 9 = (x 2) 2 + (y 3) 2 + z 2, z 0. Analysis D-BAUG Dr Cornelia Busch FS 2016 Serie 3 1 a) Zeigen Sie, dass der Graph von f(x, y) = 9 (x 2) 2 (y 3) 2 eine Halbkugel beschreibt und bestimmen Sie ihren Radius und ihr Zentrum z = f(x, y) =

Mehr

GPU-friendly multi-view stereo reconstruction using surfel representation and graph cuts

GPU-friendly multi-view stereo reconstruction using surfel representation and graph cuts GPU-friendly multi-view stereo reconstruction using surfel representation and graph cuts Rico Jonschkowski Seminar 3D Rekonstruktion SoSe 2011 Verantstalter: Prof. Raúl Rojas, Fabian Wiesel FU Berlin,

Mehr

Bildverarbeitung Herbstsemester. Mustererkennung

Bildverarbeitung Herbstsemester. Mustererkennung Bildverarbeitung Herbstsemester Herbstsemester 2009 2012 Mustererkennung 1 Inhalt Einführung Mustererkennung in Grauwertbildern Ähnlichkeitsmasse Normalisierte Korrelation Korrelationskoeffizient Mustererkennung

Mehr

Algorithmen zur Analyse historischer Landkarten. Benedikt Budig Universität Würzburg

Algorithmen zur Analyse historischer Landkarten. Benedikt Budig Universität Würzburg Algorithmen zur Analyse historischer Landkarten Benedikt Budig Universität Würzburg Einführung Einführung Algorithmen zur Analyse historischer Landkarten Einführung Algorithmen zur Analyse historischer

Mehr

Kapitel 2.1: Die stochastische Sicht auf Signale Georg Dorffner 67

Kapitel 2.1: Die stochastische Sicht auf Signale Georg Dorffner 67 Kapitel 2.1: Die stochastische Sicht auf Signale 215 Georg Dorffner 67 Stochastische Prozesse Stochastische Prozesse sind von Zufall geprägte Zeitreihen x n f x, n 1 xn2,... n vorhersagbarer Teil, Signal

Mehr

Navigation anhand natürlicher Landmarken mit Hilfe der Scale Invariant Feature Transform. Thorsten Jost INF-M2 AW1 Sommersemester

Navigation anhand natürlicher Landmarken mit Hilfe der Scale Invariant Feature Transform. Thorsten Jost INF-M2 AW1 Sommersemester Navigation anhand natürlicher Landmarken mit Hilfe der Scale Invariant Feature Transform Thorsten Jost INF-M2 AW1 Sommersemester 2008 Agenda Motivation Feature Detection Beispiele Posenbestimmung in Räumen

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Objekterkennung

INTELLIGENTE DATENANALYSE IN MATLAB. Objekterkennung INTELLIGENTE DATENANALYSE IN MATLAB Objekterkennung Objekterkennung Problemstellung Gegeben: Ein Bild. Fragestellungen: Klassifikationsproblem Ist ein bestimmtes Objekt (z.b. Flugzeug) auf dem Bild? Welches

Mehr

Bild-Erkennung & -Interpretation

Bild-Erkennung & -Interpretation Kapitel I Bild-Erkennung & -Interpretation FH Aachen / Jülich, FB 9 Prof. Dr. rer.nat. Walter Hillen (Dig Img I) 1 Einführung Schritte zur Bilderkennung und Interpretation: Bild-Erfassung Vorverarbeitung

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

Darstellung von Kurven und Flächen

Darstellung von Kurven und Flächen Darstellung von Kurven und Flächen Technische Universität Dresden Fakultät Informatik Institut für Software- und Multimediatechnik Dozent: Dr. Mascolous Referent: Gliederung / Einleitung 1 / 25 1. Kurven

Mehr

Distributed Algorithms. Image and Video Processing

Distributed Algorithms. Image and Video Processing Chapter 6 Optical Character Recognition Distributed Algorithms for Übersicht Motivation Texterkennung in Bildern und Videos 1. Erkennung von Textregionen/Textzeilen 2. Segmentierung einzelner Buchstaben

Mehr

Einführung Fehlerrechnung

Einführung Fehlerrechnung Einführung Fehlerrechnung Bei jeder Messung, ob Einzelmessung oder Messreihe, muss eine Aussage über die Güte ( Wie groß ist der Fehler? ) des Messergebnisses gemacht werden. Mögliche Fehlerarten 1. Systematische

Mehr

SBP Mathe Aufbaukurs 1 # 0 by Clifford Wolf. SBP Mathe Aufbaukurs 1

SBP Mathe Aufbaukurs 1 # 0 by Clifford Wolf. SBP Mathe Aufbaukurs 1 SBP Mathe Aufbaukurs 1 # 0 by Clifford Wolf SBP Mathe Aufbaukurs 1 # 0 Antwort Diese Lernkarten sind sorgfältig erstellt worden, erheben aber weder Anspruch auf Richtigkeit noch auf Vollständigkeit. Das

Mehr

Simulation von Brownscher Dynamik und Assoziationsraten von PP-Komplexen. Alexander Baldauf Montag

Simulation von Brownscher Dynamik und Assoziationsraten von PP-Komplexen. Alexander Baldauf Montag Simulation von Brownscher Dynamik und Assoziationsraten von PP-Komplexen Alexander Baldauf Montag 25.04.2005 Motivation Typen von Interaktionen Verschiedene Methoden zur Vorhersage Wie kommen die beiden

Mehr

Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk

Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC Referenten: Linda Gräfe & Konstantin Falk 1 Agenda Schätzverfahren ML REML Beispiel in SPSS Modellbeurteilung Devianz AIC BIC

Mehr

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Syntaktische und Statistische Mustererkennung. Bernhard Jung Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel

Mehr

5. Seminar Statistik

5. Seminar Statistik Sandra Schlick Seite 1 5. Seminar 5. Seminar Statistik 30 Kurztest 4 45 Testen von Hypothesen inkl. Übungen 45 Test- und Prüfverfahren inkl. Übungen 45 Repetitorium und Prüfungsvorbereitung 15 Kursevaluation

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Methoden zur Cluster - Analyse

Methoden zur Cluster - Analyse Kapitel 4 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr