Einführung in die medizinische Bildverarbeitung WS 12/13

Größe: px
Ab Seite anzeigen:

Download "Einführung in die medizinische Bildverarbeitung WS 12/13"

Transkript

1 Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel

2 Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von Strukturen durch Marker zur Anpassung der Koordinatensysteme meist parametrische Transformation (i.d.r. starr oder affin) Optimierung Bestimmung der Transformationsparameter Datensätze möglichst optimal zueinander ausgerichtet Kriterium z.b. die mittlere quadratische Euklidische Distanz Lösung des Gleichungssystems z.b. über Gauß sche Methode der kleinsten Fehlerquadrate Joint Histogramm zwei Bilder A und B Auftragen der Wahrscheinlichkeiten p(x,y) in den Koordinaten (x,y) zeigt gemeinsames Auftreten der Grauwerte gemeinsame Strukturen zeigen sich als Punktwolke im Diagramm

3 Kurze Wiederholung Kurven- und oberflächenbasierte Rand- und Oberflächen, z.b. durch Meshes repräsentiert Genauigkeit hängt von der Genauigkeit der Segmentierungsergebnisse ab ICP-Algorithmus Eingabe: zwei Oberflächen A und B Ausgabe: an B angepasste Oberfläche A verwendet Punktkorrespondenzen zwischen den Oberflächen iterative Annäherung über Berechnung einer Transformation Konturbasierte Abbildung zweier korrespondierender Konturpunkt in zwei Datensätzen Aussenkonturen aus Atlas wird in den Patientendatensatz eingeblendet iterative Annäherung Exkursion Wahrscheinlichkeit Definition P(A) = N(A) / N Beispiele: Coin-Toss & Würfel

4 Mutual Information und Entropie Messung des Informationsgehaltes unabhängig vom Verfahren und damit verbundenen Bildmaterial über Informationsgehalt eines Bildes kann dessen Ähnlichkeit zu einem zweiten Bild festgestellt werden Exkursion in die Informationstheorie bereits 1928 beschäftigte sich Hartley mit dem Informationsgehalt von Nachrichten Idee: mit möglichst wenigen Symbolen eine maximale und fehlerfreie Informationskodierung erzielen (Kapazität der Datenkanäle bei der Übertragung) Entropie ist das Maß, die benötigte Bandbreite zu bestimmen ein syntaxfreier String mit n Zeichen und m Zuständen ergibt die Möglichkeit n m verschiedene Strings zu bilden maximal mögliche Strings steigt exponentiell mit der Erhöhung von n

5 Ziele: um lineares Wachstum zu erreichen: H = Kn, mit K = Konstante in Abhängigkeit von m Gleichheit der Informationsmasse von zwei Strings n 1 und n 2 gleicher Länge mit möglichen Symbolen m 1 und m 2, so dass n 1 m1 = n 2 m2 H H = m log n = log n m Informationsgehalt des Strings wächst mit der Anzahl der maximalen Möglichkeiten Unsicherheit (Umstand der Vorhersage eines Ereignisses) mit der ein bestimmter String auftritt, kann gemessen werden Ein Symbol welches immer nur eine Ausprägung annehmen kann hat dabei die Unsicherheit 0 (log 1 = 0) Problem: Annahme dass alle Symbole mit der gleichen Häufigkeit auftreten, was nicht der Realität entspricht (siehe Wörter/Alphabet)

6 Lösung: Shannon hat eine Gewichtung des Auftretens eingeführt betrachtet wird die Summe über die Symbole, die den Informationsgehalt in Abhängigkeit von ihrer Auftrittswahrscheinlichkeit summiert H S = p i log 1 p i = p i log p i Bezug zu Hartley (gleiche Auftrittswahrscheinlichkeit aller Symbole 1/n m ) H = i i 1 n log 1 m n = 1 m n m lognm = logn m Shannon Entropie besagt, dass der Informationsgehalt maximal wird, wenn alle Symbole mit der gleichen Wahrscheinlichkeit auftreten man kann nicht sagen welches Symbol als nächstes auftritt bei großen Unterschieden ist die Erwartungshaltung bestimmter Symbole höher als von anderen da die Erwartungshaltung meistens erfüllt wird führen seltenere Ereignisse (höhere Aussagekraft) nicht zu höherer Entropie

7 Mutual Information Bilder sind eine Aneinanderreihung von Punkten Pixelstring bei vorheriger Bestimmung der Grauwerte und zählen des Auftretens jedes Wertes, kann nach Shannon der Informationsgehalt des Bildes bestimmt werden die Entropie beschreibt also den Informationsgehalt einer Nachricht (Bild) unter Einbeziehung der Häufigkeit des Auftretens eines Symbols und deren Verteilung Markov Random Fields Beispiel

Einführung in die medizinische Bildverarbeitung WS 12/13

Einführung in die medizinische Bildverarbeitung WS 12/13 Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von

Mehr

Einführung in die medizinische Bildverarbeitung WS 12/13

Einführung in die medizinische Bildverarbeitung WS 12/13 Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Prozess einer räumliche Transformation zu finden um ein Bild auf ein anderes Bild abzubilden Eingabe: Fixed und

Mehr

Einführung in die medizinische Bildverarbeitung WS 12/13

Einführung in die medizinische Bildverarbeitung WS 12/13 Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Pipeline Pipelinestufen können sich unterscheiden, beinhalten aber i.d.r. eine Stufe zur Bildvorverarbeitung zur

Mehr

Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1

Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1 Informationsgehalt Kapitel 4.1 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916) Quelle Sender

Mehr

Kapitel 9: Informationstheorie. 2. Entropie

Kapitel 9: Informationstheorie. 2. Entropie ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE

Mehr

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines Seite 1 Georg-August-Universität Göttingen Robert Schaback Zum Begriff der Information in Mathematik und Informatik Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A)

Mehr

IGDT: Image Processing Advanced Teil 9

IGDT: Image Processing Advanced Teil 9 Teil 9 Rainer Schubert Institut für Biomedizinische Bildanalyse Inhalt Teil 9 Registrierung Grauwert-basierte / Intensity-based Methoden Klassifikation von Registrierungsmethoden 1 Viele Klassifikationskriterien

Mehr

Molekulare Bioinformatik

Molekulare Bioinformatik Molekulare Bioinformatik Wintersemester 203/204 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 07.0.204 Molekulare Bioinformatik - Vorlesung 0 Wiederhohlung Die Entropie

Mehr

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1 Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:

Mehr

Prof. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert.

Prof. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert. Audiotechnik II Digitale Audiotechnik: 8. Tutorium Prof. Dr. Stefan Weinzierl 9.2.23 Musterlösung: 9. Dezember 23, 8:34 Fehlerkorrektur II Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit

Mehr

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b. Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Bei der Registrierung werden zwei Bilder betrachtet, von denen eines üblicherweise als Referenzbild

Bei der Registrierung werden zwei Bilder betrachtet, von denen eines üblicherweise als Referenzbild 3.4 egistrierung 3.4 egistrierung In diesem Abschnitt beschäftigen wir uns mit dem Problem der egistrierung von Bildern, d.h. der Aufgabe zwei Bilder derselben Szene, oder zumindest ähnlicher Szenen, bestmöglich

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Einführung in die Medizinische Informatik

Einführung in die Medizinische Informatik Einführung in die Medizinische Informatik 1 M + I MI (Wiederholung) 2 Information, Informationsgehalt, Entscheidung Reinhold Haux, Christopher Duwenkamp, Nathalie Gusew Institut für Medizinische Informatik

Mehr

Optimalcodierung. Thema: Optimalcodierung. Ziele

Optimalcodierung. Thema: Optimalcodierung. Ziele Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.

Mehr

Mit Skalarprodukt und Vektorprodukt lässt sich ein weiteres, kombiniertes Produkt, das Spatprodukt

Mit Skalarprodukt und Vektorprodukt lässt sich ein weiteres, kombiniertes Produkt, das Spatprodukt Mit Skalarprodukt und Vektorprodukt lässt sich ein weiteres, kombiniertes Produkt, das Spatprodukt a ( b c) bilden. Aus der geometrischen Interpretation von Skalarprodukt und Vektorprodukt ist sofort ersichtlich,

Mehr

Computergrafik 2: Übung 2. Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung

Computergrafik 2: Übung 2. Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung Computergrafik 2: Übung 2 Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung Inhalt Besprechung von Übung 1 Subsampling und Moiré Effekte Color Maps Histogrammlinearisierung Computergrafik

Mehr

Unsicherheit * M RS = 6

Unsicherheit * M RS = 6 Informationstheorie Gegenstand Unsicherheit Überraschung Entropie Relative und maximale Entropie, Redundanz Konditionale Entropie und Verbundentropie Wechselseitige ("Mutual") Information Gegenstand Kodierung,

Mehr

1 Messfehler. 1.1 Systematischer Fehler. 1.2 Statistische Fehler

1 Messfehler. 1.1 Systematischer Fehler. 1.2 Statistische Fehler 1 Messfehler Jede Messung ist ungenau, hat einen Fehler. Wenn Sie zum Beispiel die Schwingungsdauer eines Pendels messen, werden Sie - trotz gleicher experimenteller Anordnungen - unterschiedliche Messwerte

Mehr

Signale und Codes Vorlesung 4

Signale und Codes Vorlesung 4 Signale und Codes Vorlesung 4 Nico Döttling December 6, 2013 1 / 18 2 / 18 Letztes Mal Allgemeine Hamming Codes als Beispiel linearer Codes Hamming Schranke: Obere Schranke für k bei gegebenem d bzw. für

Mehr

Musterlösung: 11. Dezember 2014, 10:43. Informationstheorie und Entropiekodierung

Musterlösung: 11. Dezember 2014, 10:43. Informationstheorie und Entropiekodierung Audiotechnik II Digitale Audiotechnik: 8. Übung Prof. Dr. Stefan Weinzierl 11.12.2014 Musterlösung: 11. Dezember 2014, 10:43 Informationstheorie und Entropiekodierung Bei der Entropiekodierung werden die

Mehr

Informationstheorie und Codierung

Informationstheorie und Codierung Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice

Mehr

Splitting. Impurity. c 1. c 2. c 3. c 4

Splitting. Impurity. c 1. c 2. c 3. c 4 Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision

Mehr

Recommender Systeme mit Collaborative Filtering

Recommender Systeme mit Collaborative Filtering Fakultät für Informatik Technische Universität München Email: rene.romen@tum.de 6. Juni 2017 Recommender Systeme Definition Ziel eines Recommender Systems ist es Benutzern Items vorzuschlagen die diesem

Mehr

Lambacher Schweizer für berufliche Gymnasien.

Lambacher Schweizer für berufliche Gymnasien. e 11 Lambacher Schweizer für berufliche Gymnasien. Lambacher Schweizer Mathematik für berufliche Gymnasien Wirtschaft 11 Stoffverteilungsplan für Klasse 11 in Nordrhein-Westfalen Stoffverteilungsplan Lambacher

Mehr

3. Das Reinforcement Lernproblem

3. Das Reinforcement Lernproblem 3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität

Mehr

Visual Servoing using Mutual Information

Visual Servoing using Mutual Information Visual Servoing using Mutual Information Christian Rupprecht Robotics and Embedded Systems Technische Universität München Outline 1 Visual Servoing Was ist Visual Servoing? Typische Lösungsansätze 2 Mutual

Mehr

WS 2009/10. Diskrete Strukturen

WS 2009/10. Diskrete Strukturen WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910

Mehr

4. Segmentierung von Objekten Video - Inhaltsanalyse

4. Segmentierung von Objekten Video - Inhaltsanalyse 4. Segmentierung von Objekten Video - Inhaltsanalyse Stephan Kopf Inhalt Vorgehensweise Berechnung der Kamerabewegungen zwischen beliebigen Bildern Transformation eines Bildes Hintergrundbilder / Panoramabilder

Mehr

Spezielle Relativität

Spezielle Relativität Spezielle Relativität Gleichzeitigkeit und Bezugssysteme Thomas Schwarz 31. Mai 2007 Inhalt 1 Einführung 2 Raum und Zeit Bezugssysteme 3 Relativitätstheorie Beginn der Entwicklung Relativitätsprinzip Lichtausbreitung

Mehr

V. Claus, Juli 2005 Einführung in die Informatik II 45

V. Claus, Juli 2005 Einführung in die Informatik II 45 Um die Größenordnung einer reellwertigen oder ganzzahligen Funktion zu beschreiben, verwenden wir die so genannten Landau-Symbole (nach dem deutschen Mathematiker Edmund Landau, 1877-1938). Hierbei werden

Mehr

Lineare Funktionen. Aufgabe 1. Sei f R 2 R definiert durch. x 1 + 3x Beweisen Sie ausführlich, dass f linear ist.

Lineare Funktionen. Aufgabe 1. Sei f R 2 R definiert durch. x 1 + 3x Beweisen Sie ausführlich, dass f linear ist. Lineare Funktionen Aufgabe. Sei f R R definiert durch x f = x x + 3x. Beweisen Sie ausführlich, dass f linear ist. Aufgabe. Die Funktionen (nicht erschrecken sind definiert durch + ( (R n R m (R n R m

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Informationstheorie Vera Demberg Universität des Saarlandes 26. Juni 202 Vera Demberg (UdS) Mathe III 26. Juni 202 / 43 Informationstheorie Entropie (H) Wie viel Information

Mehr

~ v 2. Abbildung 3: Zweiter Schritt des Gram-Schmidt-Verfahrens. k 1. i=1. v k = w k

~ v 2. Abbildung 3: Zweiter Schritt des Gram-Schmidt-Verfahrens. k 1. i=1. v k = w k v 1 v 1 v 2 v 2 W 2 -v (v, v ) 1 1 2 Abbildung 3: Zweiter Schritt des Gram-Schmidt-Verfahrens. k. Schritt: Subtraktion der Komponenten von ṽ k in Richtung von v 1,v 2,...,v k 1 und Normierung von w k auf

Mehr

FEM isoparametrisches Konzept

FEM isoparametrisches Konzept FEM isoparametrisches Konzept /home/lehre/vl-mhs-/folien/vorlesung/5_fem_isopara/deckblatt.tex Seite von 25. p./25 Inhaltsverzeichnis. Interpolationsfunktion für die finiten Elemente 2. Finite-Element-Typen

Mehr

Veranschaulichen Sie die de Morgan schen Regeln anhand von Venn-Diagrammen:

Veranschaulichen Sie die de Morgan schen Regeln anhand von Venn-Diagrammen: Formalisierungspropädeutikum Aufgabensammlung Prof. Dr. Th. Augustin, Dr. R. Poellinger, C. Jansen, J. Plaß, G. Schollmeyer Oktober 2016 Aufgabe 1 (de Morgan sche Regeln) Veranschaulichen Sie die de Morgan

Mehr

Veranschaulichen Sie die de Morgan schen Regeln anhand von Venn-Diagrammen:

Veranschaulichen Sie die de Morgan schen Regeln anhand von Venn-Diagrammen: Formalisierungspropädeutikum Aufgabensammlung Prof. Dr. Th. Augustin, Dr. R. Poellinger, C. Jansen, J. Plaß, G. Schollmeyer, C. Didden, A. Omar, P. Schwaferts Oktober 2017 Aufgabe 1 (de Morgan sche Regeln)

Mehr

Prof. Dr. Margarita Esponda

Prof. Dr. Margarita Esponda Analyse von Algorithmen Die O-Notation WS 2012/2013 Prof. Dr. Margarita Esponda Freie Universität Berlin 1 Korrekte und effiziente Lösung von Problemen Problem Wesentlicher Teil der Lösung eines Problems.

Mehr

Population und Stichprobe Wahrscheinlichkeitstheorie II

Population und Stichprobe Wahrscheinlichkeitstheorie II Population und Stichprobe Wahrscheinlichkeitstheorie II 5. Sitzung 1 S. Peter Schmidt 2003 1 Stichprobenziehung als Zufallsexperiment Definition Stichprobe: Teilmenge der Elemente der Grundgesamtheit bzw.

Mehr

M0 BIO - Reaktionszeit

M0 BIO - Reaktionszeit M0 BIO - Reaktionszeit 1 Ziel des Versuches In diesem Versuch haben Sie die Möglichkeit, sich mit Messunsicherheiten vertraut zu machen. Die Analyse von Messunsicherheiten erfolgt hierbei an zwei Beispielen.

Mehr

Einführung in die medizinische Bildverarbeitung SS 2013

Einführung in die medizinische Bildverarbeitung SS 2013 Einführung in die medizinische Bildverarbeitung SS 2013 Stephan Gimbel 1 Kurze Wiederholung Gradienten 1. und 2. Ableitung grad( f ( x, y) ) = f ( x, y) = f ( x, y) x f ( x, y) y 2 f ( x, y) = 2 f ( x,

Mehr

Einführung in die medizinische Bildverarbeitung SS 2013

Einführung in die medizinische Bildverarbeitung SS 2013 Einführung in die medizinische Bildverarbeitung SS 2013 Stephan Gimbel 1 Live-Wire Segmentierung ist ein halbautomatisches Verfahren zur kantenorientierten Segmentierung von einzelnen Bildobjekten es werden

Mehr

Lambacher Schweizer für berufliche Gymnasien.

Lambacher Schweizer für berufliche Gymnasien. e 11 Lambacher Schweizer für berufliche Gymnasien. Lambacher Schweizer Mathematik für berufliche Gymnasien Wirtschaft 11 Stoffverteilungsplan für Klasse 11 In Niedersachsen Stoffverteilungsplan Lambacher

Mehr

Erstellung eines 3D-Atlas ausgewählter Strukturen durch affine Transformation anatomischer Landmarken

Erstellung eines 3D-Atlas ausgewählter Strukturen durch affine Transformation anatomischer Landmarken Kurzfassung der Masterthesis Erstellung eines 3D-Atlas ausgewählter Strukturen durch affine Transformation anatomischer Landmarken M.Sc. Soulimane Abdellaoui 1 Einleitung : In der vorliegenden wird ein

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

STATISTISCHE METHODEN UND IHRE ANWENDUNGEN

STATISTISCHE METHODEN UND IHRE ANWENDUNGEN STATISTISCHE METHODEN UND IHRE ANWENDUNGEN Von Dr. rer. nat. Erwin Kreyszig o. Professor für Statistik an der Universität Karlsruhe mit 82 Abbildungen und zahlreichen Tabellen Vierter, unveränderter Nachdruck

Mehr

Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 1

Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 1 Vorlesung 8b Zweistufige Zufallsexperimente Teil 1 1 Stellen wir uns ein zufälliges Paar X = (X 1, X 2 ) vor, das auf zweistufige Weise zustande kommt: es gibt eine Regel, die besagt, wie X 2 verteilt

Mehr

Y = X + N, wobei die Wahrscheinlichkeitsdichtefunktion des empfangenen Rauschens N wie folgt gegeben ist: n a R + δ(n)dn = 1.

Y = X + N, wobei die Wahrscheinlichkeitsdichtefunktion des empfangenen Rauschens N wie folgt gegeben ist: n a R + δ(n)dn = 1. ..7 Aufgabe 7% %. Nehmen Sie an, dass die ufallsvariable X {,, } mit den jeweiligen Auftrittswahrscheinlichkeiten {.4,.,.4} u ber einen Kanal gesendet wird. Die empfangene ufallsvariable ist: Y X N, wobei

Mehr

Zufallsvariablen. Erwartungswert. Median. Perzentilen

Zufallsvariablen. Erwartungswert. Median. Perzentilen Zufallsvariablen. Erwartungswert. Median. Perzentilen Jörn Loviscach Versionsstand: 22. Januar 2010, 10:46 1 Zufallsvariablen Wenn ein Zufallsexperiment eine Zahl als Ergebnis liefert, nennt man diese

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Prüfung aus Statistik 1 für SoziologInnen

Prüfung aus Statistik 1 für SoziologInnen Prüfung aus Statistik 1 für SoziologInnen 27. Juni 2009 Nachname: Vorname: Matrikelnummer: Studienkennzahl: Beispiel 1: (6 Punkte) a) Wie viel Prozent der Beobachtungen liegen beim Box-Plot außerhalb der

Mehr

Einführung in die medizinische Bildverarbeitung SS 2013

Einführung in die medizinische Bildverarbeitung SS 2013 Einführung in die medizinische Bildverarbeitung SS 213 Stephan Gimbel 1 Kurze Wiederholung Kurven- und oberflächenbasierte Registrierung Rand- und Oberflächen, z.b. durch Meshes repräsentiert Genauigkeit

Mehr

18. Matrizen 2: Gleichungssysteme, Gauß-Algorithmus

18. Matrizen 2: Gleichungssysteme, Gauß-Algorithmus 18. Matrizen 2: Gleichungssysteme, Gauß-Algorithmus Conrad Donau 8. Oktober 2010 Conrad Donau 18. Matrizen 2: Gleichungssysteme, Gauß-Algorithmus 8. Oktober 2010 1 / 7 18.1 Wiederholung: Ebenen in R 3

Mehr

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Übung 7 1 Inhalt der heutigen Übung Statistik und Wahrscheinlichkeitsrechnung Vorrechnen der Hausübung D.9 Gemeinsames Lösen der Übungsaufgaben D.10: Poissonprozess

Mehr

Molekulare Bioinformatik

Molekulare Bioinformatik Molekulare Bioinformatik Wintersemester 2013/2014 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 14.01.2014 1 Molekulare Bioinformatik - Vorlesung 11 Wiederholung Wir

Mehr

Basis eines Vektorraumes

Basis eines Vektorraumes Basis eines Vektorraumes Basisergänzungssatz: Ist U V ein Unterraum von V und dim V = n, so kann jede Menge linear unabhängiger Vektoren aus U zu einer Basis von U erweitert werden Und es gilt: Beweis:

Mehr

Der diskrete Kalman Filter

Der diskrete Kalman Filter Der diskrete Kalman Filter Fachbereich: Informatik Betreuer: Marc Drassler Patrick Winkler 1168954 6. Dezember 2004 Technische Universität Darmstadt Simulation und Systemoptimierung Darmstadt Dribbling

Mehr

Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie

Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie Berichte aus der Informationstechnik Klaus-Dieter Thies Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie für Computernetzwerke

Mehr

2.2 Der Algorithmus von Knuth, Morris und Pratt

2.2 Der Algorithmus von Knuth, Morris und Pratt Suchen in Texten 2.1 Grundlagen Ein Alphabet ist eine endliche Menge von Symbolen. Bsp.: Σ a, b, c,..., z, Σ 0, 1, Σ A, C, G, T. Wörter über Σ sind endliche Folgen von Symbolen aus Σ. Wörter werden manchmal

Mehr

Definition der Entropie unter Verwendung von supp(p XY )

Definition der Entropie unter Verwendung von supp(p XY ) Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion

Mehr

Übersicht der Vorlesung

Übersicht der Vorlesung Übersicht der Vorlesung. Einführung. Bildverarbeitung. Morphologische Operationen 4. Bildsegmentierung 5. Merkmale von Objekten 6. Klassifikation 7. Dreidimensionale Bildinterpretation 8. Bewegungsanalyse

Mehr

(f(xi ) y i ) 2. minimal ist: man will also die Summe der quadratischen Abweichungen minimieren ... f(x i ) y i, i=1 (t x i) 2

(f(xi ) y i ) 2. minimal ist: man will also die Summe der quadratischen Abweichungen minimieren ... f(x i ) y i, i=1 (t x i) 2 Mathematik für Biologen, Biotechnologen und Biochemiker Lineare Regression Gegeben seien Datenpaare (, ), (, ),, ( n, n ) Wir stellen die Frage, ob sich die Zahlen i als Werte einer linearen Funktion i

Mehr

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Einführung in die medizinische Bildverarbeitung WS 12/13

Einführung in die medizinische Bildverarbeitung WS 12/13 Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Mutual Information und Entropie Messung des Informationsgehaltes eines Bildes über den Informationsgehalt kann

Mehr

Klausur Informationstheorie und Codierung

Klausur Informationstheorie und Codierung Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte

Mehr

Mathematik für Naturwissenschaftler I WS 2009/2010

Mathematik für Naturwissenschaftler I WS 2009/2010 Mathematik für Naturwissenschaftler I WS 2009/2010 Lektion 18 8. Januar 2010 Kapitel 5. Funktionen mehrerer Veränderlicher, Stetigkeit und partielle Ableitungen 5.2. Partielle Ableitungen von Funktionen

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009

Mehr

Protokoll Grundpraktikum I: T6 Thermoelement und newtonsches Abkühlungsgesetz

Protokoll Grundpraktikum I: T6 Thermoelement und newtonsches Abkühlungsgesetz Protokoll Grundpraktikum I: T6 Thermoelement und newtonsches Abkühlungsgesetz Sebastian Pfitzner 5. Juni 03 Durchführung: Sebastian Pfitzner (553983), Anna Andrle (55077) Arbeitsplatz: Platz 3 Betreuer:

Mehr

Lösungsvorschläge zu Blatt Nr. 13

Lösungsvorschläge zu Blatt Nr. 13 Institut für Algorithmen und Kognitive Systeme Dr. Jörn Müller-Quade Carmen Kempka Christian Henrich Nico Döttling Vorlesung Informatik III Lösungsvorschläge zu Blatt Nr. Aufgabe (K ( Punkte Gegeben ist

Mehr

Informationstheorie als quantitative Methode in der Dialektometrie

Informationstheorie als quantitative Methode in der Dialektometrie Informationstheorie als quantitative Methode in der Dialektometrie 1 Informationstheorie als quantitative Methode in der Dialektometrie Informationstheorie als quantitative Methode in der Dialektometrie

Mehr

Übungsaufgaben zur Vorlesung Quellencodierung

Übungsaufgaben zur Vorlesung Quellencodierung Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = 1 0.1 0.1 0.1 y 2

Mehr

Information Modellierung Shannon Fano Praxis. Entropie. Ingo Blechschmidt, Michael Hartmann. 15. November 2006

Information Modellierung Shannon Fano Praxis. Entropie. Ingo Blechschmidt, Michael Hartmann. 15. November 2006 Information Modellierung Shannon Fano Praxis Ingo Blechschmidt, Michael Hartmann 15. November 2006 Information Modellierung Shannon Fano Praxis Inhalt 1 Information Definition Informationsebenen 2 Mathematische

Mehr

Heute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung

Heute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung Heute Die Binomialverteilung Poissonverteilung Approximation der Binomialverteilung durch die Normalverteilung Arbeiten mit Wahrscheinlichkeitsverteilungen Die Binomialverteilung Man werfe eine Münze n

Mehr

Klasse Mathematische Inhalte Kompetenzen Zeitvorgaben 5 1. Zahlen und Größen

Klasse Mathematische Inhalte Kompetenzen Zeitvorgaben 5 1. Zahlen und Größen auf der Basis des Kernlehrplans für das Fach an Lehrwerk: Lambacher Schweizer, für Gymnasien 5 1. Zahlen und Größen Darstellen - Strichlisten- Säulendiagramme - Große Zahlen - Größen messen und schätzen

Mehr

Jahrgangscurriculum 11.Jahrgang

Jahrgangscurriculum 11.Jahrgang Jahrgangscurriculum 11.Jahrgang Koordinatengeometrie Geraden (Lage von Geraden; Schnittwinkel) Abstände im KOSY Kreise Kreise und Geraden Parabeln und quadratische Funktionen (Parabel durch 3 Punkte, Anwendungsaufgaben)

Mehr

Messprotokoll: Aufnahme der Quantenzufallszahl

Messprotokoll: Aufnahme der Quantenzufallszahl Messprotokoll: Aufnahme der Quantenzufallszahl Am 19. Juni 2009 wurden für Max Mustermann um 8:35 Uhr mit Hilfe von einzelnen Photonen 993.097 Zufallszahlen generiert. Der Zufallsgenerator steht im Quantenoptiklabor

Mehr

Einführung 15. Teil I Grundlagen der Algebra 21. Kapitel 1 Die bunte Welt der linearen Algebra 23

Einführung 15. Teil I Grundlagen der Algebra 21. Kapitel 1 Die bunte Welt der linearen Algebra 23 Inhaltsverzeichnis Einführung 15 Zu diesem Buch 15 Konventionen in diesem Buch 16 Was Sie nicht lesen müssen 16 Törichte Annahmen über den Leser 16 Wie dieses Buch aufgebaut ist 16 Teil I: Grundlagen der

Mehr

Algorithmen für Sensornetze

Algorithmen für Sensornetze Algorithmen für Sensornetze Markus Völker 02. Februar 2010 Lokalisierung in Gebäuden Lokalisierung Ausgangssituation? Lokalisierung Ziel! Lokalisierung Signalabfall in Gebäuden Signalabfall mit ca. 1/d

Mehr

Erstellung eines anatomischen Templates zur Zielvolumendefinition der Zervixregion für die Bestrahlungsplanung

Erstellung eines anatomischen Templates zur Zielvolumendefinition der Zervixregion für die Bestrahlungsplanung Erstellung eines anatomischen Templates zur Zielvolumendefinition der Zervixregion für die Bestrahlungsplanung Detlef Richter 1, Soulimane Abdellaoui 1,2, Faisel Bekkaoui 1,2 Karsten Berthold 1,2 und Gerd

Mehr

Kommunikationstechnik II Wintersemester 07/08

Kommunikationstechnik II Wintersemester 07/08 Kommunikationstechnik II Wintersemester 07/08 Prof. Dr. Stefan Weinzierl Musterlösung: 5. Aufgabenblatt 1. Aufgabe: Kanalkodierung Zweck der Kanalcodierung: - Abbildung der information bits des Quellkodes

Mehr

Simulation von Brownscher Dynamik und Assoziationsraten von PP-Komplexen. Alexander Baldauf Montag

Simulation von Brownscher Dynamik und Assoziationsraten von PP-Komplexen. Alexander Baldauf Montag Simulation von Brownscher Dynamik und Assoziationsraten von PP-Komplexen Alexander Baldauf Montag 25.04.2005 Motivation Typen von Interaktionen Verschiedene Methoden zur Vorhersage Wie kommen die beiden

Mehr

Einführung 17. Teil I Zu den Grundlagen der linearen Algebra 21. Kapitel 1 Schnelleinstieg in die lineare Algebra 23

Einführung 17. Teil I Zu den Grundlagen der linearen Algebra 21. Kapitel 1 Schnelleinstieg in die lineare Algebra 23 Inhaltsverzeichnis Einführung 17 Zu diesem Buch 17 Konventionen in diesem Buch 17 Törichte Annahmen über den Leser 17 Wie dieses Buch aufgebaut ist 18 Teil I: Zu den Grundlagen der linearen Algebra 18

Mehr

Sachrechnen/Größen WS 14/15-

Sachrechnen/Größen WS 14/15- Kapitel Daten & Wahrscheinlichkeit 3.1 Kombinatorische Grundlagen 3.2 Kombinatorik & Wahrscheinlichkeit in der Grundschule 3.3 Daten Darstellen 3.1 Kombinatorische Grundlagen Verschiedene Bereiche der

Mehr

Autofokus für das MONET-Teleskop. Projektwoche 2013 im Pascal-Gymnasium Münster AiM-Projektgruppe

Autofokus für das MONET-Teleskop. Projektwoche 2013 im Pascal-Gymnasium Münster AiM-Projektgruppe Autofokus für das MONET-Teleskop Projektwoche 2013 im Pascal-Gymnasium Münster AiM-Projektgruppe Einführung Wir gehen davon aus, dass ein Bild mit einem kleinen mittleren Sternendurchmesser eher für eine

Mehr

Curriculum Mathematik Oberstufe der Gesamtschule Eiserfeld

Curriculum Mathematik Oberstufe der Gesamtschule Eiserfeld Curriculum Mathematik Oberstufe der Gesamtschule Eiserfeld 11.1 11.2 Unterrichtsvorhaben: Funktionen Unterrichtsvorhaben: Differenzialrechnung 1) Lineare und exponentielle Wachstumsprozesse a) Modellieren

Mehr

Jahrgangsstufe Koordinatengeometrie 2. Analysis 3. Beschreibende Statistik ( in Projektwochen)

Jahrgangsstufe Koordinatengeometrie 2. Analysis 3. Beschreibende Statistik ( in Projektwochen) Jahrgangsstufe 11 1. Koordinatengeometrie Geraden und Geradengleichungen ( Steigungswinkel, Parallelität, Orthogonale, Schnittpunkt zweier Geraden) Parabeln und quadratische Funktionen Lagebeziehungen

Mehr

1. Einleitung. 2. Zur Person

1. Einleitung. 2. Zur Person Moritz Schlick: Naturgesetze und Kausalität Seminar über philosophische Aspekte in der Physik WS 2007/08 Seminarleitung: Prof. Dr. G. Münster Dr. C. Suhm Vortragender: Johannes Greber 13. 11. 2007 1. Einleitung

Mehr

Referat zum Thema Huffman-Codes

Referat zum Thema Huffman-Codes Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung

Mehr

Physikprotokoll: Fehlerrechnung. Martin Henning / Torben Zech / Abdurrahman Namdar / Juni 2006

Physikprotokoll: Fehlerrechnung. Martin Henning / Torben Zech / Abdurrahman Namdar / Juni 2006 Physikprotokoll: Fehlerrechnung Martin Henning / 736150 Torben Zech / 7388450 Abdurrahman Namdar / 739068 1. Juni 2006 1 Inhaltsverzeichnis 1 Einleitung 3 2 Vorbereitungen 3 3 Messungen und Auswertungen

Mehr

Kapitel 5: Entscheidung unter Unsicherheit

Kapitel 5: Entscheidung unter Unsicherheit Kapitel 5: Entscheidung unter Unsicherheit Hauptidee: Die Konsequenzen einer Entscheidung sind oft unsicher. Wenn jeder möglichen Konsequenz eine Wahrscheinlichkeit zugeordnet wird, dann kann eine rationale

Mehr

Stoffverteilungsplan Mathematik im Jahrgang 9

Stoffverteilungsplan Mathematik im Jahrgang 9 Überprüfung und Bewertung von Problembearbeitungen Problemlösungsstrategien (Funktionsplotter) Arithmetik / Algebra Operieren Lösen einfacher quadratischer (z.b. durch Faktorisieren oder pq-formel) Verwendung

Mehr

Mathematische Ergänzungen zur Einführung in die Physik. Dritte, überarbeitete und ergänzte Auflage. H. J. Korsch

Mathematische Ergänzungen zur Einführung in die Physik. Dritte, überarbeitete und ergänzte Auflage. H. J. Korsch Mathematische Ergänzungen zur Einführung in die Physik Dritte, überarbeitete und ergänzte Auflage H. J. Korsch Fachbereich Physik, Universität Kaiserslautern 3. Februar 2004 ULB Darmstadt iiniiiiiiiiiiiii

Mehr

Kern- und Schulcurriculum Mathematik Klasse 11/12. Stand Schuljahr 2012/13

Kern- und Schulcurriculum Mathematik Klasse 11/12. Stand Schuljahr 2012/13 Kern- und Schulcurriculum Mathematik Klasse 11/12 Stand Schuljahr 2012/13 UE 1 Wiederholung Funktionen Änderungsrate Ableitung Ableitung berechnen Ableitungsfunktion Ableitungsregeln für Potenz, Summe

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009

Mehr

Statistik für Ingenieure und Naturwissenschaftler

Statistik für Ingenieure und Naturwissenschaftler Sheldon M. Ross Statistik für Ingenieure und Naturwissenschaftler 3. Auflage Aus dem Amerikanischen übersetzt von Carsten Heinisch ELSEVIER SPEKTRUM AKADEMISCHER VERLAG Spektrum Inhalt Vorwort zur dritten

Mehr

p k (1 p) n k s k = (1 p + ps) n. k p(1 p) k 1 s k ((1 p)s) k 1 =

p k (1 p) n k s k = (1 p + ps) n. k p(1 p) k 1 s k ((1 p)s) k 1 = Binomialverteilung Für X Bin(n, p) gilt nach der binomischen Formel G X (s) = E[s X ] = n ( ) n p k (1 p) n k s k = (1 p + ps) n. k Geometrische Verteilung Sei X eine geometrisch verteilte Zufallsvariable

Mehr