Einführung in die medizinische Bildverarbeitung WS 12/13
|
|
- Gotthilf Rothbauer
- vor 7 Jahren
- Abrufe
Transkript
1 Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel
2 Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von Strukturen durch Marker zur Anpassung der Koordinatensysteme meist parametrische Transformation (i.d.r. starr oder affin) Optimierung Bestimmung der Transformationsparameter Datensätze möglichst optimal zueinander ausgerichtet Kriterium z.b. die mittlere quadratische Euklidische Distanz Lösung des Gleichungssystems z.b. über Gauß sche Methode der kleinsten Fehlerquadrate Joint Histogramm zwei Bilder A und B Auftragen der Wahrscheinlichkeiten p(x,y) in den Koordinaten (x,y) zeigt gemeinsames Auftreten der Grauwerte gemeinsame Strukturen zeigen sich als Punktwolke im Diagramm
3 Kurze Wiederholung Kurven- und oberflächenbasierte Rand- und Oberflächen, z.b. durch Meshes repräsentiert Genauigkeit hängt von der Genauigkeit der Segmentierungsergebnisse ab ICP-Algorithmus Eingabe: zwei Oberflächen A und B Ausgabe: an B angepasste Oberfläche A verwendet Punktkorrespondenzen zwischen den Oberflächen iterative Annäherung über Berechnung einer Transformation Konturbasierte Abbildung zweier korrespondierender Konturpunkt in zwei Datensätzen Aussenkonturen aus Atlas wird in den Patientendatensatz eingeblendet iterative Annäherung Exkursion Wahrscheinlichkeit Definition P(A) = N(A) / N Beispiele: Coin-Toss & Würfel
4 Mutual Information und Entropie Messung des Informationsgehaltes unabhängig vom Verfahren und damit verbundenen Bildmaterial über Informationsgehalt eines Bildes kann dessen Ähnlichkeit zu einem zweiten Bild festgestellt werden Exkursion in die Informationstheorie bereits 1928 beschäftigte sich Hartley mit dem Informationsgehalt von Nachrichten Idee: mit möglichst wenigen Symbolen eine maximale und fehlerfreie Informationskodierung erzielen (Kapazität der Datenkanäle bei der Übertragung) Entropie ist das Maß, die benötigte Bandbreite zu bestimmen ein syntaxfreier String mit n Zeichen und m Zuständen ergibt die Möglichkeit n m verschiedene Strings zu bilden maximal mögliche Strings steigt exponentiell mit der Erhöhung von n
5 Ziele: um lineares Wachstum zu erreichen: H = Kn, mit K = Konstante in Abhängigkeit von m Gleichheit der Informationsmasse von zwei Strings n 1 und n 2 gleicher Länge mit möglichen Symbolen m 1 und m 2, so dass n 1 m1 = n 2 m2 H H = m log n = log n m Informationsgehalt des Strings wächst mit der Anzahl der maximalen Möglichkeiten Unsicherheit (Umstand der Vorhersage eines Ereignisses) mit der ein bestimmter String auftritt, kann gemessen werden Ein Symbol welches immer nur eine Ausprägung annehmen kann hat dabei die Unsicherheit 0 (log 1 = 0) Problem: Annahme dass alle Symbole mit der gleichen Häufigkeit auftreten, was nicht der Realität entspricht (siehe Wörter/Alphabet)
6 Lösung: Shannon hat eine Gewichtung des Auftretens eingeführt betrachtet wird die Summe über die Symbole, die den Informationsgehalt in Abhängigkeit von ihrer Auftrittswahrscheinlichkeit summiert H S = p i log 1 p i = p i log p i Bezug zu Hartley (gleiche Auftrittswahrscheinlichkeit aller Symbole 1/n m ) H = i i 1 n log 1 m n = 1 m n m lognm = logn m Shannon Entropie besagt, dass der Informationsgehalt maximal wird, wenn alle Symbole mit der gleichen Wahrscheinlichkeit auftreten man kann nicht sagen welches Symbol als nächstes auftritt bei großen Unterschieden ist die Erwartungshaltung bestimmter Symbole höher als von anderen da die Erwartungshaltung meistens erfüllt wird führen seltenere Ereignisse (höhere Aussagekraft) nicht zu höherer Entropie
7 Mutual Information Bilder sind eine Aneinanderreihung von Punkten Pixelstring bei vorheriger Bestimmung der Grauwerte und zählen des Auftretens jedes Wertes, kann nach Shannon der Informationsgehalt des Bildes bestimmt werden die Entropie beschreibt also den Informationsgehalt einer Nachricht (Bild) unter Einbeziehung der Häufigkeit des Auftretens eines Symbols und deren Verteilung Markov Random Fields Beispiel
Einführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von
MehrEinführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Prozess einer räumliche Transformation zu finden um ein Bild auf ein anderes Bild abzubilden Eingabe: Fixed und
MehrEinführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Pipeline Pipelinestufen können sich unterscheiden, beinhalten aber i.d.r. eine Stufe zur Bildvorverarbeitung zur
MehrGrundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1
Informationsgehalt Kapitel 4.1 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916) Quelle Sender
MehrKapitel 9: Informationstheorie. 2. Entropie
ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE
MehrSeite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines
Seite 1 Georg-August-Universität Göttingen Robert Schaback Zum Begriff der Information in Mathematik und Informatik Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A)
MehrIGDT: Image Processing Advanced Teil 9
Teil 9 Rainer Schubert Institut für Biomedizinische Bildanalyse Inhalt Teil 9 Registrierung Grauwert-basierte / Intensity-based Methoden Klassifikation von Registrierungsmethoden 1 Viele Klassifikationskriterien
MehrMolekulare Bioinformatik
Molekulare Bioinformatik Wintersemester 203/204 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 07.0.204 Molekulare Bioinformatik - Vorlesung 0 Wiederhohlung Die Entropie
MehrMathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1
Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:
MehrProf. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert.
Audiotechnik II Digitale Audiotechnik: 8. Tutorium Prof. Dr. Stefan Weinzierl 9.2.23 Musterlösung: 9. Dezember 23, 8:34 Fehlerkorrektur II Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit
MehrEntropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.
Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
MehrBei der Registrierung werden zwei Bilder betrachtet, von denen eines üblicherweise als Referenzbild
3.4 egistrierung 3.4 egistrierung In diesem Abschnitt beschäftigen wir uns mit dem Problem der egistrierung von Bildern, d.h. der Aufgabe zwei Bilder derselben Szene, oder zumindest ähnlicher Szenen, bestmöglich
MehrP (X = 2) = 1/36, P (X = 3) = 2/36,...
2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel
MehrEinführung in die Medizinische Informatik
Einführung in die Medizinische Informatik 1 M + I MI (Wiederholung) 2 Information, Informationsgehalt, Entscheidung Reinhold Haux, Christopher Duwenkamp, Nathalie Gusew Institut für Medizinische Informatik
MehrOptimalcodierung. Thema: Optimalcodierung. Ziele
Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.
MehrMit Skalarprodukt und Vektorprodukt lässt sich ein weiteres, kombiniertes Produkt, das Spatprodukt
Mit Skalarprodukt und Vektorprodukt lässt sich ein weiteres, kombiniertes Produkt, das Spatprodukt a ( b c) bilden. Aus der geometrischen Interpretation von Skalarprodukt und Vektorprodukt ist sofort ersichtlich,
MehrComputergrafik 2: Übung 2. Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung
Computergrafik 2: Übung 2 Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung Inhalt Besprechung von Übung 1 Subsampling und Moiré Effekte Color Maps Histogrammlinearisierung Computergrafik
MehrUnsicherheit * M RS = 6
Informationstheorie Gegenstand Unsicherheit Überraschung Entropie Relative und maximale Entropie, Redundanz Konditionale Entropie und Verbundentropie Wechselseitige ("Mutual") Information Gegenstand Kodierung,
Mehr1 Messfehler. 1.1 Systematischer Fehler. 1.2 Statistische Fehler
1 Messfehler Jede Messung ist ungenau, hat einen Fehler. Wenn Sie zum Beispiel die Schwingungsdauer eines Pendels messen, werden Sie - trotz gleicher experimenteller Anordnungen - unterschiedliche Messwerte
MehrSignale und Codes Vorlesung 4
Signale und Codes Vorlesung 4 Nico Döttling December 6, 2013 1 / 18 2 / 18 Letztes Mal Allgemeine Hamming Codes als Beispiel linearer Codes Hamming Schranke: Obere Schranke für k bei gegebenem d bzw. für
MehrMusterlösung: 11. Dezember 2014, 10:43. Informationstheorie und Entropiekodierung
Audiotechnik II Digitale Audiotechnik: 8. Übung Prof. Dr. Stefan Weinzierl 11.12.2014 Musterlösung: 11. Dezember 2014, 10:43 Informationstheorie und Entropiekodierung Bei der Entropiekodierung werden die
MehrInformationstheorie und Codierung
Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice
MehrSplitting. Impurity. c 1. c 2. c 3. c 4
Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision
MehrRecommender Systeme mit Collaborative Filtering
Fakultät für Informatik Technische Universität München Email: rene.romen@tum.de 6. Juni 2017 Recommender Systeme Definition Ziel eines Recommender Systems ist es Benutzern Items vorzuschlagen die diesem
MehrLambacher Schweizer für berufliche Gymnasien.
e 11 Lambacher Schweizer für berufliche Gymnasien. Lambacher Schweizer Mathematik für berufliche Gymnasien Wirtschaft 11 Stoffverteilungsplan für Klasse 11 in Nordrhein-Westfalen Stoffverteilungsplan Lambacher
Mehr3. Das Reinforcement Lernproblem
3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität
MehrVisual Servoing using Mutual Information
Visual Servoing using Mutual Information Christian Rupprecht Robotics and Embedded Systems Technische Universität München Outline 1 Visual Servoing Was ist Visual Servoing? Typische Lösungsansätze 2 Mutual
MehrWS 2009/10. Diskrete Strukturen
WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910
Mehr4. Segmentierung von Objekten Video - Inhaltsanalyse
4. Segmentierung von Objekten Video - Inhaltsanalyse Stephan Kopf Inhalt Vorgehensweise Berechnung der Kamerabewegungen zwischen beliebigen Bildern Transformation eines Bildes Hintergrundbilder / Panoramabilder
MehrSpezielle Relativität
Spezielle Relativität Gleichzeitigkeit und Bezugssysteme Thomas Schwarz 31. Mai 2007 Inhalt 1 Einführung 2 Raum und Zeit Bezugssysteme 3 Relativitätstheorie Beginn der Entwicklung Relativitätsprinzip Lichtausbreitung
MehrV. Claus, Juli 2005 Einführung in die Informatik II 45
Um die Größenordnung einer reellwertigen oder ganzzahligen Funktion zu beschreiben, verwenden wir die so genannten Landau-Symbole (nach dem deutschen Mathematiker Edmund Landau, 1877-1938). Hierbei werden
MehrLineare Funktionen. Aufgabe 1. Sei f R 2 R definiert durch. x 1 + 3x Beweisen Sie ausführlich, dass f linear ist.
Lineare Funktionen Aufgabe. Sei f R R definiert durch x f = x x + 3x. Beweisen Sie ausführlich, dass f linear ist. Aufgabe. Die Funktionen (nicht erschrecken sind definiert durch + ( (R n R m (R n R m
MehrMathematische Grundlagen III
Mathematische Grundlagen III Informationstheorie Vera Demberg Universität des Saarlandes 26. Juni 202 Vera Demberg (UdS) Mathe III 26. Juni 202 / 43 Informationstheorie Entropie (H) Wie viel Information
Mehr~ v 2. Abbildung 3: Zweiter Schritt des Gram-Schmidt-Verfahrens. k 1. i=1. v k = w k
v 1 v 1 v 2 v 2 W 2 -v (v, v ) 1 1 2 Abbildung 3: Zweiter Schritt des Gram-Schmidt-Verfahrens. k. Schritt: Subtraktion der Komponenten von ṽ k in Richtung von v 1,v 2,...,v k 1 und Normierung von w k auf
MehrFEM isoparametrisches Konzept
FEM isoparametrisches Konzept /home/lehre/vl-mhs-/folien/vorlesung/5_fem_isopara/deckblatt.tex Seite von 25. p./25 Inhaltsverzeichnis. Interpolationsfunktion für die finiten Elemente 2. Finite-Element-Typen
MehrVeranschaulichen Sie die de Morgan schen Regeln anhand von Venn-Diagrammen:
Formalisierungspropädeutikum Aufgabensammlung Prof. Dr. Th. Augustin, Dr. R. Poellinger, C. Jansen, J. Plaß, G. Schollmeyer Oktober 2016 Aufgabe 1 (de Morgan sche Regeln) Veranschaulichen Sie die de Morgan
MehrVeranschaulichen Sie die de Morgan schen Regeln anhand von Venn-Diagrammen:
Formalisierungspropädeutikum Aufgabensammlung Prof. Dr. Th. Augustin, Dr. R. Poellinger, C. Jansen, J. Plaß, G. Schollmeyer, C. Didden, A. Omar, P. Schwaferts Oktober 2017 Aufgabe 1 (de Morgan sche Regeln)
MehrProf. Dr. Margarita Esponda
Analyse von Algorithmen Die O-Notation WS 2012/2013 Prof. Dr. Margarita Esponda Freie Universität Berlin 1 Korrekte und effiziente Lösung von Problemen Problem Wesentlicher Teil der Lösung eines Problems.
MehrPopulation und Stichprobe Wahrscheinlichkeitstheorie II
Population und Stichprobe Wahrscheinlichkeitstheorie II 5. Sitzung 1 S. Peter Schmidt 2003 1 Stichprobenziehung als Zufallsexperiment Definition Stichprobe: Teilmenge der Elemente der Grundgesamtheit bzw.
MehrM0 BIO - Reaktionszeit
M0 BIO - Reaktionszeit 1 Ziel des Versuches In diesem Versuch haben Sie die Möglichkeit, sich mit Messunsicherheiten vertraut zu machen. Die Analyse von Messunsicherheiten erfolgt hierbei an zwei Beispielen.
MehrEinführung in die medizinische Bildverarbeitung SS 2013
Einführung in die medizinische Bildverarbeitung SS 2013 Stephan Gimbel 1 Kurze Wiederholung Gradienten 1. und 2. Ableitung grad( f ( x, y) ) = f ( x, y) = f ( x, y) x f ( x, y) y 2 f ( x, y) = 2 f ( x,
MehrEinführung in die medizinische Bildverarbeitung SS 2013
Einführung in die medizinische Bildverarbeitung SS 2013 Stephan Gimbel 1 Live-Wire Segmentierung ist ein halbautomatisches Verfahren zur kantenorientierten Segmentierung von einzelnen Bildobjekten es werden
MehrLambacher Schweizer für berufliche Gymnasien.
e 11 Lambacher Schweizer für berufliche Gymnasien. Lambacher Schweizer Mathematik für berufliche Gymnasien Wirtschaft 11 Stoffverteilungsplan für Klasse 11 In Niedersachsen Stoffverteilungsplan Lambacher
MehrErstellung eines 3D-Atlas ausgewählter Strukturen durch affine Transformation anatomischer Landmarken
Kurzfassung der Masterthesis Erstellung eines 3D-Atlas ausgewählter Strukturen durch affine Transformation anatomischer Landmarken M.Sc. Soulimane Abdellaoui 1 Einleitung : In der vorliegenden wird ein
MehrMathematische und statistische Methoden II
Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike
MehrSTATISTISCHE METHODEN UND IHRE ANWENDUNGEN
STATISTISCHE METHODEN UND IHRE ANWENDUNGEN Von Dr. rer. nat. Erwin Kreyszig o. Professor für Statistik an der Universität Karlsruhe mit 82 Abbildungen und zahlreichen Tabellen Vierter, unveränderter Nachdruck
MehrVorlesung 8b. Zweistufige Zufallsexperimente. Teil 1
Vorlesung 8b Zweistufige Zufallsexperimente Teil 1 1 Stellen wir uns ein zufälliges Paar X = (X 1, X 2 ) vor, das auf zweistufige Weise zustande kommt: es gibt eine Regel, die besagt, wie X 2 verteilt
MehrY = X + N, wobei die Wahrscheinlichkeitsdichtefunktion des empfangenen Rauschens N wie folgt gegeben ist: n a R + δ(n)dn = 1.
..7 Aufgabe 7% %. Nehmen Sie an, dass die ufallsvariable X {,, } mit den jeweiligen Auftrittswahrscheinlichkeiten {.4,.,.4} u ber einen Kanal gesendet wird. Die empfangene ufallsvariable ist: Y X N, wobei
MehrZufallsvariablen. Erwartungswert. Median. Perzentilen
Zufallsvariablen. Erwartungswert. Median. Perzentilen Jörn Loviscach Versionsstand: 22. Januar 2010, 10:46 1 Zufallsvariablen Wenn ein Zufallsexperiment eine Zahl als Ergebnis liefert, nennt man diese
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Begriffe Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Definition: Unter einem Zufallsexperiment versteht man einen,
MehrPrüfung aus Statistik 1 für SoziologInnen
Prüfung aus Statistik 1 für SoziologInnen 27. Juni 2009 Nachname: Vorname: Matrikelnummer: Studienkennzahl: Beispiel 1: (6 Punkte) a) Wie viel Prozent der Beobachtungen liegen beim Box-Plot außerhalb der
MehrEinführung in die medizinische Bildverarbeitung SS 2013
Einführung in die medizinische Bildverarbeitung SS 213 Stephan Gimbel 1 Kurze Wiederholung Kurven- und oberflächenbasierte Registrierung Rand- und Oberflächen, z.b. durch Meshes repräsentiert Genauigkeit
Mehr18. Matrizen 2: Gleichungssysteme, Gauß-Algorithmus
18. Matrizen 2: Gleichungssysteme, Gauß-Algorithmus Conrad Donau 8. Oktober 2010 Conrad Donau 18. Matrizen 2: Gleichungssysteme, Gauß-Algorithmus 8. Oktober 2010 1 / 7 18.1 Wiederholung: Ebenen in R 3
MehrProgramm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung
Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Übung 7 1 Inhalt der heutigen Übung Statistik und Wahrscheinlichkeitsrechnung Vorrechnen der Hausübung D.9 Gemeinsames Lösen der Übungsaufgaben D.10: Poissonprozess
MehrMolekulare Bioinformatik
Molekulare Bioinformatik Wintersemester 2013/2014 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 14.01.2014 1 Molekulare Bioinformatik - Vorlesung 11 Wiederholung Wir
MehrBasis eines Vektorraumes
Basis eines Vektorraumes Basisergänzungssatz: Ist U V ein Unterraum von V und dim V = n, so kann jede Menge linear unabhängiger Vektoren aus U zu einer Basis von U erweitert werden Und es gilt: Beweis:
MehrDer diskrete Kalman Filter
Der diskrete Kalman Filter Fachbereich: Informatik Betreuer: Marc Drassler Patrick Winkler 1168954 6. Dezember 2004 Technische Universität Darmstadt Simulation und Systemoptimierung Darmstadt Dribbling
MehrElementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie
Berichte aus der Informationstechnik Klaus-Dieter Thies Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie für Computernetzwerke
Mehr2.2 Der Algorithmus von Knuth, Morris und Pratt
Suchen in Texten 2.1 Grundlagen Ein Alphabet ist eine endliche Menge von Symbolen. Bsp.: Σ a, b, c,..., z, Σ 0, 1, Σ A, C, G, T. Wörter über Σ sind endliche Folgen von Symbolen aus Σ. Wörter werden manchmal
MehrDefinition der Entropie unter Verwendung von supp(p XY )
Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion
MehrÜbersicht der Vorlesung
Übersicht der Vorlesung. Einführung. Bildverarbeitung. Morphologische Operationen 4. Bildsegmentierung 5. Merkmale von Objekten 6. Klassifikation 7. Dreidimensionale Bildinterpretation 8. Bewegungsanalyse
Mehr(f(xi ) y i ) 2. minimal ist: man will also die Summe der quadratischen Abweichungen minimieren ... f(x i ) y i, i=1 (t x i) 2
Mathematik für Biologen, Biotechnologen und Biochemiker Lineare Regression Gegeben seien Datenpaare (, ), (, ),, ( n, n ) Wir stellen die Frage, ob sich die Zahlen i als Werte einer linearen Funktion i
MehrEinführung in die Informatik II Aus der Informationstheorie: Datenkompression
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
MehrEinführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Mutual Information und Entropie Messung des Informationsgehaltes eines Bildes über den Informationsgehalt kann
MehrKlausur Informationstheorie und Codierung
Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte
MehrMathematik für Naturwissenschaftler I WS 2009/2010
Mathematik für Naturwissenschaftler I WS 2009/2010 Lektion 18 8. Januar 2010 Kapitel 5. Funktionen mehrerer Veränderlicher, Stetigkeit und partielle Ableitungen 5.2. Partielle Ableitungen von Funktionen
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009
MehrProtokoll Grundpraktikum I: T6 Thermoelement und newtonsches Abkühlungsgesetz
Protokoll Grundpraktikum I: T6 Thermoelement und newtonsches Abkühlungsgesetz Sebastian Pfitzner 5. Juni 03 Durchführung: Sebastian Pfitzner (553983), Anna Andrle (55077) Arbeitsplatz: Platz 3 Betreuer:
MehrLösungsvorschläge zu Blatt Nr. 13
Institut für Algorithmen und Kognitive Systeme Dr. Jörn Müller-Quade Carmen Kempka Christian Henrich Nico Döttling Vorlesung Informatik III Lösungsvorschläge zu Blatt Nr. Aufgabe (K ( Punkte Gegeben ist
MehrInformationstheorie als quantitative Methode in der Dialektometrie
Informationstheorie als quantitative Methode in der Dialektometrie 1 Informationstheorie als quantitative Methode in der Dialektometrie Informationstheorie als quantitative Methode in der Dialektometrie
MehrÜbungsaufgaben zur Vorlesung Quellencodierung
Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = 1 0.1 0.1 0.1 y 2
MehrInformation Modellierung Shannon Fano Praxis. Entropie. Ingo Blechschmidt, Michael Hartmann. 15. November 2006
Information Modellierung Shannon Fano Praxis Ingo Blechschmidt, Michael Hartmann 15. November 2006 Information Modellierung Shannon Fano Praxis Inhalt 1 Information Definition Informationsebenen 2 Mathematische
MehrHeute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung
Heute Die Binomialverteilung Poissonverteilung Approximation der Binomialverteilung durch die Normalverteilung Arbeiten mit Wahrscheinlichkeitsverteilungen Die Binomialverteilung Man werfe eine Münze n
MehrKlasse Mathematische Inhalte Kompetenzen Zeitvorgaben 5 1. Zahlen und Größen
auf der Basis des Kernlehrplans für das Fach an Lehrwerk: Lambacher Schweizer, für Gymnasien 5 1. Zahlen und Größen Darstellen - Strichlisten- Säulendiagramme - Große Zahlen - Größen messen und schätzen
MehrJahrgangscurriculum 11.Jahrgang
Jahrgangscurriculum 11.Jahrgang Koordinatengeometrie Geraden (Lage von Geraden; Schnittwinkel) Abstände im KOSY Kreise Kreise und Geraden Parabeln und quadratische Funktionen (Parabel durch 3 Punkte, Anwendungsaufgaben)
MehrMessprotokoll: Aufnahme der Quantenzufallszahl
Messprotokoll: Aufnahme der Quantenzufallszahl Am 19. Juni 2009 wurden für Max Mustermann um 8:35 Uhr mit Hilfe von einzelnen Photonen 993.097 Zufallszahlen generiert. Der Zufallsgenerator steht im Quantenoptiklabor
MehrEinführung 15. Teil I Grundlagen der Algebra 21. Kapitel 1 Die bunte Welt der linearen Algebra 23
Inhaltsverzeichnis Einführung 15 Zu diesem Buch 15 Konventionen in diesem Buch 16 Was Sie nicht lesen müssen 16 Törichte Annahmen über den Leser 16 Wie dieses Buch aufgebaut ist 16 Teil I: Grundlagen der
MehrAlgorithmen für Sensornetze
Algorithmen für Sensornetze Markus Völker 02. Februar 2010 Lokalisierung in Gebäuden Lokalisierung Ausgangssituation? Lokalisierung Ziel! Lokalisierung Signalabfall in Gebäuden Signalabfall mit ca. 1/d
MehrErstellung eines anatomischen Templates zur Zielvolumendefinition der Zervixregion für die Bestrahlungsplanung
Erstellung eines anatomischen Templates zur Zielvolumendefinition der Zervixregion für die Bestrahlungsplanung Detlef Richter 1, Soulimane Abdellaoui 1,2, Faisel Bekkaoui 1,2 Karsten Berthold 1,2 und Gerd
MehrKommunikationstechnik II Wintersemester 07/08
Kommunikationstechnik II Wintersemester 07/08 Prof. Dr. Stefan Weinzierl Musterlösung: 5. Aufgabenblatt 1. Aufgabe: Kanalkodierung Zweck der Kanalcodierung: - Abbildung der information bits des Quellkodes
MehrSimulation von Brownscher Dynamik und Assoziationsraten von PP-Komplexen. Alexander Baldauf Montag
Simulation von Brownscher Dynamik und Assoziationsraten von PP-Komplexen Alexander Baldauf Montag 25.04.2005 Motivation Typen von Interaktionen Verschiedene Methoden zur Vorhersage Wie kommen die beiden
MehrEinführung 17. Teil I Zu den Grundlagen der linearen Algebra 21. Kapitel 1 Schnelleinstieg in die lineare Algebra 23
Inhaltsverzeichnis Einführung 17 Zu diesem Buch 17 Konventionen in diesem Buch 17 Törichte Annahmen über den Leser 17 Wie dieses Buch aufgebaut ist 18 Teil I: Zu den Grundlagen der linearen Algebra 18
MehrSachrechnen/Größen WS 14/15-
Kapitel Daten & Wahrscheinlichkeit 3.1 Kombinatorische Grundlagen 3.2 Kombinatorik & Wahrscheinlichkeit in der Grundschule 3.3 Daten Darstellen 3.1 Kombinatorische Grundlagen Verschiedene Bereiche der
MehrAutofokus für das MONET-Teleskop. Projektwoche 2013 im Pascal-Gymnasium Münster AiM-Projektgruppe
Autofokus für das MONET-Teleskop Projektwoche 2013 im Pascal-Gymnasium Münster AiM-Projektgruppe Einführung Wir gehen davon aus, dass ein Bild mit einem kleinen mittleren Sternendurchmesser eher für eine
MehrCurriculum Mathematik Oberstufe der Gesamtschule Eiserfeld
Curriculum Mathematik Oberstufe der Gesamtschule Eiserfeld 11.1 11.2 Unterrichtsvorhaben: Funktionen Unterrichtsvorhaben: Differenzialrechnung 1) Lineare und exponentielle Wachstumsprozesse a) Modellieren
MehrJahrgangsstufe Koordinatengeometrie 2. Analysis 3. Beschreibende Statistik ( in Projektwochen)
Jahrgangsstufe 11 1. Koordinatengeometrie Geraden und Geradengleichungen ( Steigungswinkel, Parallelität, Orthogonale, Schnittpunkt zweier Geraden) Parabeln und quadratische Funktionen Lagebeziehungen
Mehr1. Einleitung. 2. Zur Person
Moritz Schlick: Naturgesetze und Kausalität Seminar über philosophische Aspekte in der Physik WS 2007/08 Seminarleitung: Prof. Dr. G. Münster Dr. C. Suhm Vortragender: Johannes Greber 13. 11. 2007 1. Einleitung
MehrReferat zum Thema Huffman-Codes
Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung
MehrPhysikprotokoll: Fehlerrechnung. Martin Henning / Torben Zech / Abdurrahman Namdar / Juni 2006
Physikprotokoll: Fehlerrechnung Martin Henning / 736150 Torben Zech / 7388450 Abdurrahman Namdar / 739068 1. Juni 2006 1 Inhaltsverzeichnis 1 Einleitung 3 2 Vorbereitungen 3 3 Messungen und Auswertungen
MehrKapitel 5: Entscheidung unter Unsicherheit
Kapitel 5: Entscheidung unter Unsicherheit Hauptidee: Die Konsequenzen einer Entscheidung sind oft unsicher. Wenn jeder möglichen Konsequenz eine Wahrscheinlichkeit zugeordnet wird, dann kann eine rationale
MehrStoffverteilungsplan Mathematik im Jahrgang 9
Überprüfung und Bewertung von Problembearbeitungen Problemlösungsstrategien (Funktionsplotter) Arithmetik / Algebra Operieren Lösen einfacher quadratischer (z.b. durch Faktorisieren oder pq-formel) Verwendung
MehrMathematische Ergänzungen zur Einführung in die Physik. Dritte, überarbeitete und ergänzte Auflage. H. J. Korsch
Mathematische Ergänzungen zur Einführung in die Physik Dritte, überarbeitete und ergänzte Auflage H. J. Korsch Fachbereich Physik, Universität Kaiserslautern 3. Februar 2004 ULB Darmstadt iiniiiiiiiiiiiii
MehrKern- und Schulcurriculum Mathematik Klasse 11/12. Stand Schuljahr 2012/13
Kern- und Schulcurriculum Mathematik Klasse 11/12 Stand Schuljahr 2012/13 UE 1 Wiederholung Funktionen Änderungsrate Ableitung Ableitung berechnen Ableitungsfunktion Ableitungsregeln für Potenz, Summe
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009
MehrStatistik für Ingenieure und Naturwissenschaftler
Sheldon M. Ross Statistik für Ingenieure und Naturwissenschaftler 3. Auflage Aus dem Amerikanischen übersetzt von Carsten Heinisch ELSEVIER SPEKTRUM AKADEMISCHER VERLAG Spektrum Inhalt Vorwort zur dritten
Mehrp k (1 p) n k s k = (1 p + ps) n. k p(1 p) k 1 s k ((1 p)s) k 1 =
Binomialverteilung Für X Bin(n, p) gilt nach der binomischen Formel G X (s) = E[s X ] = n ( ) n p k (1 p) n k s k = (1 p + ps) n. k Geometrische Verteilung Sei X eine geometrisch verteilte Zufallsvariable
Mehr