Einführung in die Medizinische Informatik

Ähnliche Dokumente
Einführung in Medizinische Informatik

Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch

Einführung in die medizinische Bildverarbeitung WS 12/13

Kapitel 9: Informationstheorie. 2. Entropie

Einführung in die Medizinische Informatik

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

9.4 Sicherheit von Verschlüsselungsverfahren

Lochmann Information und der Entropie-Irrtum

Übungsblatt Nr. 6. Lösungsvorschlag

TGI-Übung Dirk Achenbach

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.

Definition der Entropie unter Verwendung von supp(p XY )

Ziel der Vorlesung. Gliederung. Literatur Definitionen Definitionen 1. Informations- und Kommunikationssysteme im Gesundheitswesen

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Computergrafik 2: Übung 2. Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung

Asymmetrische Verschlüsselungsverfahren

Transinstitutionelle Informationssystem-Architekturen in vernetzten kooperativen Versorgungsformen des Gesundheitswesens

Information Modellierung Shannon Fano Praxis. Entropie. Ingo Blechschmidt, Michael Hartmann. 15. November 2006

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

Molekulare Bioinformatik

Theoretische Grundlagen der Informatik

Begriffe aus der Informatik Nachrichten

(Prüfungs-)Aufgaben zur Codierungstheorie

Asymmetrische Verschlüsselungsverfahren

3. Lösungsblatt

Einführung Grundbegriffe

Signale und Codes Vorlesung 4

Informationstheorie als quantitative Methode in der Dialektometrie

Seminar Kolmogorovkomplexität. Universität Potsdam Wintersemester 2009/10

Prof. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert.

Wahrscheinlichkeitstheorie. eine Einführung

Messprotokoll: Aufnahme der Quantenzufallszahl

Technische Informatik - Eine Einführung

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.

Relationen und Funktionen

Inhalt. 1. Was ist Information 2. Nachrichtentechnische Definition 3. Algorithmische Definition 4. Darstellung in der Informatik

Information und Codierung

Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie

6 Informationsflußkontrolle

Statistische Methoden in der Sprachverarbeitung

1 Informationelle Systeme begriffliche Abgrenzung

GTI. Hannes Diener. 18. Juni. ENC B-0123,

Psychologie als Nebenfach

6: Diskrete Wahrscheinlichkeit

Klausur Informationstheorie und Codierung

E-Business-Einführung

Stochastische Unabhängigkeit. 01. Dezember 2014

Prof. Dr. Rolf Linn

Kapitel 3: Etwas Informationstheorie

zu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6

Algorithmische Methoden zur Netzwerkanalyse

Einführung in die Wahrscheinlichkeitsrechnung

Dipl.-Ing. Martin Vogel Büro: A2-18 b Telefon: Sprechzeit: dienstags & donnerstags, 13:30-15:30 Uhr

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse. Computer-Netzwerke

Stochastische Lernalgorithmen

Thema: Mittelwert einer Häufigkeitsverteilung. Welche Informationen kann der Mittelwert geben?

Zusatz: Einführung in die Mathematischen Beweistechniken

Informationstheorie und Codierung

Grundbegriffe der Informatik

Modul BP1 Grundlagen der Informations- und Kommunikationstechnologie Vorlesung

Informationssicherheit III

SS 2017 Torsten Schreiber

Molekulare Bioinformatik

Dynamisches Huffman-Verfahren

Praktikum Digitaltechnik

Dokument Klassifikation. Thomas Uhrig: Data-Mining SS10

Grundlagen der Informationsverarbeitung:

Predigt an Rogate 2016 Übers beten oder: Die Sache mit der Flaschenpost

Relationen und Funktionen

Informationssysteme im Gesundheitswesen - VO

1.3 Messung und Nutzen von Information

Optimalcodierung. Thema: Optimalcodierung. Ziele

Herzlich willkommen zur Lehrveranstaltung. Einführung Geoinformatik

Einführung in die Informatik

Einführung. 1 Vektoren

STATISTIK I Übung 04 Spannweite und IQR. 1 Kurze Wiederholung. Was sind Dispersionsparameter?

Proseminar String Matching

Hermann Korte Bernhard Schäfers (Hrsg.) Einführung in Hauptbegriffe der Soziologie

Proseminar WS 2002/2003

Musterlösung: 11. Dezember 2014, 10:43. Informationstheorie und Entropiekodierung

Digitaltechnik I WS 2006/2007. Klaus Kasper

Übungsblatt Nr. 7. Lösungsvorschlag

Das Zweikinderproblem

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Die komplementären Wirbel der Wirbelsäule

Einführung in die Modellierung mit dem 3LGM²-Baukasten

Informatik an der Ruprecht-Karls-Universität Heidelberg

Diskrete Strukturen WS 2010/11. Ernst W. Mayr. Wintersemester 2010/11. Fakultät für Informatik TU München

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

Interdisziplinäre Fachdidaktische Übung: Kommunikation in der Informatik

Vorlesung Netzwerkcodierung

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

Transkript:

Einführung in die Medizinische Informatik 1 M + I MI (Wiederholung) 2 Information, Informationsgehalt, Entscheidung Reinhold Haux, Christopher Duwenkamp, Nathalie Gusew Institut für Medizinische Informatik Technische Universität Braunschweig

zu 1... Ziel der Lehrveranstaltung: Kennenlernen des Gegenstandsbereichs aus Sicht der MI von Personen und Einrichtungen im Gesundheitswesen wichtiger Anwendungsgebiete und einführender Methoden der MI Aber: jeweils einführend!

2 Information, Informationsgehalt, Entscheidung

Information und Medizin In Medizin und Gesundheitswesen ist Information etwas sehr wichtiges. Nennen Sie Beispiele, bezogen auf wichtige Personengruppen.

Informationslogistik Die richtige Information zum richtigen Zeitpunkt am richtigen Ort der richtigen Person in der richtigen Form...?

Informationslogistik Die richtige Information zum richtigen Zeitpunkt der richtigen Person am richtigen Ort in der richtigen Form... um die richtige Entscheidung treffen zu können

Begriffe Daten Gebilde aus Zeichen oder kontinuierlichen Funktionen (Daten ohne Kontext), die aufgrund bekannter oder unterstellter Abmachungen Informationen darstellen. Information Die Kenntnis über bestimmte Sachverhalte oder Vorgänge (Daten im Kontext).

Begriffe Wissen Ansammlung von Informationen, derer sich eine Person oder eine Gruppe von Personen gegenwärtig ist. Wissen wird von persönlichen Erfahrungen, Erkenntnissen und Empfindungen beeinflusst.

Begriffe Nachricht Daten, die zum Zweck ihrer Weitergabe zusammengestellt und dafür als Einheit betrachtet werden. verwandte Begriffe Dokument, Dokumententräger

Beispiel siehe Umdruck Was können Sie an Information erkennen? Welche Information könnte relevant sein? Gibt es Struktur(en)?

Begriffe Datenvolumen Menge der Daten in einem System, z.b. in einem Dokument oder in einem Krankenaktenarchiv. Einheit: bit. Informationsgehalt (einer Menge der Daten) Menge an Information, die in solchen Datenmengen enthalten sind.

Informationsgehalt - Probleme Der Begriff I. ist vage. Der I. kann in der Zeit ändern (z.b. durch wiederholtes Lesen der selben Daten) Der I. ist abhängig von einem Problem. Der I. kann je nach Empfänger unterschiedlich sein. Ein anderes, öfters verwendetes Maß ist in diesem Kontext die Entropie aus der Shannonschen Informationstheorie

Entropie Entropie ist grob gesagt ein Maß für die Menge an Zufallsinformation, die in einem System oder einer Informationsfolge steckt. Dabei ist die Einheit der Zufallsinformation 1 bit definiert als die Informationsmenge, die in einer Zufallsentscheidung eines idealen Münzwurfes enthalten ist. Ein idealer Münzwurf hat nur zwei Möglichkeiten Wappen oder Zahl, die beide mit der gleichen Wahrscheinlichkeit p = 0,5 auftreten. (http://de.wikibooks.org/wiki/entropie:_it)

Entropie - Definition Sei Z := {z 1, z 2,...} eine Menge X ein Alphabet über Z p i die Wahrscheinlichkeit, mit der das Zeichen z i auftritt Dann ist die Entropie H(X) über Z definiert als

Entropie und Entscheidung - Beispiel (Tafel)

Entropie - gut zu merken Dass das Böse immer noch einen höheren Nachrichtenwert hat als das Gute, ist kein schlechtes Zeichen. Es beweist, dass das Gute auch weiter die Regel ist, das Böse dagegen die Ausnahme. Ein Zug, der entgleist, hat eben mehr Nachrichtenwert als einer, der ankommt. aus: Bauer FL, Goos G. Informatik, 1. Teil, 3. Auflage, S. 294. Berlin: Springer; 1982.

Entropie - Übung Eine Übung zu Entropie - Informationsgehalt steht jetzt auf den Webseiten dieser Lehrveranstaltung. Wir werden sie nächste Woche besprechen.