Einführung in die Medizinische Informatik 1 M + I MI (Wiederholung) 2 Information, Informationsgehalt, Entscheidung Reinhold Haux, Christopher Duwenkamp, Nathalie Gusew Institut für Medizinische Informatik Technische Universität Braunschweig
zu 1... Ziel der Lehrveranstaltung: Kennenlernen des Gegenstandsbereichs aus Sicht der MI von Personen und Einrichtungen im Gesundheitswesen wichtiger Anwendungsgebiete und einführender Methoden der MI Aber: jeweils einführend!
2 Information, Informationsgehalt, Entscheidung
Information und Medizin In Medizin und Gesundheitswesen ist Information etwas sehr wichtiges. Nennen Sie Beispiele, bezogen auf wichtige Personengruppen.
Informationslogistik Die richtige Information zum richtigen Zeitpunkt am richtigen Ort der richtigen Person in der richtigen Form...?
Informationslogistik Die richtige Information zum richtigen Zeitpunkt der richtigen Person am richtigen Ort in der richtigen Form... um die richtige Entscheidung treffen zu können
Begriffe Daten Gebilde aus Zeichen oder kontinuierlichen Funktionen (Daten ohne Kontext), die aufgrund bekannter oder unterstellter Abmachungen Informationen darstellen. Information Die Kenntnis über bestimmte Sachverhalte oder Vorgänge (Daten im Kontext).
Begriffe Wissen Ansammlung von Informationen, derer sich eine Person oder eine Gruppe von Personen gegenwärtig ist. Wissen wird von persönlichen Erfahrungen, Erkenntnissen und Empfindungen beeinflusst.
Begriffe Nachricht Daten, die zum Zweck ihrer Weitergabe zusammengestellt und dafür als Einheit betrachtet werden. verwandte Begriffe Dokument, Dokumententräger
Beispiel siehe Umdruck Was können Sie an Information erkennen? Welche Information könnte relevant sein? Gibt es Struktur(en)?
Begriffe Datenvolumen Menge der Daten in einem System, z.b. in einem Dokument oder in einem Krankenaktenarchiv. Einheit: bit. Informationsgehalt (einer Menge der Daten) Menge an Information, die in solchen Datenmengen enthalten sind.
Informationsgehalt - Probleme Der Begriff I. ist vage. Der I. kann in der Zeit ändern (z.b. durch wiederholtes Lesen der selben Daten) Der I. ist abhängig von einem Problem. Der I. kann je nach Empfänger unterschiedlich sein. Ein anderes, öfters verwendetes Maß ist in diesem Kontext die Entropie aus der Shannonschen Informationstheorie
Entropie Entropie ist grob gesagt ein Maß für die Menge an Zufallsinformation, die in einem System oder einer Informationsfolge steckt. Dabei ist die Einheit der Zufallsinformation 1 bit definiert als die Informationsmenge, die in einer Zufallsentscheidung eines idealen Münzwurfes enthalten ist. Ein idealer Münzwurf hat nur zwei Möglichkeiten Wappen oder Zahl, die beide mit der gleichen Wahrscheinlichkeit p = 0,5 auftreten. (http://de.wikibooks.org/wiki/entropie:_it)
Entropie - Definition Sei Z := {z 1, z 2,...} eine Menge X ein Alphabet über Z p i die Wahrscheinlichkeit, mit der das Zeichen z i auftritt Dann ist die Entropie H(X) über Z definiert als
Entropie und Entscheidung - Beispiel (Tafel)
Entropie - gut zu merken Dass das Böse immer noch einen höheren Nachrichtenwert hat als das Gute, ist kein schlechtes Zeichen. Es beweist, dass das Gute auch weiter die Regel ist, das Böse dagegen die Ausnahme. Ein Zug, der entgleist, hat eben mehr Nachrichtenwert als einer, der ankommt. aus: Bauer FL, Goos G. Informatik, 1. Teil, 3. Auflage, S. 294. Berlin: Springer; 1982.
Entropie - Übung Eine Übung zu Entropie - Informationsgehalt steht jetzt auf den Webseiten dieser Lehrveranstaltung. Wir werden sie nächste Woche besprechen.