Einführung in die Medizinische Informatik

Größe: px
Ab Seite anzeigen:

Download "Einführung in die Medizinische Informatik"

Transkript

1 Einführung in die Medizinische Informatik 1 M + I MI (Wiederholung) 2 Information, Informationsgehalt, Entscheidung Reinhold Haux, Christopher Duwenkamp, Nathalie Gusew Institut für Medizinische Informatik Technische Universität Braunschweig

2 zu 1... Ziel der Lehrveranstaltung: Kennenlernen des Gegenstandsbereichs aus Sicht der MI von Personen und Einrichtungen im Gesundheitswesen wichtiger Anwendungsgebiete und einführender Methoden der MI Aber: jeweils einführend!

3 2 Information, Informationsgehalt, Entscheidung

4 Information und Medizin In Medizin und Gesundheitswesen ist Information etwas sehr wichtiges. Nennen Sie Beispiele, bezogen auf wichtige Personengruppen.

5 Informationslogistik Die richtige Information zum richtigen Zeitpunkt am richtigen Ort der richtigen Person in der richtigen Form...?

6 Informationslogistik Die richtige Information zum richtigen Zeitpunkt der richtigen Person am richtigen Ort in der richtigen Form... um die richtige Entscheidung treffen zu können

7 Begriffe Daten Gebilde aus Zeichen oder kontinuierlichen Funktionen (Daten ohne Kontext), die aufgrund bekannter oder unterstellter Abmachungen Informationen darstellen. Information Die Kenntnis über bestimmte Sachverhalte oder Vorgänge (Daten im Kontext).

8 Begriffe Wissen Ansammlung von Informationen, derer sich eine Person oder eine Gruppe von Personen gegenwärtig ist. Wissen wird von persönlichen Erfahrungen, Erkenntnissen und Empfindungen beeinflusst.

9 Begriffe Nachricht Daten, die zum Zweck ihrer Weitergabe zusammengestellt und dafür als Einheit betrachtet werden. verwandte Begriffe Dokument, Dokumententräger

10 Beispiel siehe Umdruck Was können Sie an Information erkennen? Welche Information könnte relevant sein? Gibt es Struktur(en)?

11 Begriffe Datenvolumen Menge der Daten in einem System, z.b. in einem Dokument oder in einem Krankenaktenarchiv. Einheit: bit. Informationsgehalt (einer Menge der Daten) Menge an Information, die in solchen Datenmengen enthalten sind.

12 Informationsgehalt - Probleme Der Begriff I. ist vage. Der I. kann in der Zeit ändern (z.b. durch wiederholtes Lesen der selben Daten) Der I. ist abhängig von einem Problem. Der I. kann je nach Empfänger unterschiedlich sein. Ein anderes, öfters verwendetes Maß ist in diesem Kontext die Entropie aus der Shannonschen Informationstheorie

13 Entropie Entropie ist grob gesagt ein Maß für die Menge an Zufallsinformation, die in einem System oder einer Informationsfolge steckt. Dabei ist die Einheit der Zufallsinformation 1 bit definiert als die Informationsmenge, die in einer Zufallsentscheidung eines idealen Münzwurfes enthalten ist. Ein idealer Münzwurf hat nur zwei Möglichkeiten Wappen oder Zahl, die beide mit der gleichen Wahrscheinlichkeit p = 0,5 auftreten. (

14 Entropie - Definition Sei Z := {z 1, z 2,...} eine Menge X ein Alphabet über Z p i die Wahrscheinlichkeit, mit der das Zeichen z i auftritt Dann ist die Entropie H(X) über Z definiert als

15 Entropie und Entscheidung - Beispiel (Tafel)

16 Entropie - gut zu merken Dass das Böse immer noch einen höheren Nachrichtenwert hat als das Gute, ist kein schlechtes Zeichen. Es beweist, dass das Gute auch weiter die Regel ist, das Böse dagegen die Ausnahme. Ein Zug, der entgleist, hat eben mehr Nachrichtenwert als einer, der ankommt. aus: Bauer FL, Goos G. Informatik, 1. Teil, 3. Auflage, S Berlin: Springer; 1982.

17 Entropie - Übung Eine Übung zu Entropie - Informationsgehalt steht jetzt auf den Webseiten dieser Lehrveranstaltung. Wir werden sie nächste Woche besprechen.

Einführung in Medizinische Informatik

Einführung in Medizinische Informatik Einführung in Medizinische Informatik Reinhold Haux, Christopher Duvenkamp, Nathalie Gusew Institut für Medizinische Informatik Technische Universität Braunschweig 1 Medizin + Informatik Medizininformatik?

Mehr

Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1

Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1 Informationsgehalt Kapitel 4.1 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916) Quelle Sender

Mehr

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines Seite 1 Georg-August-Universität Göttingen Robert Schaback Zum Begriff der Information in Mathematik und Informatik Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A)

Mehr

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information

Mehr

Einführung in die medizinische Bildverarbeitung WS 12/13

Einführung in die medizinische Bildverarbeitung WS 12/13 Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von

Mehr

Kapitel 9: Informationstheorie. 2. Entropie

Kapitel 9: Informationstheorie. 2. Entropie ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE

Mehr

Einführung in die Medizinische Informatik

Einführung in die Medizinische Informatik Einführung in die Medizinische Informatik 3 Gesundheitssysteme - Krankenversorgung Reinhold Haux, Christopher Duwenkamp, Nathalie Gusew Peter L. Reichertz Institut für Medizinische Informatik der Technischen

Mehr

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung

Mehr

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd

Mehr

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen 1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte

Mehr

9.4 Sicherheit von Verschlüsselungsverfahren

9.4 Sicherheit von Verschlüsselungsverfahren 9.4 Sicherheit von Verschlüsselungsverfahren ist bedroht durch = Resistenz gegenüber Kryptoanalyse kleine Schlüsselräume (erlauben systematisches Ausprobieren aller möglichen Schlüssel) Beispiel: Cäsars

Mehr

Lochmann Information und der Entropie-Irrtum

Lochmann Information und der Entropie-Irrtum Lochmann Information und der Entropie-Irrtum Berichte aus der Philosophie Dietmar Lochmann Information und der Entropie-Irrtum Shaker Verlag Aachen 2012 Die Deutsche Nationalbibliothek verzeichnet diese

Mehr

Übungsblatt Nr. 6. Lösungsvorschlag

Übungsblatt Nr. 6. Lösungsvorschlag Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nico Döttling Dirk Achenbach Tobias Nilges Vorlesung Theoretische Grundlagen der Informatik Übungsblatt Nr. 6 Aufgabe (K) (4 Punkte)

Mehr

TGI-Übung Dirk Achenbach

TGI-Übung Dirk Achenbach TGI-Übung 7 06.02.2014 Dirk Achenbach INSTITUT FÜR THEORETISCHE INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Agenda

Mehr

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b. Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie

Mehr

Definition der Entropie unter Verwendung von supp(p XY )

Definition der Entropie unter Verwendung von supp(p XY ) Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion

Mehr

Ziel der Vorlesung. Gliederung. Literatur 1. 1. Definitionen 2. 1. Definitionen 1. Informations- und Kommunikationssysteme im Gesundheitswesen

Ziel der Vorlesung. Gliederung. Literatur 1. 1. Definitionen 2. 1. Definitionen 1. Informations- und Kommunikationssysteme im Gesundheitswesen Management im Gesundheitswesen Ziel der Vorlesung Informations- und Kommunikationssysteme im Gesundheitswesen Prof. Dr. Anke Häber FB Physikalische Technik/Informatik Sie sollen lernen, was IuK-Systeme

Mehr

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1 Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:

Mehr

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1 Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)

Mehr

Computergrafik 2: Übung 2. Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung

Computergrafik 2: Übung 2. Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung Computergrafik 2: Übung 2 Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung Inhalt Besprechung von Übung 1 Subsampling und Moiré Effekte Color Maps Histogrammlinearisierung Computergrafik

Mehr

Asymmetrische Verschlüsselungsverfahren

Asymmetrische Verschlüsselungsverfahren Asymmetrische Verschlüsselungsverfahren Vorlesung 4 Alexander Koch (Vertretung) FAKULTÄT FÜR INFORMATIK, INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT 2015-11-12 Universität desalexander Landes Baden-Württemberg

Mehr

Transinstitutionelle Informationssystem-Architekturen in vernetzten kooperativen Versorgungsformen des Gesundheitswesens

Transinstitutionelle Informationssystem-Architekturen in vernetzten kooperativen Versorgungsformen des Gesundheitswesens Technische Universität Braunschweig Transinstitutionelle Informationssystem-Architekturen in vernetzten kooperativen Versorgungsformen des Gesundheitswesens Von Universität Carolo-Wilhelmina zu zur Erlangung

Mehr

Information Modellierung Shannon Fano Praxis. Entropie. Ingo Blechschmidt, Michael Hartmann. 15. November 2006

Information Modellierung Shannon Fano Praxis. Entropie. Ingo Blechschmidt, Michael Hartmann. 15. November 2006 Information Modellierung Shannon Fano Praxis Ingo Blechschmidt, Michael Hartmann 15. November 2006 Information Modellierung Shannon Fano Praxis Inhalt 1 Information Definition Informationsebenen 2 Mathematische

Mehr

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht

Mehr

Molekulare Bioinformatik

Molekulare Bioinformatik Molekulare Bioinformatik Wintersemester 203/204 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 07.0.204 Molekulare Bioinformatik - Vorlesung 0 Wiederhohlung Die Entropie

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Übung 8 Dirk Achenbach 7. Februar 2013 I NSTITUT FÜR K RYPTOGRAPHIE UND S ICHERHEIT KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

Begriffe aus der Informatik Nachrichten

Begriffe aus der Informatik Nachrichten Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung

Mehr

(Prüfungs-)Aufgaben zur Codierungstheorie

(Prüfungs-)Aufgaben zur Codierungstheorie (Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1

Mehr

Asymmetrische Verschlüsselungsverfahren

Asymmetrische Verschlüsselungsverfahren Asymmetrische Verschlüsselungsverfahren Vorlesung 4 Alexander Koch (Vertretung) FAKULTÄT FÜR INFORMATIK, INSTITUT FÜR THEORETISCHE INFORMATIK 0 2016-11-10 Alexander Koch Asymmetrische Verschlüsselungsverfahren

Mehr

3. Lösungsblatt

3. Lösungsblatt TECHNISCHE UNIVERSITÄT DARMSTADT FACHGEBIET THEORETISCHE INFORMATIK PROF JOHANNES BUCHMANN NABIL ALKEILANI ALKADRI Einführung in die Kryptographie WS 7/ 8 3 Lösungsblatt 67 P Matrizen und Determinanten

Mehr

Einführung Grundbegriffe

Einführung Grundbegriffe Einführung Grundbegriffe 1.1 Der Modellbegriff Broy: Informatik 1, Springer 1998 (2) Die Modellbildung der Informatik zielt auf die Darstellung der unter dem Gesichtspunkt einer gegebenen Aufgabenstellung

Mehr

Signale und Codes Vorlesung 4

Signale und Codes Vorlesung 4 Signale und Codes Vorlesung 4 Nico Döttling December 6, 2013 1 / 18 2 / 18 Letztes Mal Allgemeine Hamming Codes als Beispiel linearer Codes Hamming Schranke: Obere Schranke für k bei gegebenem d bzw. für

Mehr

Informationstheorie als quantitative Methode in der Dialektometrie

Informationstheorie als quantitative Methode in der Dialektometrie Informationstheorie als quantitative Methode in der Dialektometrie 1 Informationstheorie als quantitative Methode in der Dialektometrie Informationstheorie als quantitative Methode in der Dialektometrie

Mehr

Seminar Kolmogorovkomplexität. Universität Potsdam Wintersemester 2009/10

Seminar Kolmogorovkomplexität. Universität Potsdam Wintersemester 2009/10 Universität Potsdam Wintersemester 2009/10 Kolmogorovkomplexität Kolmogorovkomplexität (auch Algorithmische Komplexität ) ist der zentrale Begriff der Algorithmischen Informationstheorie (AIT). Kombiniert

Mehr

Prof. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert.

Prof. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert. Audiotechnik II Digitale Audiotechnik: 8. Tutorium Prof. Dr. Stefan Weinzierl 9.2.23 Musterlösung: 9. Dezember 23, 8:34 Fehlerkorrektur II Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit

Mehr

Wahrscheinlichkeitstheorie. eine Einführung

Wahrscheinlichkeitstheorie. eine Einführung eine Einführung Antony R. Unwin Lehrstuhl für Rechnerorientierte Statistik und Datenanalyse Institut für Mathematik Universität Augsburg tel: 598-2218 email: unwin@math.augsburg.de Ziele Wahrscheinlichkeitsmodelle

Mehr

Messprotokoll: Aufnahme der Quantenzufallszahl

Messprotokoll: Aufnahme der Quantenzufallszahl Messprotokoll: Aufnahme der Quantenzufallszahl Am 19. Juni 2009 wurden für Max Mustermann um 8:35 Uhr mit Hilfe von einzelnen Photonen 993.097 Zufallszahlen generiert. Der Zufallsgenerator steht im Quantenoptiklabor

Mehr

Technische Informatik - Eine Einführung

Technische Informatik - Eine Einführung Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und

Mehr

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester

Mehr

Relationen und Funktionen

Relationen und Funktionen Relationen und Funktionen Relationen und Funktionen Vorkurs Informatik Theoretischer Teil WS 2013/14 2. Oktober 2013 Vorkurs Informatik WS 2013/14 1/27 Relationen und Funktionen > Relationen Relationen

Mehr

Inhalt. 1. Was ist Information 2. Nachrichtentechnische Definition 3. Algorithmische Definition 4. Darstellung in der Informatik

Inhalt. 1. Was ist Information 2. Nachrichtentechnische Definition 3. Algorithmische Definition 4. Darstellung in der Informatik Kapitel 2 Information Information ist der grundlegende Begriff der Informatik. Mehr noch: Der Begriff der Information ist vermutlich das zentrale interdisziplinäre Brückenkonzept der modernen Wissenschaften

Mehr

Information und Codierung

Information und Codierung Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH Inhalt Vorwort zur 1. Auflage der Originalausgabe

Mehr

Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie

Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie Berichte aus der Informationstechnik Klaus-Dieter Thies Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie für Computernetzwerke

Mehr

6 Informationsflußkontrolle

6 Informationsflußkontrolle 6 Informationsflußkontrolle Daten/Informationsfluß bei Lese/Kopiervorgängen aller Art, z.b. von Objekt A nach Objekt B von Person P nach Datei D von Server S zu Klient K usw. alles auch transitiv! Informationsflußkontrolle

Mehr

Statistische Methoden in der Sprachverarbeitung

Statistische Methoden in der Sprachverarbeitung ' Statistische Methoden in der Sprachverarbeitung Gerhard Jäger 7. Mai 22 Inforationstheorie Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kot ursprünglich aus der Physik:

Mehr

1 Informationelle Systeme begriffliche Abgrenzung

1 Informationelle Systeme begriffliche Abgrenzung 1 Informationelle Systeme begriffliche Abgrenzung Im Titel dieses Buches wurde das Wort Softwaresystem an den Anfang gestellt. Dies ist kein Zufall, denn es soll einen Hinweis darauf geben, dass dieser

Mehr

GTI. Hannes Diener. 18. Juni. ENC B-0123,

GTI. Hannes Diener. 18. Juni. ENC B-0123, GTI Hannes Diener ENC B-0123, diener@math.uni-siegen.de 18. Juni 1 / 32 Als Literatur zu diesem Thema empfiehlt sich das Buch Theoretische Informatik kurzgefasst von Uwe Schöning (mittlerweile in der 5.

Mehr

Psychologie als Nebenfach

Psychologie als Nebenfach für den Studiengang Informatik Ba/Ma Birte Lindhorst May 8, 2012 1 Psychologie als Wissenschaft Allgemeine Definition (Duden): Psy cho lo gie Wissenschaft von den bewussten u. unbewussten psychischen Vorgängen,

Mehr

6: Diskrete Wahrscheinlichkeit

6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 219 6: Diskrete Wahrscheinlichkeit 6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 220 Wahrscheinlichkeitsrechnung Eines der wichtigsten

Mehr

Klausur Informationstheorie und Codierung

Klausur Informationstheorie und Codierung Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte

Mehr

E-Business-Einführung

E-Business-Einführung Klausur E-Business-Einführung 1/6 16. Februar 2016 E-Business-Einführung, HS-Furtwangen, Fakultät Wirtschaftsinformatik Studiengang: WNB, WS 2015, Klausur, Zeit: 90 Minuten, Punkte: 100 Vorname: Nachname:

Mehr

Stochastische Unabhängigkeit. 01. Dezember 2014

Stochastische Unabhängigkeit. 01. Dezember 2014 Stochastische Unabhängigkeit 0. Dezember 204 Der Begriff der Unabhängigkeit Großbritannien, im November 999. Die Anwältin Sally Clark wird wegen Mordes an ihren Kindern angeklagt. Clark geriet unter Verdacht

Mehr

Prof. Dr. Rolf Linn

Prof. Dr. Rolf Linn Prof. Dr. Rolf Linn 6.4.5 Übungsaufgaben zu Mathematik Analysis. Einführung. Gegeben seien die Punkte P=(;) und Q=(5;5). a) Berechnen Sie den Anstieg m der Verbindungsgeraden von P und Q. b) Berechnen

Mehr

Kapitel 3: Etwas Informationstheorie

Kapitel 3: Etwas Informationstheorie Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens

Mehr

zu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6

zu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6 zu ufgabe 6: a) 3 5 6 7 p( ) p( ) p( 3 ) p( ) p( 5 ) p( 6 ) p( 7 ) = p( 3 ) = p( 3 ) = p( 3 ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = 8 p( ) = p( ) = p( ) = p( ) Lösung: b) binär 8 p(

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung

Mehr

Dipl.-Ing. Martin Vogel Büro: A2-18 b Telefon: Sprechzeit: dienstags & donnerstags, 13:30-15:30 Uhr

Dipl.-Ing. Martin Vogel Büro: A2-18 b Telefon: Sprechzeit: dienstags & donnerstags, 13:30-15:30 Uhr Vorstellung Prof. Dr.-Ing. Gudrun Breitzke Lehrgebiete im Bachelor-Studiengang: Ingenieurinformatik (1. Semester) Mathematik (1. und 2. Semester) CAD (2. Semester) Büro: A2-18 a Telefon: 0234 32-10206

Mehr

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft

Mehr

Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse. Computer-Netzwerke

Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse. Computer-Netzwerke Informationstechnik Klaus-Dieter Thies Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse für Computer-Netzwerke Mit einer wahrscheinlichkeitstheoretischen

Mehr

Stochastische Lernalgorithmen

Stochastische Lernalgorithmen Stochastische Lernalgorithmen Gerhard Jäger 14. Mai 2003 Das Maximum-Entropy-Prinzip Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kommt ursprünglich aus der Physik:

Mehr

Thema: Mittelwert einer Häufigkeitsverteilung. Welche Informationen kann der Mittelwert geben?

Thema: Mittelwert einer Häufigkeitsverteilung. Welche Informationen kann der Mittelwert geben? Thema: Mittelwert einer Häufigkeitsverteilung Beispiel: Im Mittel werden deutsche Männer 75,1 Jahre alt; sie essen im Mittel pro Jahr 71 kg Kartoffel(-produkte) und trinken im Mittel pro Tag 0.35 l Bier.

Mehr

Zusatz: Einführung in die Mathematischen Beweistechniken

Zusatz: Einführung in die Mathematischen Beweistechniken Zusatz: Einführung in die Mathematischen Beweistechniken Quick-Start Informatik Theoretischer Teil WS 11/12 Jens Keppeler 7. Oktober 2011 Das folgende Zusatzskript, sowie die dazugehörigen Folien orientieren

Mehr

Informationstheorie und Codierung

Informationstheorie und Codierung Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice

Mehr

Grundbegriffe der Informatik

Grundbegriffe der Informatik Grundbegriffe der Informatik Tutorium 1-12. Sitzung Dennis Felsing dennis.felsing@student.kit.edu http://www.stud.uni-karlsruhe.de/~ubcqr/2010w/tut gbi/ 2011-01-24 Überblick 1 Reguläre Ausdrücke Wiederholung

Mehr

Modul BP1 Grundlagen der Informations- und Kommunikationstechnologie Vorlesung

Modul BP1 Grundlagen der Informations- und Kommunikationstechnologie Vorlesung Grundlagen der Informations- und Kommunikationstechnologie 1 / 6 Modul BP1 Grundlagen der Informations- und Kommunikationstechnologie Vorlesung Hinweise zum Modul BP1 "Der Urquell aller technischen Errungenschaften

Mehr

Informationssicherheit III

Informationssicherheit III Zufall im Rechner Präsentation im Rahmen der Lehrveranstaltung Informationssicherheit III WS 2001/2002 Jochen Rondorf 17.01.2002 Zufall im Rechner WS 2001/02 1 Agenda Arten von Zufall Anwendungsgebiete

Mehr

SS 2017 Torsten Schreiber

SS 2017 Torsten Schreiber 173 Diese Lücken sollten nicht auch bei Ihnen vorhanden sein: Wird die Anordnung von unterschiedlichen Objekten eines Experiments untersucht, so handelt es sich um eine. Möchte man die Anzahl der möglichen

Mehr

Molekulare Bioinformatik

Molekulare Bioinformatik Molekulare Bioinformatik Wintersemester 2013/2014 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 14.01.2014 1 Molekulare Bioinformatik - Vorlesung 11 Wiederholung Wir

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Praktikum Digitaltechnik

Praktikum Digitaltechnik dig A) Vorbereitungsaufgaben: 1) Ermitteln Sie anhand der gegebenen zwei Blockschaltbilder die Schaltgleichungen und vereinfachen Sie weitmöglich! y 1 =(/(/(x 0 x 1 )/(x 0 +x 1 )))+(/(/(x 0 x 1 )+/(x 0

Mehr

Dokument Klassifikation. Thomas Uhrig: Data-Mining SS10

Dokument Klassifikation. Thomas Uhrig: Data-Mining SS10 Agenda: 1: Klassifizierung allgemein 2: der naive Bayes-Klassifizierer 3: Beispiel 4: Probleme 5: Fazit 6: Quellen 1: Klassifizierung allgemein: 1: Klassifizierung allgemein: - Einordnung von Objekten

Mehr

Grundlagen der Informationsverarbeitung:

Grundlagen der Informationsverarbeitung: Grundlagen der Informationsverarbeitung: Einleitung Prof. Dr.-Ing. habil. Ulrike Lucke Durchgeführt von Prof. Dr. rer. nat. habil. Mario Schölzel Maximaler Raum für Titelbild (wenn kleiner dann linksbündig

Mehr

Predigt an Rogate 2016 Übers beten oder: Die Sache mit der Flaschenpost

Predigt an Rogate 2016 Übers beten oder: Die Sache mit der Flaschenpost Predigt an Rogate 2016 Übers beten oder: Die Sache mit der Flaschenpost I. Berechtigte Zweifel In regelmäßigen Abständen liest man in der Kuriositätensparte von Zeitschriften, wie eine Flaschenpost nach

Mehr

Relationen und Funktionen

Relationen und Funktionen Relationen und Funktionen Relationen und Funktionen Quick Start Informatik Theoretischer Teil WS2011/12 11. Oktober 2011 Relationen und Funktionen > Relationen Relationen Relationen und Funktionen > Relationen

Mehr

Informationssysteme im Gesundheitswesen - VO

Informationssysteme im Gesundheitswesen - VO Informationssysteme im Gesundheitswesen - VO 2011 - Vorbesprechung 8. März 2011 Univ.Prof. DI Dr. Thomas Grechenig Dr. Barbara Tappeiner Dr. Anna Wujciow INSO - Industrial Software Institut für Rechnergestützte

Mehr

1.3 Messung und Nutzen von Information

1.3 Messung und Nutzen von Information 1. Was ist Information? 1.1 Bedeutung der Information für Wirtschaft und Gesellschaft 1.2 Begriffliche Annäherung 1.3 Messung und Nutzen von Information 1 Was ist Information Folie: 1 / 1.1 / 0 1.1 Bedeutung

Mehr

Optimalcodierung. Thema: Optimalcodierung. Ziele

Optimalcodierung. Thema: Optimalcodierung. Ziele Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.

Mehr

Herzlich willkommen zur Lehrveranstaltung. Einführung Geoinformatik

Herzlich willkommen zur Lehrveranstaltung. Einführung Geoinformatik Herzlich willkommen zur Lehrveranstaltung Einführung in die Geoinformatik Aus dem Verzeichnis der Lehrveranstaltungen: Halbmodul: Einführung in die Geo-Informatik Zugelassen für: Master-Studiengang Bereich:

Mehr

Einführung in die Informatik

Einführung in die Informatik Einführung in die Informatik 01101101 01011001 11010011 10011000 00000011 00011100 01111111 11111111 00110100 00101110 11101110 01110010 10011101 00111010 2 Lehrziel und Inhalt Überblick über die Informatik;

Mehr

Einführung. 1 Vektoren

Einführung. 1 Vektoren Einführung Die Vektorgeometrie beschreibt geometrische Sachverhalte in einer algebraischen Sprache. Sie gibt uns ein mathematisches Hilfsmittel in die Hand, mit welchem wir Geometrie nicht nur konstruktiv

Mehr

STATISTIK I Übung 04 Spannweite und IQR. 1 Kurze Wiederholung. Was sind Dispersionsparameter?

STATISTIK I Übung 04 Spannweite und IQR. 1 Kurze Wiederholung. Was sind Dispersionsparameter? STATISTIK I Übung 04 Spannweite und IQR 1 Kurze Wiederholung Was sind Dispersionsparameter? Die sogenannten Dispersionsparameter oder statistischen Streuungsmaße geben Auskunft darüber, wie die Werte einer

Mehr

Proseminar String Matching

Proseminar String Matching Proseminar Textsuche Proseminar String Matching PD Dr. habil. Hanjo Täubig Lehrstuhl für Theoretische Informatik (Prof. Dr. Susanne Albers) Institut für Informatik Technische Universität München Wintersemester

Mehr

Hermann Korte Bernhard Schäfers (Hrsg.) Einführung in Hauptbegriffe der Soziologie

Hermann Korte Bernhard Schäfers (Hrsg.) Einführung in Hauptbegriffe der Soziologie Hermann Korte Bernhard Schäfers (Hrsg.) Einführung in Hauptbegriffe der Soziologie Einführungskurs Soziologie Band 1 Herausgegeben von Hermann Korte und Bernhard Schäfers Die weiteren Bände: Band 2: Hermann

Mehr

Proseminar WS 2002/2003

Proseminar WS 2002/2003 Technische Universität Chemnitz Fakultät für Informatik Professur Theoretische Informatik Proseminar WS 2002/2003 Thema: Datenkompression Dynamisches / Adaptives Huffman-Verfahren Danny Grobe Rainer Kuhn

Mehr

Musterlösung: 11. Dezember 2014, 10:43. Informationstheorie und Entropiekodierung

Musterlösung: 11. Dezember 2014, 10:43. Informationstheorie und Entropiekodierung Audiotechnik II Digitale Audiotechnik: 8. Übung Prof. Dr. Stefan Weinzierl 11.12.2014 Musterlösung: 11. Dezember 2014, 10:43 Informationstheorie und Entropiekodierung Bei der Entropiekodierung werden die

Mehr

Digitaltechnik I WS 2006/2007. Klaus Kasper

Digitaltechnik I WS 2006/2007. Klaus Kasper Digitaltechnik I WS 2006/2007 Klaus Kasper Studium 6 Semester 5. Semester: Praxissemester im Anschluss: Bachelorarbeit 6. Semester: WPs Evaluation der Lehre Mentorensystem 2 Organisation des Studiums Selbständigkeit

Mehr

Übungsblatt Nr. 7. Lösungsvorschlag

Übungsblatt Nr. 7. Lösungsvorschlag Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nico Döttling Dirk Achenbach Tobias Nilges Vorlesung Theoretische Grundlagen der Informatik Übungsblatt Nr. 7 svorschlag Aufgabe (K)

Mehr

Das Zweikinderproblem

Das Zweikinderproblem Das Zweikinderproblem Definition Zweikinderproblem Eine Familie besitzt zwei Kinder. Wie groß ist die Wahrscheinlichkeit Pr[ Beide Kinder sind Mädchen. Eines der Kinder ist ein Mädchen ]? Lösung: Sei A

Mehr

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:

Mehr

Die komplementären Wirbel der Wirbelsäule

Die komplementären Wirbel der Wirbelsäule Kapitel 1 Die komplementären Wirbel der Wirbelsäule Wie viele Entdeckungen hat auch dieses Buch oder besser gesagt diese ganze Wirbelsäulen-Regenerations-Methode mit einem Zufall angefangen. Und wie es

Mehr

Einführung in die Modellierung mit dem 3LGM²-Baukasten

Einführung in die Modellierung mit dem 3LGM²-Baukasten Einführung in die Modellierung mit dem 3LGM²-Baukasten Übung 1 Franziska Jahn 26.11.08 Institut für Medizinische Informatik, Statistik und Epidemiologie Ablauf Wozu Modellierung von KIS? Definitionen (Modell,

Mehr

Informatik an der Ruprecht-Karls-Universität Heidelberg

Informatik an der Ruprecht-Karls-Universität Heidelberg Informatik an der Ruprecht-Karls-Universität Heidelberg http://www.informatik.uni-heidelberg.de/ Oktober 2014 Heidelberg Heidelberg ist eine der am häufigsten besuchten Städte Deutschlands Außer durch

Mehr

Diskrete Strukturen WS 2010/11. Ernst W. Mayr. Wintersemester 2010/11. Fakultät für Informatik TU München

Diskrete Strukturen WS 2010/11. Ernst W. Mayr. Wintersemester 2010/11.  Fakultät für Informatik TU München WS 2010/11 Diskrete Strukturen Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2010ws/ds/ Wintersemester 2010/11 Diskrete Strukturen Kapitel 0 Organisatorisches Vorlesungen:

Mehr

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.

Mehr

Interdisziplinäre Fachdidaktische Übung: Kommunikation in der Informatik

Interdisziplinäre Fachdidaktische Übung: Kommunikation in der Informatik Interdisziplinäre Fachdidaktische Übung: Kommunikation in der SS 2014: Grossmann, Jenko 1 Kommunikationsprozess in der Sender Kanal Empfänger Wer ist Sender? Mensch oder Maschine Wer ist Empfänger? Mensch

Mehr

Vorlesung Netzwerkcodierung

Vorlesung Netzwerkcodierung Sommersemester 2010 Organisation Im Internet: http://www.ifn.et.tu-dresden.de/tnt/lehre/vl/nwcod Vorlesungen finden wöchentlich statt: Donnerstag, 5. DS, BAR 213 Übungen finden 2-wöchentlich statt: Freitag,

Mehr

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable

Mehr