Einführung in die Medizinische Informatik
|
|
- Gretel Sara Geiger
- vor 7 Jahren
- Abrufe
Transkript
1 Einführung in die Medizinische Informatik 1 M + I MI (Wiederholung) 2 Information, Informationsgehalt, Entscheidung Reinhold Haux, Christopher Duwenkamp, Nathalie Gusew Institut für Medizinische Informatik Technische Universität Braunschweig
2 zu 1... Ziel der Lehrveranstaltung: Kennenlernen des Gegenstandsbereichs aus Sicht der MI von Personen und Einrichtungen im Gesundheitswesen wichtiger Anwendungsgebiete und einführender Methoden der MI Aber: jeweils einführend!
3 2 Information, Informationsgehalt, Entscheidung
4 Information und Medizin In Medizin und Gesundheitswesen ist Information etwas sehr wichtiges. Nennen Sie Beispiele, bezogen auf wichtige Personengruppen.
5 Informationslogistik Die richtige Information zum richtigen Zeitpunkt am richtigen Ort der richtigen Person in der richtigen Form...?
6 Informationslogistik Die richtige Information zum richtigen Zeitpunkt der richtigen Person am richtigen Ort in der richtigen Form... um die richtige Entscheidung treffen zu können
7 Begriffe Daten Gebilde aus Zeichen oder kontinuierlichen Funktionen (Daten ohne Kontext), die aufgrund bekannter oder unterstellter Abmachungen Informationen darstellen. Information Die Kenntnis über bestimmte Sachverhalte oder Vorgänge (Daten im Kontext).
8 Begriffe Wissen Ansammlung von Informationen, derer sich eine Person oder eine Gruppe von Personen gegenwärtig ist. Wissen wird von persönlichen Erfahrungen, Erkenntnissen und Empfindungen beeinflusst.
9 Begriffe Nachricht Daten, die zum Zweck ihrer Weitergabe zusammengestellt und dafür als Einheit betrachtet werden. verwandte Begriffe Dokument, Dokumententräger
10 Beispiel siehe Umdruck Was können Sie an Information erkennen? Welche Information könnte relevant sein? Gibt es Struktur(en)?
11 Begriffe Datenvolumen Menge der Daten in einem System, z.b. in einem Dokument oder in einem Krankenaktenarchiv. Einheit: bit. Informationsgehalt (einer Menge der Daten) Menge an Information, die in solchen Datenmengen enthalten sind.
12 Informationsgehalt - Probleme Der Begriff I. ist vage. Der I. kann in der Zeit ändern (z.b. durch wiederholtes Lesen der selben Daten) Der I. ist abhängig von einem Problem. Der I. kann je nach Empfänger unterschiedlich sein. Ein anderes, öfters verwendetes Maß ist in diesem Kontext die Entropie aus der Shannonschen Informationstheorie
13 Entropie Entropie ist grob gesagt ein Maß für die Menge an Zufallsinformation, die in einem System oder einer Informationsfolge steckt. Dabei ist die Einheit der Zufallsinformation 1 bit definiert als die Informationsmenge, die in einer Zufallsentscheidung eines idealen Münzwurfes enthalten ist. Ein idealer Münzwurf hat nur zwei Möglichkeiten Wappen oder Zahl, die beide mit der gleichen Wahrscheinlichkeit p = 0,5 auftreten. (
14 Entropie - Definition Sei Z := {z 1, z 2,...} eine Menge X ein Alphabet über Z p i die Wahrscheinlichkeit, mit der das Zeichen z i auftritt Dann ist die Entropie H(X) über Z definiert als
15 Entropie und Entscheidung - Beispiel (Tafel)
16 Entropie - gut zu merken Dass das Böse immer noch einen höheren Nachrichtenwert hat als das Gute, ist kein schlechtes Zeichen. Es beweist, dass das Gute auch weiter die Regel ist, das Böse dagegen die Ausnahme. Ein Zug, der entgleist, hat eben mehr Nachrichtenwert als einer, der ankommt. aus: Bauer FL, Goos G. Informatik, 1. Teil, 3. Auflage, S Berlin: Springer; 1982.
17 Entropie - Übung Eine Übung zu Entropie - Informationsgehalt steht jetzt auf den Webseiten dieser Lehrveranstaltung. Wir werden sie nächste Woche besprechen.
Einführung in Medizinische Informatik
Einführung in Medizinische Informatik Reinhold Haux, Christopher Duvenkamp, Nathalie Gusew Institut für Medizinische Informatik Technische Universität Braunschweig 1 Medizin + Informatik Medizininformatik?
MehrGrundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1
Informationsgehalt Kapitel 4.1 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916) Quelle Sender
MehrSeite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines
Seite 1 Georg-August-Universität Göttingen Robert Schaback Zum Begriff der Information in Mathematik und Informatik Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A)
MehrGrundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch
Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information
MehrEinführung in die medizinische Bildverarbeitung WS 12/13
Einführung in die medizinische Bildverarbeitung WS 12/13 Stephan Gimbel Kurze Wiederholung Landmarkenbasierte anhand anatomischer Punkte interaktiv algorithmisch z.b. zur Navigation im OP Markierung von
MehrKapitel 9: Informationstheorie. 2. Entropie
ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE
MehrEinführung in die Medizinische Informatik
Einführung in die Medizinische Informatik 3 Gesundheitssysteme - Krankenversorgung Reinhold Haux, Christopher Duwenkamp, Nathalie Gusew Peter L. Reichertz Institut für Medizinische Informatik der Technischen
MehrOrganisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele
Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung
MehrEinführung in die Informatik II Aus der Informationstheorie: Datenkompression
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd
Mehr1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen
1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte
Mehr9.4 Sicherheit von Verschlüsselungsverfahren
9.4 Sicherheit von Verschlüsselungsverfahren ist bedroht durch = Resistenz gegenüber Kryptoanalyse kleine Schlüsselräume (erlauben systematisches Ausprobieren aller möglichen Schlüssel) Beispiel: Cäsars
MehrLochmann Information und der Entropie-Irrtum
Lochmann Information und der Entropie-Irrtum Berichte aus der Philosophie Dietmar Lochmann Information und der Entropie-Irrtum Shaker Verlag Aachen 2012 Die Deutsche Nationalbibliothek verzeichnet diese
MehrÜbungsblatt Nr. 6. Lösungsvorschlag
Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nico Döttling Dirk Achenbach Tobias Nilges Vorlesung Theoretische Grundlagen der Informatik Übungsblatt Nr. 6 Aufgabe (K) (4 Punkte)
MehrTGI-Übung Dirk Achenbach
TGI-Übung 7 06.02.2014 Dirk Achenbach INSTITUT FÜR THEORETISCHE INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Agenda
MehrEntropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.
Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie
MehrDefinition der Entropie unter Verwendung von supp(p XY )
Definition der Entropie unter Verwendung von supp(p XY ) Wir fassen die Ergebnisse des letzten Abschnitts nochmals kurz zusammen, wobei wir von der zweidimensionalen Zufallsgröße XY mit der Wahrscheinlichkeitsfunktion
MehrZiel der Vorlesung. Gliederung. Literatur 1. 1. Definitionen 2. 1. Definitionen 1. Informations- und Kommunikationssysteme im Gesundheitswesen
Management im Gesundheitswesen Ziel der Vorlesung Informations- und Kommunikationssysteme im Gesundheitswesen Prof. Dr. Anke Häber FB Physikalische Technik/Informatik Sie sollen lernen, was IuK-Systeme
MehrMathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1
Mathematische Grundlagen III Informationstheorie 20 Juni 20 / Informationstheorie Ein Gerüst, um über den Informationsgehalt von (linguistischen) Ereignissen nachzudenken Einige Beispiele für Anwendungen:
MehrRedundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1
Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)
MehrComputergrafik 2: Übung 2. Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung
Computergrafik 2: Übung 2 Subsampling und Moiré-Effekte, Color Maps und Histogrammlinearisierung Inhalt Besprechung von Übung 1 Subsampling und Moiré Effekte Color Maps Histogrammlinearisierung Computergrafik
MehrAsymmetrische Verschlüsselungsverfahren
Asymmetrische Verschlüsselungsverfahren Vorlesung 4 Alexander Koch (Vertretung) FAKULTÄT FÜR INFORMATIK, INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT 2015-11-12 Universität desalexander Landes Baden-Württemberg
MehrTransinstitutionelle Informationssystem-Architekturen in vernetzten kooperativen Versorgungsformen des Gesundheitswesens
Technische Universität Braunschweig Transinstitutionelle Informationssystem-Architekturen in vernetzten kooperativen Versorgungsformen des Gesundheitswesens Von Universität Carolo-Wilhelmina zu zur Erlangung
MehrInformation Modellierung Shannon Fano Praxis. Entropie. Ingo Blechschmidt, Michael Hartmann. 15. November 2006
Information Modellierung Shannon Fano Praxis Ingo Blechschmidt, Michael Hartmann 15. November 2006 Information Modellierung Shannon Fano Praxis Inhalt 1 Information Definition Informationsebenen 2 Mathematische
MehrWir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir
Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht
MehrMolekulare Bioinformatik
Molekulare Bioinformatik Wintersemester 203/204 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 07.0.204 Molekulare Bioinformatik - Vorlesung 0 Wiederhohlung Die Entropie
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Übung 8 Dirk Achenbach 7. Februar 2013 I NSTITUT FÜR K RYPTOGRAPHIE UND S ICHERHEIT KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrBegriffe aus der Informatik Nachrichten
Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung
Mehr(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
MehrAsymmetrische Verschlüsselungsverfahren
Asymmetrische Verschlüsselungsverfahren Vorlesung 4 Alexander Koch (Vertretung) FAKULTÄT FÜR INFORMATIK, INSTITUT FÜR THEORETISCHE INFORMATIK 0 2016-11-10 Alexander Koch Asymmetrische Verschlüsselungsverfahren
Mehr3. Lösungsblatt
TECHNISCHE UNIVERSITÄT DARMSTADT FACHGEBIET THEORETISCHE INFORMATIK PROF JOHANNES BUCHMANN NABIL ALKEILANI ALKADRI Einführung in die Kryptographie WS 7/ 8 3 Lösungsblatt 67 P Matrizen und Determinanten
MehrEinführung Grundbegriffe
Einführung Grundbegriffe 1.1 Der Modellbegriff Broy: Informatik 1, Springer 1998 (2) Die Modellbildung der Informatik zielt auf die Darstellung der unter dem Gesichtspunkt einer gegebenen Aufgabenstellung
MehrSignale und Codes Vorlesung 4
Signale und Codes Vorlesung 4 Nico Döttling December 6, 2013 1 / 18 2 / 18 Letztes Mal Allgemeine Hamming Codes als Beispiel linearer Codes Hamming Schranke: Obere Schranke für k bei gegebenem d bzw. für
MehrInformationstheorie als quantitative Methode in der Dialektometrie
Informationstheorie als quantitative Methode in der Dialektometrie 1 Informationstheorie als quantitative Methode in der Dialektometrie Informationstheorie als quantitative Methode in der Dialektometrie
MehrSeminar Kolmogorovkomplexität. Universität Potsdam Wintersemester 2009/10
Universität Potsdam Wintersemester 2009/10 Kolmogorovkomplexität Kolmogorovkomplexität (auch Algorithmische Komplexität ) ist der zentrale Begriff der Algorithmischen Informationstheorie (AIT). Kombiniert
MehrProf. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert.
Audiotechnik II Digitale Audiotechnik: 8. Tutorium Prof. Dr. Stefan Weinzierl 9.2.23 Musterlösung: 9. Dezember 23, 8:34 Fehlerkorrektur II Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit
MehrWahrscheinlichkeitstheorie. eine Einführung
eine Einführung Antony R. Unwin Lehrstuhl für Rechnerorientierte Statistik und Datenanalyse Institut für Mathematik Universität Augsburg tel: 598-2218 email: unwin@math.augsburg.de Ziele Wahrscheinlichkeitsmodelle
MehrMessprotokoll: Aufnahme der Quantenzufallszahl
Messprotokoll: Aufnahme der Quantenzufallszahl Am 19. Juni 2009 wurden für Max Mustermann um 8:35 Uhr mit Hilfe von einzelnen Photonen 993.097 Zufallszahlen generiert. Der Zufallsgenerator steht im Quantenoptiklabor
MehrTechnische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und
MehrProblem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.
Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester
MehrRelationen und Funktionen
Relationen und Funktionen Relationen und Funktionen Vorkurs Informatik Theoretischer Teil WS 2013/14 2. Oktober 2013 Vorkurs Informatik WS 2013/14 1/27 Relationen und Funktionen > Relationen Relationen
MehrInhalt. 1. Was ist Information 2. Nachrichtentechnische Definition 3. Algorithmische Definition 4. Darstellung in der Informatik
Kapitel 2 Information Information ist der grundlegende Begriff der Informatik. Mehr noch: Der Begriff der Information ist vermutlich das zentrale interdisziplinäre Brückenkonzept der modernen Wissenschaften
MehrInformation und Codierung
Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH Inhalt Vorwort zur 1. Auflage der Originalausgabe
MehrElementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie
Berichte aus der Informationstechnik Klaus-Dieter Thies Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse mit Warteschlangentheorie für Computernetzwerke
Mehr6 Informationsflußkontrolle
6 Informationsflußkontrolle Daten/Informationsfluß bei Lese/Kopiervorgängen aller Art, z.b. von Objekt A nach Objekt B von Person P nach Datei D von Server S zu Klient K usw. alles auch transitiv! Informationsflußkontrolle
MehrStatistische Methoden in der Sprachverarbeitung
' Statistische Methoden in der Sprachverarbeitung Gerhard Jäger 7. Mai 22 Inforationstheorie Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kot ursprünglich aus der Physik:
Mehr1 Informationelle Systeme begriffliche Abgrenzung
1 Informationelle Systeme begriffliche Abgrenzung Im Titel dieses Buches wurde das Wort Softwaresystem an den Anfang gestellt. Dies ist kein Zufall, denn es soll einen Hinweis darauf geben, dass dieser
MehrGTI. Hannes Diener. 18. Juni. ENC B-0123,
GTI Hannes Diener ENC B-0123, diener@math.uni-siegen.de 18. Juni 1 / 32 Als Literatur zu diesem Thema empfiehlt sich das Buch Theoretische Informatik kurzgefasst von Uwe Schöning (mittlerweile in der 5.
MehrPsychologie als Nebenfach
für den Studiengang Informatik Ba/Ma Birte Lindhorst May 8, 2012 1 Psychologie als Wissenschaft Allgemeine Definition (Duden): Psy cho lo gie Wissenschaft von den bewussten u. unbewussten psychischen Vorgängen,
Mehr6: Diskrete Wahrscheinlichkeit
Stefan Lucks Diskrete Strukturen (WS 2009/10) 219 6: Diskrete Wahrscheinlichkeit 6: Diskrete Wahrscheinlichkeit Stefan Lucks Diskrete Strukturen (WS 2009/10) 220 Wahrscheinlichkeitsrechnung Eines der wichtigsten
MehrKlausur Informationstheorie und Codierung
Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte
MehrE-Business-Einführung
Klausur E-Business-Einführung 1/6 16. Februar 2016 E-Business-Einführung, HS-Furtwangen, Fakultät Wirtschaftsinformatik Studiengang: WNB, WS 2015, Klausur, Zeit: 90 Minuten, Punkte: 100 Vorname: Nachname:
MehrStochastische Unabhängigkeit. 01. Dezember 2014
Stochastische Unabhängigkeit 0. Dezember 204 Der Begriff der Unabhängigkeit Großbritannien, im November 999. Die Anwältin Sally Clark wird wegen Mordes an ihren Kindern angeklagt. Clark geriet unter Verdacht
MehrProf. Dr. Rolf Linn
Prof. Dr. Rolf Linn 6.4.5 Übungsaufgaben zu Mathematik Analysis. Einführung. Gegeben seien die Punkte P=(;) und Q=(5;5). a) Berechnen Sie den Anstieg m der Verbindungsgeraden von P und Q. b) Berechnen
MehrKapitel 3: Etwas Informationstheorie
Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens
Mehrzu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6
zu ufgabe 6: a) 3 5 6 7 p( ) p( ) p( 3 ) p( ) p( 5 ) p( 6 ) p( 7 ) = p( 3 ) = p( 3 ) = p( 3 ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = 8 p( ) = p( ) = p( ) = p( ) Lösung: b) binär 8 p(
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Juniorprof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrEinführung in die Wahrscheinlichkeitsrechnung
Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung
MehrDipl.-Ing. Martin Vogel Büro: A2-18 b Telefon: Sprechzeit: dienstags & donnerstags, 13:30-15:30 Uhr
Vorstellung Prof. Dr.-Ing. Gudrun Breitzke Lehrgebiete im Bachelor-Studiengang: Ingenieurinformatik (1. Semester) Mathematik (1. und 2. Semester) CAD (2. Semester) Büro: A2-18 a Telefon: 0234 32-10206
MehrSeminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung
Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft
MehrElementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse. Computer-Netzwerke
Informationstechnik Klaus-Dieter Thies Elementare Einführung in die Wahrscheinlichkeitsrechnung, Informationstheorie und stochastische Prozesse für Computer-Netzwerke Mit einer wahrscheinlichkeitstheoretischen
MehrStochastische Lernalgorithmen
Stochastische Lernalgorithmen Gerhard Jäger 14. Mai 2003 Das Maximum-Entropy-Prinzip Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kommt ursprünglich aus der Physik:
MehrThema: Mittelwert einer Häufigkeitsverteilung. Welche Informationen kann der Mittelwert geben?
Thema: Mittelwert einer Häufigkeitsverteilung Beispiel: Im Mittel werden deutsche Männer 75,1 Jahre alt; sie essen im Mittel pro Jahr 71 kg Kartoffel(-produkte) und trinken im Mittel pro Tag 0.35 l Bier.
MehrZusatz: Einführung in die Mathematischen Beweistechniken
Zusatz: Einführung in die Mathematischen Beweistechniken Quick-Start Informatik Theoretischer Teil WS 11/12 Jens Keppeler 7. Oktober 2011 Das folgende Zusatzskript, sowie die dazugehörigen Folien orientieren
MehrInformationstheorie und Codierung
Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice
MehrGrundbegriffe der Informatik
Grundbegriffe der Informatik Tutorium 1-12. Sitzung Dennis Felsing dennis.felsing@student.kit.edu http://www.stud.uni-karlsruhe.de/~ubcqr/2010w/tut gbi/ 2011-01-24 Überblick 1 Reguläre Ausdrücke Wiederholung
MehrModul BP1 Grundlagen der Informations- und Kommunikationstechnologie Vorlesung
Grundlagen der Informations- und Kommunikationstechnologie 1 / 6 Modul BP1 Grundlagen der Informations- und Kommunikationstechnologie Vorlesung Hinweise zum Modul BP1 "Der Urquell aller technischen Errungenschaften
MehrInformationssicherheit III
Zufall im Rechner Präsentation im Rahmen der Lehrveranstaltung Informationssicherheit III WS 2001/2002 Jochen Rondorf 17.01.2002 Zufall im Rechner WS 2001/02 1 Agenda Arten von Zufall Anwendungsgebiete
MehrSS 2017 Torsten Schreiber
173 Diese Lücken sollten nicht auch bei Ihnen vorhanden sein: Wird die Anordnung von unterschiedlichen Objekten eines Experiments untersucht, so handelt es sich um eine. Möchte man die Anzahl der möglichen
MehrMolekulare Bioinformatik
Molekulare Bioinformatik Wintersemester 2013/2014 Prof. Thomas Martinetz Institut für Neuro- und Bioinformatik Universität zu Luebeck 14.01.2014 1 Molekulare Bioinformatik - Vorlesung 11 Wiederholung Wir
MehrDynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
MehrPraktikum Digitaltechnik
dig A) Vorbereitungsaufgaben: 1) Ermitteln Sie anhand der gegebenen zwei Blockschaltbilder die Schaltgleichungen und vereinfachen Sie weitmöglich! y 1 =(/(/(x 0 x 1 )/(x 0 +x 1 )))+(/(/(x 0 x 1 )+/(x 0
MehrDokument Klassifikation. Thomas Uhrig: Data-Mining SS10
Agenda: 1: Klassifizierung allgemein 2: der naive Bayes-Klassifizierer 3: Beispiel 4: Probleme 5: Fazit 6: Quellen 1: Klassifizierung allgemein: 1: Klassifizierung allgemein: - Einordnung von Objekten
MehrGrundlagen der Informationsverarbeitung:
Grundlagen der Informationsverarbeitung: Einleitung Prof. Dr.-Ing. habil. Ulrike Lucke Durchgeführt von Prof. Dr. rer. nat. habil. Mario Schölzel Maximaler Raum für Titelbild (wenn kleiner dann linksbündig
MehrPredigt an Rogate 2016 Übers beten oder: Die Sache mit der Flaschenpost
Predigt an Rogate 2016 Übers beten oder: Die Sache mit der Flaschenpost I. Berechtigte Zweifel In regelmäßigen Abständen liest man in der Kuriositätensparte von Zeitschriften, wie eine Flaschenpost nach
MehrRelationen und Funktionen
Relationen und Funktionen Relationen und Funktionen Quick Start Informatik Theoretischer Teil WS2011/12 11. Oktober 2011 Relationen und Funktionen > Relationen Relationen Relationen und Funktionen > Relationen
MehrInformationssysteme im Gesundheitswesen - VO
Informationssysteme im Gesundheitswesen - VO 2011 - Vorbesprechung 8. März 2011 Univ.Prof. DI Dr. Thomas Grechenig Dr. Barbara Tappeiner Dr. Anna Wujciow INSO - Industrial Software Institut für Rechnergestützte
Mehr1.3 Messung und Nutzen von Information
1. Was ist Information? 1.1 Bedeutung der Information für Wirtschaft und Gesellschaft 1.2 Begriffliche Annäherung 1.3 Messung und Nutzen von Information 1 Was ist Information Folie: 1 / 1.1 / 0 1.1 Bedeutung
MehrOptimalcodierung. Thema: Optimalcodierung. Ziele
Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.
MehrHerzlich willkommen zur Lehrveranstaltung. Einführung Geoinformatik
Herzlich willkommen zur Lehrveranstaltung Einführung in die Geoinformatik Aus dem Verzeichnis der Lehrveranstaltungen: Halbmodul: Einführung in die Geo-Informatik Zugelassen für: Master-Studiengang Bereich:
MehrEinführung in die Informatik
Einführung in die Informatik 01101101 01011001 11010011 10011000 00000011 00011100 01111111 11111111 00110100 00101110 11101110 01110010 10011101 00111010 2 Lehrziel und Inhalt Überblick über die Informatik;
MehrEinführung. 1 Vektoren
Einführung Die Vektorgeometrie beschreibt geometrische Sachverhalte in einer algebraischen Sprache. Sie gibt uns ein mathematisches Hilfsmittel in die Hand, mit welchem wir Geometrie nicht nur konstruktiv
MehrSTATISTIK I Übung 04 Spannweite und IQR. 1 Kurze Wiederholung. Was sind Dispersionsparameter?
STATISTIK I Übung 04 Spannweite und IQR 1 Kurze Wiederholung Was sind Dispersionsparameter? Die sogenannten Dispersionsparameter oder statistischen Streuungsmaße geben Auskunft darüber, wie die Werte einer
MehrProseminar String Matching
Proseminar Textsuche Proseminar String Matching PD Dr. habil. Hanjo Täubig Lehrstuhl für Theoretische Informatik (Prof. Dr. Susanne Albers) Institut für Informatik Technische Universität München Wintersemester
MehrHermann Korte Bernhard Schäfers (Hrsg.) Einführung in Hauptbegriffe der Soziologie
Hermann Korte Bernhard Schäfers (Hrsg.) Einführung in Hauptbegriffe der Soziologie Einführungskurs Soziologie Band 1 Herausgegeben von Hermann Korte und Bernhard Schäfers Die weiteren Bände: Band 2: Hermann
MehrProseminar WS 2002/2003
Technische Universität Chemnitz Fakultät für Informatik Professur Theoretische Informatik Proseminar WS 2002/2003 Thema: Datenkompression Dynamisches / Adaptives Huffman-Verfahren Danny Grobe Rainer Kuhn
MehrMusterlösung: 11. Dezember 2014, 10:43. Informationstheorie und Entropiekodierung
Audiotechnik II Digitale Audiotechnik: 8. Übung Prof. Dr. Stefan Weinzierl 11.12.2014 Musterlösung: 11. Dezember 2014, 10:43 Informationstheorie und Entropiekodierung Bei der Entropiekodierung werden die
MehrDigitaltechnik I WS 2006/2007. Klaus Kasper
Digitaltechnik I WS 2006/2007 Klaus Kasper Studium 6 Semester 5. Semester: Praxissemester im Anschluss: Bachelorarbeit 6. Semester: WPs Evaluation der Lehre Mentorensystem 2 Organisation des Studiums Selbständigkeit
MehrÜbungsblatt Nr. 7. Lösungsvorschlag
Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nico Döttling Dirk Achenbach Tobias Nilges Vorlesung Theoretische Grundlagen der Informatik Übungsblatt Nr. 7 svorschlag Aufgabe (K)
MehrDas Zweikinderproblem
Das Zweikinderproblem Definition Zweikinderproblem Eine Familie besitzt zwei Kinder. Wie groß ist die Wahrscheinlichkeit Pr[ Beide Kinder sind Mädchen. Eines der Kinder ist ein Mädchen ]? Lösung: Sei A
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
MehrDie komplementären Wirbel der Wirbelsäule
Kapitel 1 Die komplementären Wirbel der Wirbelsäule Wie viele Entdeckungen hat auch dieses Buch oder besser gesagt diese ganze Wirbelsäulen-Regenerations-Methode mit einem Zufall angefangen. Und wie es
MehrEinführung in die Modellierung mit dem 3LGM²-Baukasten
Einführung in die Modellierung mit dem 3LGM²-Baukasten Übung 1 Franziska Jahn 26.11.08 Institut für Medizinische Informatik, Statistik und Epidemiologie Ablauf Wozu Modellierung von KIS? Definitionen (Modell,
MehrInformatik an der Ruprecht-Karls-Universität Heidelberg
Informatik an der Ruprecht-Karls-Universität Heidelberg http://www.informatik.uni-heidelberg.de/ Oktober 2014 Heidelberg Heidelberg ist eine der am häufigsten besuchten Städte Deutschlands Außer durch
MehrDiskrete Strukturen WS 2010/11. Ernst W. Mayr. Wintersemester 2010/11. Fakultät für Informatik TU München
WS 2010/11 Diskrete Strukturen Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2010ws/ds/ Wintersemester 2010/11 Diskrete Strukturen Kapitel 0 Organisatorisches Vorlesungen:
MehrCODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.
MehrInterdisziplinäre Fachdidaktische Übung: Kommunikation in der Informatik
Interdisziplinäre Fachdidaktische Übung: Kommunikation in der SS 2014: Grossmann, Jenko 1 Kommunikationsprozess in der Sender Kanal Empfänger Wer ist Sender? Mensch oder Maschine Wer ist Empfänger? Mensch
MehrVorlesung Netzwerkcodierung
Sommersemester 2010 Organisation Im Internet: http://www.ifn.et.tu-dresden.de/tnt/lehre/vl/nwcod Vorlesungen finden wöchentlich statt: Donnerstag, 5. DS, BAR 213 Übungen finden 2-wöchentlich statt: Freitag,
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
Mehr