Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines

Ähnliche Dokumente
Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

Das Ziegenproblem. Nils Schwinning und Christian Schöler Juni 2010

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Information und Codierung

Begriffe aus der Informatik Nachrichten

Es werden 120 Schüler befragt, ob sie ein Handy besitzen. Das Ergebnis der Umfrage lautet: Von 120 Schülern besitzen 99 ein Handy.

(Prüfungs-)Aufgaben zur Codierungstheorie

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung

Discrete Probability - Übungen (SS5) Wahrscheinlichkeitstheorie. 1. KR, Abschnitt 6.1, Aufgabe 5: 2. KR, Abschnitt 6.1, Aufgabe 7:

2 Informationstheorie

Kapitel 6. Kapitel 6 Mehrstufige Zufallsexperimente

Unabhängigkeit KAPITEL 4

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.

6.2 Perfekte Sicherheit

4. Die Laplacesche Gleichverteilung


Erwartungswert, Varianz und Standardabweichung einer Zufallsgröße. Was ist eine Zufallsgröße und was genau deren Verteilung?

Informationstheorie und Codierung

Kinga Szűcs

Mathematik für Biologen

Informationstheorie als quantitative Methode in der Dialektometrie


Dynamisches Huffman-Verfahren

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Wahlfach Mathematik: Stochastik. 1. Einführungsbeispiele. a. Hüte-Kleider-Schuhe-Aufgabe

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

Codierung. H.-G. Hopf

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Die Mathematik in der CD

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Stochastische Lernalgorithmen

Kapitel 3: Etwas Informationstheorie

Einführung in die Kodierungstheorie

3. Kombinatorik und Wahrscheinlichkeit

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele

Kinga Szűcs

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen

Satz 16 (Multiplikationssatz)

Run Length Coding und Variable Length Coding

Das Zweikinderproblem

Einführung in die Wahrscheinlichkeitsrechnung

2. Digitale Codierung und Übertragung

Wahrscheinlichkeitstheorie

Einführung Grundbegriffe

Mathematik für Biologen

Satz 18 (Satz von der totalen Wahrscheinlichkeit)

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

4 Diskrete Wahrscheinlichkeitsverteilungen

(Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!)

15 Wahrscheinlichkeitsrechnung und Statistik

Modelle der Kommunikation. 1. Technisches Kommunikationsmodell Shannon&Weaver 2. Eisbergmodell Sigmund Freud 3. 4 Seiten Modell Schulz von Thun

Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* aller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt:

Vorkurs Mathematik für Informatiker Kombinatorik --

28 4. DIE MATHEMATIK HINTER DER COMPACT DISC. Abbildung 4.1: Selbstkorrigierende Codes

Formelsammlung. Wahrscheinlichkeit und Information


Sudoku. Warum 6? Warum 6?

Kanalkapazität. Grundlagen der Rechnernetze Physikalische Schicht 25

Technische Universität München

Vorkurs Mathematik und Informatik Mengen, natürliche Zahlen, Induktion

2.2 Ereignisse und deren Wahrscheinlichkeit

Didaktik der Stochastik

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Rechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir?

Kombinatorik. Additions- und Multiplikationsgesetz

Übung zur Vorlesung Multiagentensysteme

1. Information INFORMATION: (informare = Gestalt geben) Nachrichten (Botschaften, Zustandsmeldungen...) und deren Sinngehalte

Wahrscheinlichkeit und Zufall

5 Zwei spieltheoretische Aspekte

Prof. Dr. Rolf Linn

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Mathematische Grundlagen III

P A P( A B) Definition Wahrscheinlichkeit

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

11 Unabhängige Ereignisse

15 Optimales Kodieren

Stochastik I. Vorlesungsmitschrift

Kinga Szűcs Friedrich-Schiller-Universität Jena Fakultät für Mathematik und Informatik Abteilung Didaktik

Codierungstheorie. Code-Arten und Code-Sicherung

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

Welcher der folgenden Sätze ist eine Aussage, welcher eine Aussageform, welcher ist keines von beiden:

Randomisierte Algorithmen

Dr. H. Grunert Einführung in die Wahrscheinlichkeitsrechnung Vorlesungscharts. Vorlesung 1. Grundbegriffe der Wahrscheinlichkeitsrechnung

Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme

Wahrscheinlichkeitsrechnung für die Mittelstufe

Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14

Digital Signal Processing

Diskrete Strukturen WiSe 2012/13 in Trier

Wirtschaftsstatistik I [E1]

Probleme und Möglichkeiten der Behandlung der bedingten Wahrscheinlichkeit

Statistik Einführung // Wahrscheinlichkeitstheorie 3 p.2/58

Schriftlicher Test Teilklausur 2

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Huffman-Kodierung. Fachbereich Medieninformatik. Hochschule Harz. Huffman-Kodierung. Referat. Henner Wöhler. Abgabe:

Transkript:

Seite 1 Georg-August-Universität Göttingen Robert Schaback Zum Begriff der Information in Mathematik und Informatik

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines Ereignisses Info (immer eintretendes Ereignis) = 0 Info(e) Forderungen: Information

Seite 3 Gleichwahrscheinliche N Ereignisse: (ein Bit) Info(Einzelereignis) = log2 N Info (Sechs) = - log2 (1/6) = log2 6 = 2.585 Würfeln: e Info (Kopf) = - log2 p (Kopf) = - log2 (½) = 1 Info(e) := - log2 p(e) eines Ereignisses Münzwurf: Beispiele: Information

Seite 4 Datenübertragung mit 3 Bits an Küche möglich Entropie = 3, falls alle Speisen gleich wahrscheinlich gewählt werden Beispiel: Speisekarte mit 8=23 Speisen Auf Anraten von John von Neumann nennt Shannon diese Funktion Entropie Erwartungswert der Information unter Einbeziehung aller Möglichkeiten H(E) := - i p( ei ) * log p( ei ) Informationsgehalt einer Menge E alternativer Ereignisse ei mit Wahrsch. p( ei )

L( ei ) c (- log2 p( ei )) ist optimal Seite 5 Informationsverlust bei Zeichenübertragung auf gestörtem Kanal Anwendung in der Nachrichtenübertragung L := Entropie-Codierung: Erwartungswert für mittlere Codelänge pro Zeichen: Entropie: L( ei ) = Länge des Codes für Ereignis ei i p( ei ) * L( ei ) H(E) := - i p( ei ) * log2 p( ei ) Häufige Zeichen kurz codieren, seltene lang codieren Anwendung in der Codierung

spezielle Ereignisse werden verstanden als Auftreten von Zeichen Kommunikation als Übertragung von Zeichenfolgen es gibt keine Bedeutung von Ereignissen oder Zeichenfolgen Seite 6 es geht nur um formale Ereignisse und Wahrscheinlichkeiten Eigenschaften der mathematischen Informationsdefinition:

Seite 7 Übergang zur Informatik Definitionen, Sätze, Beweise als Sprachsätze, die Information enthalten Information als Methode in der Mathematik Jetzt: Information als Gegenstand in der Mathematik Bisher:

Information Musik Bilder Seite 8 Texte Beispiele: Die Form der Nachricht ist eine Raumzeitstruktur des Signals Der Träger besteht aus einem Signal auf einem Medium Nachrichten haben Träger und Form Nachricht Interpretation Information ist das Ergebnis der Interpretation einer Nachricht Information in der Informatik

Information Seite 9 Beispiel: Musik Deshalb gibt es Information über Form und Inhalt einer Nachricht Interpretation kann auf Form- und Inhaltsebene geschehen Beispiel: Koalitionsvertrag, Zeitungsberichte Information hängt vom Interpretationsprozeß und dem Interpretierenden ab Information setzt Interpretation voraus Nachricht Interpretation Information ist das Ergebnis der Interpretation einer Nachricht Information in der Informatik

Seite 10 Eine Nachricht

Seite 11 H(E) := - i p( ei ) * log2 p( ei ) Information (KetteN) / N Information (KetteN) N * H(E) -log2 p(ketten) -log2 ( p( e1 )N p( e1 ) * p( e2 )N p( e2 ) * * * * * p( em )N p( em ) ) p(ketten) p( e1 )N p( e1 ) * p( e2 )N p( e2 ) * * * * * p( em )N p( em ) Lange Zeichenkette mit N Zeichen hat das Zeichen ei etwa N p( ei ) mal mit einer Wahrscheinlichkeit p( ei ) angesehen Jedes Zeichen wird als Ereignis ei Informationsgehalt einer Zeichenfolge

(Lao Tse) Seite 12 Es wäre kein ewiger Name. Könnten wir nennen den Namen, Es wäre kein ewiger Weg. Könnten wir weisen den Weg, Tao Te King

Info (e) := - log2 p( e ) Information Seite 13 Information auf vielen Ebenen: u.a. formal und inhaltlich Modell: Interpretationsprozeß als Abtastvorgang, Ergebnis = Information Nachricht Interpretation Information ist das Ergebnis der Interpretation einer Nachricht Informatik: Modell: Zufallsauswahl von Ereignissen aus einer Ereignismenge Information wird über Wahrscheinlichkeit von Ereigissen definiert Mathematik: Zusammenfassung