i Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit.

Ähnliche Dokumente
Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.

Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1

Kapitel 9: Informationstheorie. 2. Entropie

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele

Grundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1

Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.

(Prüfungs-)Aufgaben zur Codierungstheorie

Kapitel 7: Optimalcodierung und Huffman Coding

Einführung in die Informatik II Aus der Informationstheorie: Datenkompression

Digitale Medien. Übung

Theoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK

Übung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider

Übungsaufgaben zur Vorlesung Quellencodierung

Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch

3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.

Informatik I WS 07/08 Tutorium 24

3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238

Digitale Medien. Übung

Kryptographie und Datensicherheit. Universität Potsdam Institut für Informatik Almahameed Ayman

2. Digitale Codierung und Übertragung

Molekulare Bioinformatik

Informationsgehalt einer Nachricht

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen

Informationstheorie und Codierung

Übung zur Vorlesung Digitale Medien. Doris Hausen Ludwig-Maximilians-Universität München Wintersemester 2010/2011

Zusammenfassung ICTh Informations- und Codierungstheorie

Vorlesung 12. Quellencodieren und Entropie

Musterlösung: 11. Dezember 2014, 10:43. Informationstheorie und Entropiekodierung

Kapitel 2 Quellencodierung

Musterlösung zur Aufgabe A1.1

Stochastische Lernalgorithmen

Vorlesung 15a. Quellencodieren und Entropie

Labor für. Quelle. Gruppe: Datum: Matr.-Nr.: Matr.-Nr.: Matr.-Nr.: Name: Sommersemester 2017

Optimalcodierung. Thema: Optimalcodierung. Ziele

Seite 2 Information = Unsicherheit e Info (e) := - log p(e) Info ( A und B) = Info (A) + Info (B) Definition: = Info (nie eintretendes Ereignis) eines

A1.1: Wetterentropie. mit dem Logarithmus dualis

Inhalt. 1. Was ist Information 2. Nachrichtentechnische Definition 3. Algorithmische Definition 4. Darstellung in der Informatik

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1

Theoretische Grundlagen der Informatik

TGI-Übung Dirk Achenbach

Formelsammlung. Wahrscheinlichkeit und Information

1 Informationsverarbeitung & Wahrscheinlichkeitsrechnung Informationsverarbeitung Wahrscheinlichkeitsrechnung... 2.

Vorlesung 13b. Relative Entropie

Definition Information I(p)

Klausur Informationstheorie und Codierung

Einleitung. Kapitel 1

Einführung in die medizinische Bildverarbeitung WS 12/13

Übung zur Vorlesung. Informationstheorie und Codierung

Praktikum Digitaltechnik

2 Informationstheorie

Modul 1: Einführung und Wahrscheinlichkeitsrechnung

Übung 13: Quellencodierung

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

Technische Informatik - Eine Einführung

2.7 Der Shannon-Fano-Elias Code

12. Übung TGI. (mit Teil 2 der 11. Übung) Lorenz Hübschle-Schneider, Tobias Maier INSTITUT FÜR THEORETISCHE INFORMATIK, PROF.

Grundlagen der Nachrichtentechnik 4

Algorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen

Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir

Informationsdarstellung. 2 Informationsdarstellung. Ziele. 2 Informationsdarstellung Texte. Texte WS 2017/2018

Theoretische Grundlagen der Informatik

Klausur zur Vorlesung Informationstheorie

Theoretische Grundlagen der Informatik

Grundlagen der Technischen Informatik. 3. Übung

Unsicherheit * M RS = 6

2. Digitale Codierung und Übertragung

16 - Kompressionsverfahren für Texte

Übungsblatt Nr. 7. Lösungsvorschlag

Farb-Fernsehsignal (Composite FBAS)

Einführung in die Medizinische Informatik

zu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6

Effiziente Algorithmen und Komplexitätstheorie

Prof. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert.

Unabhängigkeit KAPITEL 4

Mathematische Grundlagen III

2. Digitale Codierung und Übertragung

Theoretische Grundlagen der Informatik

Seminararbeit: Information einer Verteilung

3 Zahlen und Arithmetik

Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur

Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi

Fachprüfung. Nachrichtencodierung

Kapitel 2: Informationstheorie. 3. Quellencodierung

Definition Information I(p)

Probeklausur Digitale Medien

6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N. 6.1 von wörtern zu zahlen und zurück Dezimaldarstellung von Zahlen Num 10

Signale und Logik (2)

6 Informationsflußkontrolle

Kompressionsverfahren für Texte

Einführung in die Informatik

Informationstheorie und Codierung

Datenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut

9.4 Sicherheit von Verschlüsselungsverfahren

Informationsdarstellung. 2 Informationsdarstellung. Ziele. 2 Informationsdarstellung Texte. Texte WS 2018/2019

Transkript:

1

2

Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman, Lempel Ziv sowie einige kryptologische Verfahren. Ziel: Sie haben die grundlegenden Verfahren und Ansätze zur Informationstheorie und Quellenkodierung verstanden und können diese anhand von Beispielrechnungen erklären und anwenden. 3

Die Quelle hat eine endliche Menge von Zeichen, z.b.: a,b,c,d. Produzieren kann die Quelle unendlich viele Zeichen dieser Menge, dabei werden die Zeichen i.d.r. unterschiedlich oft erzeugt, d.h. jedes Zeichen hat eine bestimmte Auftrittswahrscheinlichkeit Die Senke muss über den gleichen Zeichenvorrat verfügen, da ansonsten keine Interpretation der Zeichen möglich ist. Ein unbekanntes Zeichen ist irrelevant. Kommt nur ein einziges Zeichen vor ( Dauerton ), so ist dieses Zeichen redundant, da es sicher vorhersagbar ist, es enthält also keine Information. Umgekehrt lässt sich daraus schliessen, ein Zeichen, dass sehr selten auftritt, hat eine hohe Information oder anders gesagt der Informationsgehalt I eines Zeichen scheint intuitiv umgekehrt proportional seiner Auftrittswahrscheinlichkeit zu sein: I 1 P ( x i ) Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit. 4

5

6

7

8

9

10

11

12

13

14

15

Basis für die Definition des Entscheidungsgehalt ist die Idee der Elementarentscheidung. Eine Elementarentscheidung ist eine zweiwertige ja/nein (0/1)Entscheidung. Zwei Zeichen können mit einem Bit codiert bzw. unterschieden werden. Sind N Zeichen zu Unterscheiden, sind lbn Bit erforderlich lb: Logarithmus binär oder ld: Logarithmus dualis (Logarithmus zur Basis 2) Der Entscheidungsgehalt ist eine definierte Grösse und kann auch ungerade Werte annehmen. Der Entscheidungsgehalt von 5 Zeichen ist geringer als von 7 Zeichen obwohl zur Realisierung natürlich 3 Bit erforderlich wären. Damit wären dann aber 8 Zeichen unterscheidbar. Aus dem Grund unterscheid wir zwischen den abstrakten Informationsgrössen und den konkreten Codewortlängen L, die nur ganzzahlige Grössen annehmen können, Berechnen des lb N? x x N = 2 log N = log2 = x log2 Beispiele: log N x = = lbn log2 16

Wie bereits vorher intuitiv definiert, war der Informationsgehalt eines Zeichen umgekehrt proportional zu seiner Auftrittswahrscheinlichkeit. Da dieser Wert in notwendigen Elementarentscheidungen, also Bit, gemessen wird. ist der Lb zu berechnen Sind alle Zeichen gleich wahrscheinlich gilt ferner P(x) = 1/N und somit I = lbn was wieder dem Entscheidungsgehalt H 0 entspricht Der mittleren Informationsgehalt ist die gewichtete Summe der Informationseinheiten I i wobei x i /N der Wahrscheinlichkeit p(xi) entspricht Beispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind. 17

0 H(x) H 0 : Interpretation H(x) ist maximal, wenn alle Zeichen gleich wahrscheinlich sind. Dann ist H 0 = H(x) und die Redundanz der Quelle ist Null, d.h. eine Kompression kann nicht erfolgen. Je kleiner H(x) ist, um so grösser ist die Redundanz der Quelle, d.h. um so grösser ist eine mögliche Kompression Frage, wann kann die Redundanz einer Quelle gleich null werden und was bedeutet das für die Entropie? 18