Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch
|
|
- Lukas Kramer
- vor 6 Jahren
- Abrufe
Transkript
1 Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch
2 . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information Informationsübertragung Datenkompression Kodierung Claude Shannon (96 200) Quelle: -2-
3 2. Überblick Informationsübertragung Informationsquelle Informationsziel Quellenkodierung Quellendekodierung Kanalkodierung Kanaldekodierung Kanal Störung -3-
4 2. Überblick Wichtige Fragestellungen Informationsquelle Informationsziel Quellenkodierung Quellendekodierung Kanalkodierung Kanaldekodierung Was ist Information? Wie kann man Information messen? Kanal Störung -4-
5 2. Überblick Wichtige Fragestellungen Informationsquelle Informationsziel Quellenkodierung Quellendekodierung Kanalkodierung Kanaldekodierung Kanal Störung Wie können Daten komprimiert werden? Wie viel Speicher wird mindestens benötigt? Ist es möglich Daten verlustfrei zu komprimieren? -5-
6 2. Überblick Wichtige Fragestellungen Informationsquelle Informationsziel Quellenkodierung Quellendekodierung Kanalkodierung Kanaldekodierung Kanal Störung Wie können Übertragungsfehler entdeckt werden? Ist es möglich sie zu korrigieren? Wie viel Daten passen durch einen Übertragungskanal? -6-
7 3. Information Informationsübertragung Informationsquelle Informationsziel Quellenkodierung Quellendekodierung Kanalkodierung Kanaldekodierung Kanal Störung -7-
8 3. Information Das Wort Information wird in dieser Theorie in einem besonderen Sinn verwendet, der nicht mit dem gewöhnlichen Gebrauch verwechselt werden darf. Insbesondere darf Information nicht der Bedeutung gleichgesetzt werden. [...] Tatsächlich können zwei Nachrichten, von denen die eine von besonderer Bedeutung ist, während die andere bloßen Unsinn darstellt, in dem von uns gebrauchten Sinn genau die gleiche Information enthalten. Shannon & Weaver (949) -8-
9 3. Information PRÜFUNG BESTANDEN TNGDR PNASUNEBFÜE -9-
10 3. Information PRÜFUNG BESTANDEN TNGDR PNASUNEBFÜE Beide Nachrichten haben denselben Informationsgehalt! - 0 -
11 3. Information Der Shannon-Informationsgehalt Spieler A wählt eine Spielkarte Spieler B soll diese durch Ja-Nein -Fragen erraten Optimale Strategie: Herz Rot Karo Kreuz Schwarz Pik - -
12 3. Information Der Shannon-Informationsgehalt Wahrscheinlichkeit ja zu erhalten: p j = 2 Def. Informationsgehalt [bit]: h x =ld p x - 2 -
13 3. Information Der Shannon-Informationsgehalt Wahrscheinlichkeit ja zu erhalten: p j = 2 Def. Informationsgehalt [bit]: h x =ld p x h j =ld =ld 2= p j Antwort = bit 5 Antworten = 5 bit - 3 -
14 3. Information Der Shannon-Informationsgehalt Informationsgehalt einer naiven Strategie: 32 h n =ld =0,0458 bit 3 3 h 2 n =ld =0,0473 bit
15 3. Information Der Shannon-Informationsgehalt Informationsgehalt einer naiven Strategie: 6 i= hi n = bit Kein Treffer nach 6 Fragen: 6 =4 bit Treffer bei 7. Frage: h7 j =ld - 5 -
16 3. Information Der Shannon-Informationsgehalt Informationsgehalt einer naiven Strategie: 6 i= hi n = bit Kein Treffer nach 6 Fragen: 6 =4 bit Treffer bei 7. Frage: h7 j =ld Treffer bei. Frage: h j =ld 32 =5 bit - 6 -
17 3. Information Die Entropie entspricht dem durchschnittlichen ShannonInformationsgehalt: H X = x p x h x = x p x ld p x = x p x ld p x Einheit: bit - 7 -
18 3. Information Die Entropie X = {a, b, c, d} x p(x) a 0,5 b c d 0,25 0,25 0,25-8 -
19 3. Information Die Entropie X = {a, b, c, d} x p(x) a 0,5 b c d 0,25 0,25 0,25 h x =ld p x h a =ld 2= h b =ld 4=2 h c =h d =ld 8=3-9 -
20 3. Information Die Entropie X = {a, b, c, d} h x =ld p x x p(x) a 0,5 b c d 0,25 0,25 0,25 H X = x p x ld p x h a =ld 2= = h b =ld 4=2 4 = =,75 8 h c =h d =ld 8=3-20 -
21 3. Information Die Entropie Quelle:
22 3. Information Die Entropie Quelle: Quelle:
23 3. Information Die gemeinsame Entropie H(X,Y) Für unabhängige Variablen X, Y H(X) H(Y) H(X,Y) = H(X) + H(Y)
24 3. Information Die gemeinsame Entropie H(X,Y) Für abhängige Variablen X, Y H(X)
25 3. Information Die gemeinsame Entropie H(X,Y) Für abhängige Variablen X, Y H(X) H(Y)
26 3. Information Die gemeinsame Entropie H(X,Y) Für abhängige Variablen X, Y H(X) H(Y) H(X,Y) < H(X) + H(Y)
27 3. Information Die bedingte Entropie H(Y X) H(Y X) bezeichnet die Entropie von Y unter Kenntnis von X H(Y X)
28 3. Information Die gemeinsame Entropie H(X,Y) Für abhängige Variablen X, Y H(X) H(Y) H(X,Y) < H(X) + H(Y)
29 3. Information Die gemeinsame Entropie H(X,Y) Für abhängige Variablen X, Y H(X) H(Y X) H(X,Y) < H(X) + H(Y) H(X,Y) = H(X) + H(Y X) = H(Y) + H(X Y)
30 3. Information Die gemeinsame Entropie H(X,Y) Für abhängige Variablen X, Y H(X Y)? H(Y X) H(Y) H(X) H(X,Y)
31 3. Information Die wechselseitige Information I(X;Y) I(X;Y) bezeichnet die Information, die von X und Y geteilt wird H(X Y) I(X;Y) H(Y X) H(Y) H(X) H(X,Y) Maß für die Abhängigkeit der Variablen - 3 -
32 3. Information Zusammenfassung Shannon-Informationsgehalt eines Ereignisses h x =ld p x Entropie: Selbstinformation einer Variablen X H X = x p x ld p x Bedingte Entropie, Wechselseitige Information H(X Y) I(X;Y) H(Y X)
33 4. Quellenkodierung Informationsübertragung Informationsquelle Informationsziel Quellenkodierung Quellendekodierung Kanalkodierung Kanaldekodierung Kanal Störung
34 4. Quellenkodierung Quellenkodierung Ziel: Reduktion des Speicherbedarfs einer gegebenen Datenmenge Datenkompression Vorgehen: Suchen einer kompakteren Repräsentation der Daten Kodierung
35 4. Quellenkodierung Grundbegriffe Alphabet A Wörter A* Codewort c(aba) = 00 durchschnittliche Wortlänge L Redundanz Information mehrfach enthalten Weglassen ohne Informationsverlust
36 4. Quellenkodierung Verlustbehaftete Kompression Informationen weglassen, die selten auftreten... nur wenig wahrgenommen werden... irrelevant sind Daten nicht (originalgetreu) wiederherstellbar
37 4. Quellenkodierung Verlustbehaftete Kompression x p(x) X = {a, b, c, d} mögliche Darstellung: c(a) = 00 c(b) = 0 c(c) = 0 c(d) = a 0,5 b c d 0,25 0,25 0,
38 4. Quellenkodierung Verlustbehaftete Kompression x p(x) X = {a, b, c, d} mögliche Darstellung: a 0,5 b c d 0,25 0,25 0,25 komprimierte Darstellung: c(a) = 00 c(a) = 0 c(b) = 0 c(b) = c(c) = 0 c(c) = - c(d) = c(d) =
39 4. Quellenkodierung Verlustbehaftete Kompression x p(x) X = {a, b, c, d} mögliche Darstellung: a 0,5 b c d 0,25 0,25 0,25 komprimierte Darstellung: c(a) = 00 c(a) = 0 c(b) = 0 c(b) = c(c) = 0 c(c) = - c(d) = c(d) = - L = 2, δ = 0 L =, δ = 0,
40 4. Quellenkodierung Verlustbehaftete Kompression Übertragung des Durchschnitts Bildpunkte: 00% Quelle:
41 4. Quellenkodierung Verlustbehaftete Kompression Übertragung des Durchschnitts Bildpunkte: 00% % - 4 -
42 4. Quellenkodierung Verlustbehaftete Kompression Übertragung des Durchschnitts Bildpunkte: 00% % 0,25%
43 4. Quellenkodierung Verlustbehaftete Kompression Übertragung des Durchschnitts Bildpunkte: 00% % 0,25% 0,%
44 4. Quellenkodierung Verlustbehaftete Kompression Übertragung des Durchschnitts Bildpunkte: 00% % 0,25% 0,% 0,06%
45 4. Quellenkodierung Verlustbehaftete Kompression Übertragung des Durchschnitts Bildpunkte: 00% % 0,25% 0,% 0,06% 0,04%
46 4. Quellenkodierung Verlustfreie Kompression Daten weglassen, die keine weiteren Informationen enthalten... redundant sind Daten originalgetreu wiederherstellbar
47 4. Quellenkodierung Verlustfreie Kompression Ansatz: Kürzere Codewörter für häufige Zeichen
48 4. Quellenkodierung Verlustfreie Kompression Ansatz: Kürzere Codewörter für häufige Zeichen x p(x) X = {a, b, c, d} mögliche Darstellung: c(a) = 00 c(b) = 0 c(c) = 0 c(d) = a 0,5 b c d 0,25 0,25 0,
49 4. Quellenkodierung Verlustfreie Kompression Ansatz: Kürzere Codewörter für häufige Zeichen x p(x) X = {a, b, c, d} mögliche Darstellung: a 0,5 b c d 0,25 0,25 0,25 optimierte Darstellung: c(a) = 00 c(a) = 0 c(b) = 0 c(b) = 0 c(c) = 0 c(c) = 0 c(d) = c(d) =
50 4. Quellenkodierung Verlustfreie Kompression Ansatz: Kürzere Codewörter für häufige Zeichen x p(x) X = {a, b, c, d} mögliche Darstellung: a 0,5 b c d 0,25 0,25 0,25 optimierte Darstellung: c(a) = 00 c(a) = 0 c(b) = 0 c(b) = 0 c(c) = 0 c(c) = 0 c(d) = c(d) = L = 2, δ = 0 L =,75, δ =
51 4. Quellenkodierung Verlustfreie Kompression Was ist die optimale Länge eines Codewortes? Wann ist ein Code optimal? - 5 -
52 4. Quellenkodierung Verlustfreie Kompression Was ist die optimale Länge eines Codewortes? Wann ist ein Code optimal? Shannons Source Coding Theorem: H(X) L
53 4. Quellenkodierung Verlustfreie Kompression Was ist die optimale Länge eines Codewortes? Wann ist ein Code optimal? Shannons Source Coding Theorem: H(X) L < H(X)
54 4. Quellenkodierung Huffman Code x p(x) a 0,5 b c d 0,25 0,25 0,
55 4. Quellenkodierung Huffman Code x p(x) a 0,5 b c d 0,25 0,25 0,25 0,25 0,25 c 0,25 d
56 4. Quellenkodierung Huffman Code x p(x) a 0,5 b c d 0,25 0,25 0,25 0,5 0,25 0,25 b c d
57 4. Quellenkodierung Huffman Code x p(x) 0,5 a 0,5 b c d 0,25 0,25 0,25 0,5 a b c d
58 4. Quellenkodierung Huffman Code x p(x) 0 a 0,5 b c d 0,25 0,25 0,25 a 0 b 0 c d
59 4. Quellenkodierung Huffman Code x p(x) 0 a 0,5 b c d 0,25 0,25 0,25 a 0 b 0 c d Kodierung: c(a) = 0 c(b) = 0 c(c) = 0 c(d) =
60 4. Quellenkodierung Zusammenfassung verlustbehaftete Kompression Irrelevanzreduktion δ>0 verlustfreie Kompression Redundanzreduktion 0 a H(X) L < H(X) + 0 b 0 c d
61 5. Kanalkodierung Informationsübertragung Informationsquelle Informationsziel Quellenkodierung Quellendekodierung Kanalkodierung Kanaldekodierung Kanal Störung - 6 -
62 5. Kanalkodierung Fehlerhafte Übertragung Fehler entstehen durch das Kippen von Bits: 0 ( - f) 0 f ( - f) Beispiele: verrauschte Radiosignale Genmutationen der DNA ungenaues Abtasten von CDs Quelle: MacKay
63 5. Kanalkodierung Lösungsansätze physikalische Verbesserungen besseres Leitermaterial höherer Energieaufwand fehlerkorrigierende Codes Repetition Codes Hamming Codes
64 5. Kanalkodierung Repetition Codes Kodierung Mehrfachübertragungen a b c ---> >
65 5. Kanalkodierung Repetition Codes Kodierung Mehrfachübertragungen a b c ---> > Rauschen >
66 5. Kanalkodierung Repetition Codes Kodierung Mehrfachübertragungen a b c ---> > Rauschen > Dekodierung Mehrheitsentscheidung > > a b c
67 5. Kanalkodierung Repetition Codes Quelle: MacKay
68 5. Kanalkodierung Hamming Codes Kodierung a c --->
69 5. Kanalkodierung Hamming Codes Kodierung a c ---> > Paritätsbits einfügen
70 5. Kanalkodierung Hamming Codes Kodierung a c ---> > Paritätsbits einfügen 0 0 Rauschen >
71 5. Kanalkodierung Hamming Codes Kodierung a c ---> > Paritätsbits einfügen 0 Rauschen > Dekodierung Paritätsbits auswerten > > a c
72 5. Kanalkodierung Hamming Codes empfangener Code: gesandte Nachricht:?
73 5. Kanalkodierung Hamming Codes empfangener Code: gesandte Nachricht: > 0 ---> d a
74 5. Kanalkodierung Hamming Codes Quelle: MacKay
75 5. Kanalkodierung Rate Rate Repetition Code R3 = Informationsbits gesandte Bits Rate = 0,33 3 Hamming Code (7,4) 4 Rate = 0,
76 5. Kanalkodierung Rate und Fehlerwahrscheinlichkeit
77 5. Kanalkodierung Rate und Fehlerwahrscheinlichkeit
78 5. Kanalkodierung Noisy-Channel Coding Theorem Information can be communicated over a noisy channel at a non-zero rate with arbitrarily small error probability. MacKay (2003)
79 5. Kanalkodierung Noisy-Channel Coding Theorem
80 5. Kanalkodierung Noisy-Channel Coding Theorem
81 5. Kanalkodierung Noisy-Channel Coding Theorem Kapazität C maximale Übertragungsrate bei beliebig kleinem Fehler C>0 existiert für jeden Kanal - 8 -
82 5. Kanalkodierung Noisy-Channel Coding Theorem Beispiel: Festplatte mit f = 0, gewünschte Fehlerwahrscheinlichkeit pb =
83 5. Kanalkodierung Noisy-Channel Coding Theorem Beispiel: Festplatte mit f = 0, gewünschte Fehlerwahrscheinlichkeit pb = 0-5 mit Repetition Code: Quelle:
84 5. Kanalkodierung Noisy-Channel Coding Theorem Beispiel: Festplatte mit f = 0, gewünschte Fehlerwahrscheinlichkeit pb = 0-5 mit Repetition Code: Kapazität C 0,53 theoretisch möglich: Quelle:
85 5. Kanalkodierung Zusammenfassung Kanäle sind verrauscht Fehlerkorrigierende Codes Repetition Codes 0 0 Hamming Codes Noisy-Channel Coding Theorem Kapazität C
86 6. Zusammenfassung Informationsübertragung Informationsquelle Informationsziel Quellenkodierung Quellendekodierung Kanalkodierung Kanaldekodierung Kanal Störung
87 Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch
Mathematische Grundlagen III
Mathematische Grundlagen III Informationstheorie Prof Dr. Matthew Crocker Universität des Saarlandes 22. Juni 205 Matthew Crocker (UdS) Mathe III 22. Juni 205 / 43 Informationstheorie Entropie (H) Wie
MehrCODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München Prof. Hußmann
MehrOrganisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele
Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung
Mehr2 Informationstheorie
2 Informationstheorie Formale Grundlagen der Informatik I Herbstsemester 2012 Robert Marti Vorlesung teilweise basierend auf Unterlagen von Prof. emer. Helmut Schauer Grundbegriffe Informatik (IT: Information
Mehr1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes
1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon
MehrÜbung zur Vorlesung. Informationstheorie und Codierung
Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.
MehrTheoretische Grundlagen der Informatik WS 09/10
Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3
MehrProblem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.
Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester
MehrÜbung 13: Quellencodierung
ZHAW, NTM, FS2008, Rumc, /5 Übung 3: Quellencodierung Aufgabe : Huffmann-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten
MehrFormelsammlung. Wahrscheinlichkeit und Information
Formelsammlung Wahrscheinlichkeit und Information Ein Ereignis x trete mit der Wahrscheinlichkeit p(x) auf, dann ist das Auftreten dieses Ereignisses verbunden mit der Information I( x): mit log 2 (z)
MehrÜbung 1: Quellencodierung
ZHAW, NTM2, Rumc, /7 Übung : Quellencodierung Aufgabe : Huffman-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten
MehrJKU Young Scientists Matheseminar
JKU Young Scientists Matheseminar Matheseminar WS 2013/14 Codierung und Information Das grundlegende Problem der Kommunikation besteht darin, an einer Stelle entweder genau oder angenähert eine Nachricht
MehrCodierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau
Codierung Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Ein bisschen Informationstheorie Betrachten wir das folgende Problem: Wie lautet eine sinnvolle Definition für das quantitative
MehrCode-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg
Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem
MehrEinführung in Kompressionstechniken
Einführung in Kompressionstechniken W. Kowarschick 7. Februar 997. November 9 W. Kowarschick Motivation Dateigrößen Text Vektorgraphiken Rasterbilder Tomographien Telephon CD-Stereo Bildfolgen VD7 VD7
MehrAngewandte Informationstechnik
Angewandte Informationstechnik im Bachelorstudiengang Angewandte Medienwissenschaft (AMW) Fehlererkennung und -korrektur Dr.-Ing. Alexander Ihlow Fakultät für Elektrotechnik und Informationstechnik FG
MehrKapitel 4 Leitungscodierung
Kapitel 4 Leitungscodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv
MehrGrundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2
Codierung und Fehlerkorrektur Kapitel 4.2 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916)
MehrMathematik für Information und Kommunikation
Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html
MehrCodierungstheorie. Code-Arten und Code-Sicherung
Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem
MehrSingle Parity check Codes (1)
Single Parity check Codes (1) Der Single Parity check Code (SPC) fügt zu dem Informationsblock u = (u 1, u 2,..., u k ) ein Prüfbit (englisch: Parity) p hinzu: Die Grafik zeigt drei Beispiele solcher Codes
MehrDIGITALE VIDEO KOMPRESSION AM BEISPIEL DES JPEG-VERFAHRENS
1 DIGITALE VIDEO KOMPRESSION AM BEISPIEL DES JPEG-VERFAHRENS Um das digitale Schneiden von digitalisierten Bildern zu ermöglichen, ist es notwendig, die drastisch hohe Datenmenge, die für jedes Bild gespeichert
MehrEmpfänger. Sender. Fehlererkennung und ggf. Fehlerkorrektur durch redundante Informationen. Längssicherung durch Paritätsbildung (Blockweise)
Datensicherung Bei der digitalen Signalübertragung kann es durch verschiedene Einflüsse, wie induktive und kapazitive Einkopplung oder wechselnde Potentialdifferenzen zwischen Sender und Empfänger zu einer
Mehr3 Sicherheit von Kryptosystemen
3 Sicherheit von Kryptosystemen 43 3 Sicherheit von Kryptosystemen 3.1 Informationstheoretische Sicherheit Claude E. Shannon untersuchte die Sicherheit kryptographischer Systeme auf informationstheoretischer
MehrInformationssicherheit - Lösung Blatt 2
Informationssicherheit - Lösung Blatt 2 Adam Glodek adam.glodek@gmail.com 13.04.2010 1 1 Aufgabe 1: One Time Pad 1.1 Aufgabenstellung Gegeben ist der folgende Klartext 12Uhr (ASCII). Verschlüsseln Sie
Mehr9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1
9 Codes 9.1 Charakterisierung und Klassifizierung Definition: Das Ergebnis einer eindeutigen Zuordnung zweier Zeichen- bzw. Zahlenmengen wird Code genannt. Die Zuordnung erfolgt über eine arithmetische
Mehr15 Optimales Kodieren
15 Optimales Kodieren Es soll ein optimaler Kodierer C(T ) entworfen werden, welcher eine Information (z.b. Text T ) mit möglichst geringer Bitanzahl eindeutig überträgt. Die Anforderungen an den optimalen
MehrGrundlagen Digitaler Systeme (GDS)
Grundlagen Digitaler Systeme (GDS) Prof. Dr. Sven-Hendrik Voß Sommersemester 2015 Technische Informatik (Bachelor), Semester 1 Termin 10, Donnerstag, 18.06.2015 Seite 2 Binär-Codes Grundlagen digitaler
MehrRun Length Coding und Variable Length Coding
Fachbereich Medieninformatik Hochschule Harz Run Length Coding und Variable Length Coding Referat Matthias Zittlau 11034 Abgabe: 15.01.2007 Inhaltsverzeichnis 1. RLC...1 2.1 Einführung...1 2.2 Prinzip...1
MehrA1.7: Entropie natürlicher Texte
A1.7: Entropie natürlicher Texte Anfang der 1950er Jahre hat Claude E. Shannon die Entropie H der englischen Sprache mit einem bit pro Zeichen abgeschätzt. Kurz darauf kam Karl Küpfmüller bei einer empirischen
MehrInformation & Kommunikation - Zusammenfassung
Information & Kommunikation - Zusammenfassung Patrick Pletscher 29 September 2004 Grundlagen der Informationstheorie Entropie als Mass für Unsicherheit Definition der Entropie Die Entropie einer diskreten
MehrCodierung. H.-G. Hopf
Codierung H.-G. Hopf Inhalt Informationsübermittlung Codierung von Zeichen GDI: Codierung / 2 Inhalt Informationsübermittlung Codierung von Zeichen GDI: Codierung / 3 Ideale Kommunikation Übertragungskanal
MehrCodierung, Codes (variabler Länge)
Codierung, Codes (variabler Länge) A = {a, b, c,...} eine endliche Menge von Nachrichten (Quellalphabet) B = {0, 1} das Kanalalphabet Eine (binäre) Codierung ist eine injektive Abbildung Φ : A B +, falls
MehrGrundlagen der Technischen Informatik. 2. Übung
Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit Organisatorisches Übungsblätter zuhause vorbereiten! In der Übung an der Tafel vorrechnen! Bei
MehrReferat für Algorithmische Anwendungen WS 2006/ 07: Verlustfreie Datenkompression mit dem Deflate-Algorithmus (LZ77- und Huffman-Codierung)
Referat für Algorithmische Anwendungen WS 2006/ 07: Verlustfreie Datenkompression mit dem Deflate-Algorithmus (LZ77- und Huffman-Codierung) Benedikt Arnold, 11041025, ai686@gm.fh-koeln.de Sebastian Bieker,
MehrEDV-Anwendungen im Archivwesen II
EDV-Anwendungen im Archivwesen II 070472 UE WS08/09 Grundlagen der Digitalisierung Überblick Allgemeine Grundlagen der Digitalisierung anhand der Ton-Digitalisierung Abtastrate (Samplerate) Wortlänge (Bitrate)
Mehr(H ist Entropie) bei Redundanz Information vielleicht mehrfach. Redundanz zur Fehlererkennung und -korrektur nutzbar
Redundanz Anzahl der Bits H (H ist Entropie) Redundanz = Anzahl der Bits H bei Redundanz Information vielleicht mehrfach Redundanz zur Fehlererkennung und -korrektur nutzbar Redundanz in Programmen kann
MehrKryptologie und Kodierungstheorie
Kryptologie und Kodierungstheorie Alexander May Horst Görtz Institut für IT-Sicherheit Ruhr-Universität Bochum Lehrerfortbildung 17.01.2012 Kryptologie Verschlüsselung, Substitution, Permutation 1 / 18
MehrKodierung. Kodierung von Zeichen mit dem ASCII-Code
Kodierung Kodierung von Zeichen mit dem ASCII-Code Weiterführende Aspekte zur Kodierung: Speicherplatzsparende Codes Fehlererkennende und -korrigierende Codes Verschlüsselnde Codes Spezielle Codes, Beispiel
MehrZur Verteidigung der Informationstheorie gegen unlautere Angriffe. Bertrand Klimmek,, Mai 2004
Zur Verteidigung der Informationstheorie gegen unlautere Angriffe Bertrand Klimmek,, Mai 2004 Historischer Überblick bis Mitte des 20. Jahrhunderts: Wohlfahrtsstaat, Keynesianismus, Sci-Fi theoretische
MehrFH Darmstadt FB Informatik Klausurensammlung Rechnergrundlagen Prof. Komar
Matr.Nr.: Name: Leistungsnachweis Rechnergrundlagen SS 2006 Skripte, Umdrucke, Kopien, handschriftliche Aufzeichnungen und Taschenrechner sind zugelassen. Die Lösungs-Ergebnisse sind ausschließlich auf
MehrProseminar Datenkomprimierung Dr. U. Tamm. Bildkompression WS 2002/03. Florian Strunk
Proseminar Datenkomprimierung Dr. U. Tamm Bildkompression WS 2002/03 Florian Strunk Problematik: Die Datencodierung und Kompression ist so alt wie die Geschichte des Computers. Seit dem es hochauflösende
MehrLineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19
Lineare Codes Dipl.-Inform. Wolfgang Globke Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19 Codes Ein Code ist eine eindeutige Zuordnung von Zeichen
MehrEinführung in die Kodierungstheorie
Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht
MehrInhaltsverzeichnis. 2.6.5 C-Abhängigkeit... 155. 2.6.6 S- und R-Abhängigkeit... 156 2.6.7 EN-Abhängigkeit... 156 2.6.9 M-Abhängigkeit...
VII 1 Grundlagen der Elektrotechnik und Elektronik 1 1.1 Physikalische Größen................................ 1 1.1.1 Die Schreibweise von Gleichungen.................... 2 1.1.2 Ursachen und Wirkungen
MehrFehlerkorrektur in der Datenübertragung
oder Was machen Irving Reed und Gustave Solomon auf dem Ochsenkopf? Alfred Wassermann Universität Bayreuth 28. November 2008 Hamming- WirlebenineinerInformationsgesellschaft FehlerfreieNachrichtenübertragungistvongrosser
MehrEin (7,4)-Code-Beispiel
Ein (7,4)-Code-Beispiel Generator-Polynom: P(X) = X 3 + X 2 + 1 Bemerkung: Es ist 7 = 2^3-1, also nach voriger Überlegung sind alle 1-Bit-Fehler korrigierbar Beachte auch d min der Codewörter ist 3, also
MehrDigitales Video I Wie wird Video am Computer codiert?
Digitales Video I Wie wird Video am Computer codiert? Bilder Auflösung Speicherung am Computer Bewegte Bilder Interlacing Kompression / Codec Ton Audioformate / Codecs Videoformate Bilder Auflösung: z.b.:
MehrFrank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011
Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011 Ziel: Nachrichten fehlerfrei übertragen und ökonomisch (wenig Redundanz) übertragen Was ist der Hamming-Abstand?
MehrBilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB
Bilddatenformate BMP Bezeichnung: Microsoft Windows Bitmap, BMP, DIB Format: Raster Farben: 1 Bit (s/w), 4 Bit (16 Farben), 8 Bit (256 Farben), 24 Bit (16,7 Mio. Farben) Kompression: Keine (meist) oder
MehrAufbau und Funktionsweise eines Computers
Aufbau und Funktionsweise eines Computers Ein kurzer Überblick Informatik I 1 WS 2005/2006 Organisation der Hardware Architektur eines einfachen Computersystems mit Bus: Informatik I 2 WS 2005/2006 1 System-Architektur
MehrDie allerwichtigsten Raid Systeme
Die allerwichtigsten Raid Systeme Michael Dienert 4. Mai 2009 Vorbemerkung Dieser Artikel gibt eine knappe Übersicht über die wichtigsten RAID Systeme. Inhaltsverzeichnis 1 Die Abkürzung RAID 2 1.1 Fehlerraten
Mehr3. Informationsdarstellung
Fakultät Informatik Institut Systemarchitektur Professur Datenschutz und Datensicherheit WS 204/205 3. Informationsdarstellung Dr.-Ing. Elke Franz Elke.Franz@tu-dresden.de 3 Informationsdarstellung Bitfolgen
MehrInformationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de
Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de Inhaltsverzeichnis 3. Kanalcodierung 3.1 Nachrichtentheorie für gestörte Kanäle 3.1.1 Transinformation 3.1.2 Kanalkapazität
MehrKompakte Graphmodelle handgezeichneter Bilder. Einbeziehung in Autentizierung und Bilderkennung
Kompakte Graphmodelle handgezeichneter Bilder Einbeziehung in Autentizierung und Bilderkennung Inhaltsverzeichnis 1 Einleitung Das graphische Model.1 Image Thinning................................. 3.
MehrKapitel 3: Etwas Informationstheorie
Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens
MehrAnalyse und Vergleich aktueller Videokompressionsverfahren
Analyse und Vergleich aktueller Videokompressionsverfahren 29.05.2008 Inhalt 1 Grundlagen der Videocodierung Frame-Typen & Farbraum Diskrete Konsinustransformation & Quantisierung MPEG Encoder 2 MPEG4
MehrKryptographie und Codierung für den Mathematikunterricht
Kryptographie und Codierung für den Mathematikunterricht Pädagogische Hochschule Karlsruhe University of Education École Supérieure de Pédagogie Institut für Mathematik und Informatik Th. Borys Was verstehst
MehrCodierungstheorie Rudolf Scharlau, SoSe 2006 9
Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets
MehrWoraus besteht ein Bild? 28.02.2008 (c) Winfried Heinkele 2006 2
Woraus besteht ein Bild? 28.02.2008 (c) Winfried Heinkele 2006 2 Was ist ein Pixel? Die durch das Objektiv einer Kamera auf einen Film oder einen elektronischen Bildsensor projizierte Wirklichkeit ist
Mehr4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140
4 Woche Decodierung; Maximale, Perfekte und Optimale Codes 4 Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 Szenario für fehlerkorrigierende Codes Definition (n, M)-Code Sei C {0, 1}
Mehr3 Codierung ... 3.3 Code-Sicherung. 3.3.1 Stellendistanz und Hamming-Distanz. 60 3 Codierung
60 3 Codierung 3 Codierung... 3.3 Code-Sicherung Oft wählt man absichtlich eine redundante Codierung, so dass sich die Code-Wörter zweier Zeichen (Nutzwörter) durch möglichst viele binäre Stellen von allen
MehrOSNABRÜCKER SCHRIFTEN ZUR MATHEMATIK
OSNABRÜCKER SCHRIFTEN ZUR MATHEMATIK Reihe V Vorlesungsskripten EHeft 9 Wintersemester 2001/02 Codierungstheorie und Kryptographie W. Bruns Fachbereich Mathematik/Informatik Universität Osnabrück OSM Osnabrücker
MehrQuellen- und Leitungskodierung. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 132
Quellen- und Leitungskodierung 0 1 Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 132 Begriffe Quellencodierung: Dient der Optimierung des Durchsatzes Dazu gehört auch Kompression Kanalcodierung:
MehrC L O N E Z I L L A - A N L E I T U N G
C L O N E Z I L L A - A N L E I T U N G ERSTELLEN UND WIEDERHERSTELLEN VON DATENTRÄGERABBILDERN Clonezilla ist eine kostenlose Software, mit der Abbilder von Partitionen und Datenträgern erstellt und wiederhergestellt
MehrKompakte Graphmodelle handgezeichneter Bilder
Kompakte Graphmodelle handgezeichneter Bilder Einbeziehung in Authentizierung und Bilderkennung Inhaltsverzeichnis Seminar Mustererkennung WS 006/07 Autor: Stefan Lohs 1 Einleitung 1 Das graphische Modell.1
MehrSpeicherung einer. Kurznachricht auf der SIM-Karte. Gliederung. Einführung. Auswertung anhand eines Beispiels. Überlange Kurznachrichten
Speicherung einer Martin Jung, David Kolb, Benno Müller Kurznachricht auf der SIM-Karte Ace Crngarov Gliederung Einführung Dateisystem Chipkarte Speicherort Kurznachrichten Programm zum Auslesen Auswertung
MehrGrafikformate. Grafikformate. Digitale Bildverarbeitung Bildkompression
Digitale Bildverarbeitung Bildkompression Einleitung Datenmenge für ein unkomprimiertes Bild Verwendungszweck des Bildes Bild soll weiterverarbeitet werden Bild soll archiviert werden Bild soll per E-Mail
MehrDer digitale Offenbarungseid? Bildarchivierung im Spannungsfeld von Tradition und Fortschritt
Der digitale Offenbarungseid? Bildarchivierung im Spannungsfeld von Tradition und Fortschritt Was soll archiviert werden? Analoge, klassische Fotografien? Abzüge, Negative, Dias (Inkjet-) Drucke Ausbelichtete
MehrDef.: Sei Σ eine Menge von Zeichen. Die Menge Σ* aller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt:
8. Grundlgen der Informtionstheorie 8.1 Informtionsgehlt, Entropie, Redundnz Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* ller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt: 1.
MehrInformation und Wissen
Information und Wissen Informationstheorie nutzt bekannte Wahrscheinlichkeiten Wahrscheinlichkeit hängt von Erwartung des Betrachters ab (wirklich alle Zahlen gleich wahrscheinlich?) Erwartung hängt vom
Mehr3 Quellencodierung. 3.1 Einleitung
Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im
MehrBegriffe: (grafische) Benutzeroberfläche, (grafische) Benutzerschnittstelle,
Gestaltung der Benutzeroberfläche Begriffe: (grafische) Benutzeroberfläche, (grafische) Benutzerschnittstelle, GUI (graphics user interface), Drei Grundsätze vorab: Halten Sie sich, wo immer möglich, an
MehrINFORMATION. Grundbegriffe
INFORMATION Grundbegriffe Offensichtlich hat Informatik mit Information zu tun. Wir sprechen auch von Informationsverarbeitung, von Informationstechnologie *) und von Informationsgesellschaft. Was aber
MehrWissen Konstrukt oder Rekonstruktion der Popperschen Welt 1? oder Warum sich die ISKO in International Society for Knowledge self-organization
Wissen Konstrukt oder Rekonstruktion der Popperschen Welt 1? oder Warum sich die ISKO in International Society for Knowledge self-organization umbenennen sollte. Walther Umstätter Humboldt-Universität
MehrSEMIOTIK VS. INFORMATIONSTHEORIE
SEMIOTIK VS. INFORMATIONSTHEORIE Information, Code und Kodierung bei Umberto Eco und Claude Shannon. HAUSARBEIT Bernadette Weber Matrikelnummer: 505814 Humboldt-Universität zu Berlin Fakultät für Philosophie
MehrCodierungstheorie. Skript zur Vorlesung im WS 2005/06
Codierungstheorie Skript zur Vorlesung im WS 2005/06 Prof. Peter Hauck Arbeitsbereich Diskrete Mathematik Wilhelm-Schickard-Institut Universität Tübingen L A TEX-Fassung von Daniel Raible 2 Inhaltsverzeichnis
MehrSoziale Kommunikation. Vorlesung Johannes-Gutenberg-Universität Mainz Sommersemester 2011 PD Dr. phil. habil. Udo Thiedeke. Kommunikationsprobleme
Vorlesung Johannes-Gutenberg-Universität Mainz Sommersemester 2011 PD Dr. phil. habil. Udo Thiedeke Kommunikationsprobleme 1) Was ist Kommunikation? 2) Vom Austausch zur Unterscheidung 3) Zusammenfassung
MehrWas ist Komprimierung? (1)
1 Was ist Komprimierung? (1) Was ist Komprimierung? (2) Zusammenfassung skda fjlsakd lksdaj lskdaf lsdakj ölsadk jflaskfj sadflk lkdsjf lksdajf ölsakjf ölsakf lksadjflksajfdölsakdjfl sdlkfj sdalökj fldsak
MehrBarcodes in der Logistik. www.barcodat.de
Barcodes in der Logistik Ein Wort zur Einleitung BARCODE kontra RFID? Die Analyse neuer Aufgaben und Möglichkeiten soll zu den richtigen Anforderungen führen, die dann mit den passenden Systemen erfüllt
MehrDatenkompression. Maciej Liśkiewicz 1, Henning Fernau 2
Datenkompression Maciej Liśkiewicz 1, Henning Fernau 2 1 Institut für Theoretische Informatik, Medizinische Universität zu Lübeck Wallstr. 40, D-23560 Lübeck und 2 Wilhelm-Schickard-Institut für Informatik,
MehrScript Informations- und Codierungstheorie. Martin Ruppert
Script Informations- und Codierungstheorie Martin Ruppert 9. Juni 2015 Inhaltsverzeichnis 1 Informationstheorie 5 1.1 Das Nachrichtenübertragungsystem.................. 5 1.1.1 Die Informationsquelle.....................
MehrKodierungsalgorithmen
Kodierungsalgorithmen Komprimierung Verschlüsselung Komprimierung Zielsetzung: Reduktion der Speicherkapazität Schnellere Übertragung Prinzipien: Wiederholungen in den Eingabedaten kompakter speichern
Mehr6 Fehlerkorrigierende Codes
R. Reischuk, ITCS 35 6 Fehlerkorrigierende Codes Wir betrachten im folgenden nur Blockcodes, da sich bei diesen das Decodieren und auch die Analyse der Fehlertoleranz-Eigenschaften einfacher gestaltet.
MehrHandy-leicht-gemacht! SAGEM MY X-6
telecomputer marketing Handy-leicht-gemacht! für SAGEM MY X-6 Eine Handy-Kurzanleitung mit bis zu 14 Kapiteln auf 10 Seiten. Handy SAGEM MY X-6, einschalten Handy SAGEM MY X-6, erster Anruf Telefon-Nummer
MehrErst die rechte und dann die linke Hand heben: Zweimal nacheinander die rechte Hand heben:
7.7.7. Codierung mit variabler Wortlänge Vom schweigsamen König, der gern chweinebraten aß (Frei nach Walter. Fuchs: Knaur s Buch der Denkmaschinen, 968) n einem fernen Land lebte vor langer, langer Zeit
MehrRechnergrundlagen Teil 1-1 - Prof.Dipl.-Ing. Komar. Rechnergrundlagen
Rechnergrundlagen Teil 1-1 - Prof.Dipl.-Ing. Komar Rechnergrundlagen Inhaltsverzeichnis Teil 1 1 Einführung und Überblick Das Werden der Informatik - Rechnergenerationen Einteilung der Informatik - Themen
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München Prof. Hußmann
MehrGrundlagen Anwendungen Quellen. Steganographie. Ingo Blechschmidt, Michael Hartmann LUGA. 4. Oktober 2006
Grundlagen Anwendungen Quellen Ingo Blechschmidt, Michael Hartmann LUGA 4. Oktober 2006 Grundlagen Anwendungen Quellen Inhalt 1 Grundlagen Definition der Beispiele für Historische Anwendungen der Abgrenzung
MehrEmbedded Systems. Initiative. Embedded Systems Initiative. Hohe Datenrate und Zuverlässigkeit bei drahtlosen Multimediasystemen
Embedded Systems Embedded Systems Initiative Initiative Hohe Datenrate und Zuverlässigkeit bei drahtlosen Multimediasystemen Fraunhofer IIS Hans-Martin Tröger, M. Eng., Dipl.-Ing.(FH) Embedded Talk, Nürnberg
Mehr64-040 Modul IP7: Rechnerstrukturen
64-040 Modul IP7: 6. Codierung und Informationstheorie Norman Hendrich Universität Hamburg MIN Fakultät, Department Informatik Vogt-Kölln-Str. 30, D-22527 Hamburg hendrich@informatik.uni-hamburg.de WS
MehrZusammenfassung zu Codierungstheorie
Zusammenfassung zu Codierungstheorie Sara Adams 5. Juli 2005 Diese Zusammenfassung basiert auf der Vorlesung Codierungstheorie gehalten im Sommersemester 2005 von Prof. Dr. Hans-Dietrich Gronau an der
MehrDer LZ77 Algorithmus. von. Stefan Mühlinghaus Matrikelnummer: 11033988 Benutzerkennung: ai495
Der LZ77 Algorithmus von Stefan Mühlinghaus Matrikelnummer: 11033988 Benutzerkennung: ai495 Über den Algorithmus: Der LZ77 Algorithmus wurde von seinen Erfindern Abraham Lempel und Jacob Ziv erstmalig
MehrÜberblick über die Vorlesung. 4 Ausgewählte Schutzmaßnahmen Personelle Maßnahmen
Überblick über die Vorlesung 1. Einführung 2. Bedrohungspotenziale von IT-Systemen 3. IT-Sicherheitsmanagement 4. Ausgewählte Schutzmaßnahmen Personelle Maßnahmen Zugriffsschutz Maßnahmen zur Steigerung
MehrSignalübertragung und -verarbeitung
ILehrstuhl für Informationsübertragung Schriftliche Prüfung im Fach Signalübertragung und -verarbeitung 6. Oktober 008 5Aufgaben 90 Punkte Hinweise: Beachten Sie die Hinweise zu den einzelnen Teilaufgaben.
MehrDigitale Bildverarbeitung (DBV)
Digitale Bildverarbeitung (DBV) Prof. Dr. Ing. Heinz Jürgen Przybilla Labor für Photogrammetrie Email: heinz juergen.przybilla@hs bochum.de Tel. 0234 32 10517 Sprechstunde: Montags 13 14 Uhr und nach Vereinbarung
Mehr