3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.
|
|
- Elke Winter
- vor 5 Jahren
- Abrufe
Transkript
1 3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge fügt Daten zur Fehlerkorrektur ein Störung Kanal rekonstruiert Originaldaten korrigiert Übertragungsfehler Senke Quelldecodierer Kanaldecodierer Codierung diskreter Quellen < 25 / 228 >
2 3 Einführung Die Quellcodierung wandelt Sequenzen von Quellsymbolen in Bitsequenzen Aus Effizienzgründen soll die erzeugte Bitsequenz möglichst kurz sein Selbstverständlich soll sich aus der Bitsequenz die Symbolsequenz eindeutig wiederherstellen lassen Definition 3 Eine (Quell)codierung C bildet jedes Symbol x X einer Quelle X auf ein Codewort C(x) {, } + = l= {, }l ab, wobei x x C(x) C(x ) Eine Sequenz von Symbolen x x N wird auf die Sequenz C(x ) C(x N ) abgebildet Die Menge C aller Codewörter C(x) wird Code genannt Beispiel 3 Die Zahlen {,, } lassen sich durch die binäre Darstellung, 2, 3, 4, 5, codieren Die Sequenz 23 würde damit zu codiert und könnte eindeutig decodiert werden Codierung diskreter Quellen Einführung < 2 / 228 > Beispiel 32 Eine alternative Codierung der Zahlen {,, } wäre, 2, 3, 4, 5, Die Sequenz 23 würde damit zu codiert, was als 23, 2, 5, oder 3 decodiert werden könnte Definition 32 Eine Codierung ist eindeutig decodierbar, wenn jedes Paar unterschiedlicher Sequenzen x x N x x M zu unterschiedlichen Sequenzen C(x ) C(x N ) C(x ) C(x M) codiert wird Definition 33 Ein Code (eine Codierung) heißt gleichmäßig, wenn alle Codewörter die gleiche Länge haben Satz 3 Jede gleichmäßige Codierung ist eindeutig decodierbar Beweis Dank der einheitlichen Länge der Codewörter ist die Zerlegung jeder Sequenz C(x ) C(x N ) in die Codewörter C(x i ) eindeutig Codierung diskreter Quellen Einführung < 27 / 228 >
3 32 Ungleichmäßige Codierung Für eine höhere Code-Effizienz (weniger benötigte Bits) sind ungleichmäßige Codierungen unverzichtbar Seien l,, l N die Längen der Codewörter eines Codes C für ein Quellalphabet mit N Symbolen Welche Bedingung müssen die Längen l,, l N erfüllen, damit C eindeutig decodierbar ist? Satz 32 (Satz von McMillan) Seien l,, l N die Codewortlängen einer eindeutig decodierbaren Codierung, so gilt K = N 2 l i (3) Zu jeder Menge von Codewortlängen, die diese Bedingung erfüllen, gibt es eine eindeutig decodierbare Codierung Aber nicht jede Codierung, die die Bedingung erfüllt, ist eindeutig decodierbar! Codierung diskreter Quellen Ungleichmäßige Codierung < 28 / 228 > Beweis Wir beweisen zunächst nur den ersten Teil; die Existenz einer eindeutig decodierbaren Codierung bei erfüllter Bedingung wird später für eine spezielle Klasse von Codierungen gezeigt Wir betrachten ( N ) n ( ) n K n = 2 l i = 2 l + 2 l l N, n (32) was sich in eine Summe von N n Termen der Form 2 l i l i2 l in = 2 k i, i,, N n (33) mit k i = l i + l i2 + + l in expandieren lässt Sei m = max(l, l 2,, l N ) die maximale Codewortlänge, so gilt offenbar n k i nm Daher lässt sich K n = nm k=n N k 2 k (34) schreiben, wobei N k die Anzahl der Terme mit k i = k angibt, was gleichzeitig die Anzahl der Codewortsequenzen der Gesamtlänge k ist Aufgrund der eindeutigen Decodierbarkeit muss N k 2 k, also K n nm k=n 2 k 2 k = für beliebig große n, und daher K nm k=n = nm n + nm (35) Codierung diskreter Quellen Ungleichmäßige Codierung < 29 / 228 >
4 33 Präfix-Codes Definition 34 Ein Code wird Präfix-Code genannt, wenn kein Codewort C(x) Präfix eines anderen Codeworts C(x ) ist, also kein c {, } exististiert, sodass C(x)c = C(x ) für x x Beispiel 33 Der Code {,,,,, } ist ein Präfix-Code Beispiel 34 Der Code {,,,,, } aus Beispiel 32 ist kein Präfix-Code Codierung diskreter Quellen Präfix-Codes < 3 / 228 > Satz 33 Eine auf einem Präfix-Code aufbauende Codierung ist eindeutig decodierbar Beweis Seien die ersten l Bits einer Codesequenz C(x) Aufgrund der Präfix-Eigenschaft gibt es kein Codewort C(x ), dass ebenfalls den Anfang der Codesequenz bilden kann Damit kann das erste Zeichen eindeutig zu x decodiert werden und außerdem die verbleibende Sequenz nach demselben Schema ebenfalls eindeutig decodiert werden Codierung diskreter Quellen Präfix-Codes < 3 / 228 >
5 33 Codebäume ɛ Jedes Codewort wird als Knoten eines binären Baumes repräsentiert Alle Präfixe eines Codewortes finden sich im Codebaum oberhalb des Codeworts Bei einem Präfix-Code befindet sich zwischen Wurzel und einem Blatt des Codebaums maximal ein Codewort Codierung diskreter Quellen Präfix-Codes < 32 / 228 > Beispiel 35 Der Präfix-Code {,,,,, } besitzt folgenden Code-Baum: ɛ Codierung diskreter Quellen Präfix-Codes < 33 / 228 >
6 Beispiel 3 Der Code {,,,,, } (kein Präfix-Code) besitzt folgenden Code-Baum: ɛ Codierung diskreter Quellen Präfix-Codes < 34 / 228 > 332 Kraftsche Ungleichung Satz 34 (Kraftsche Ungleichung) Seien l,, l N die Codewortlängen eines Präfix-Codes, so gilt K = N 2 l i (3) Zu jeder Menge von Codewortlängen, die diese Bedingung erfüllen, gibt es einen Präfix-Code Beweis zum ersten Teil Sei m = max(l,, l N ) Es wird der vollständige binäre Baum der Höhe m betrachtet; er besitzt 2 m Blätter Unterhalb eines Codeworts der Länge l liegen 2 m l Blätter Jedes Blatt liegt unter höchstens einem Codewort, deshalb N 2 m l i 2 m, also N 2 l i (37) Codierung diskreter Quellen Präfix-Codes < 35 / 228 >
7 Beweis zum zweiten Teil OBdA gelte l l 2 l N C(x ) sei ein beliebiger Knoten auf Höhe l ; da 2 m l < N 2 m l i 2 m (für N > ) (38) gibt es mindestens ein Blatt, das nicht unter C(x ) liegt Der Knoten auf Höhe l 2 über diesem Blatt besitzt daher C(x ) nicht als Präfix und wird als C(x 2 ) verwendet Sind auf diese Weise die ersten M < N Codewörter zugeordnet, liegen M 2 m l i < N 2 m l i 2 m (39) Blätter unter Codewörtern, und es gibt weiterhin mindestens ein Blatt, das nicht unter einem Codewort liegt und für die Zuordnung von C(x M+ ) verwendet werden kann Wiederholung dieses Schemas bis N erzeugt einen Präfix-Code Da Präfix-Codes eindeutig decodierbar sind, vervollständigt dies den Beweis zu Satz 32 (Satz von McMillan) Codierung diskreter Quellen Präfix-Codes < 3 / 228 > Beispiel 37 Es soll ein Präfix-Code mit den Längen l = l 2 = l 3 = 2, l 4 = 3, l 5 = l = 4 konstruiert werden ɛ Codierung diskreter Quellen Präfix-Codes < 37 / 228 >
8 Nach den Sätzen von McMillan und Kraft gelten dieselben Bedingungen in Bezug auf die Codewortlängen für die Existenz von eindeutig decodierbaren und Präfix-Codes Dies bedeutet nicht, dass jeder eindeutig decodierbare Code ein Präfix-Code ist (zb {,,, }) aber, dass es zu jedem eindeutig decodierbaren Code einen Präfix-Code mit denselben Codewortlängen gibt (zb {,,, }) Häufig ist es daher ausreichend, nur Präfix-Codes zu betrachten Codierung diskreter Quellen Präfix-Codes < 38 / 228 > 34 Grenzen der Code-Effizienz Definition 35 Die Codierung C einer Quelle X hat die mittlere Codewortlänge L(C) = x X p X (x)l x, (3) wobei l x die Länge des Codeworts C(x) bezeichnet Beispiel 38 Die Codierung, 2, 3, 4, 5, aus Beispiel 3 für den gezinkten Würfel aus Beispiel 25 (p X () = 2, p X(2) = 2 p X (3) = 3 2, p X(4) = 4 2, p X(5) = 5 2, p X() = 2 Codewortlänge L(C) = 3 2, ) hat offensichtlich die mittlere Beispiel 39 Die Codierung, 2, 3, 4, 5, führt für diesen Würfel auf die mittlere Codewortlänge L(C) = ( ) ( ) 2 = 5 2 2,429 Codierung diskreter Quellen Grenzen der Code-Effizienz < 39 / 228 >
9 Satz 35 Sei C eine eindeutig decodierbare Codierung der Quelle X, so gilt L(C) H(X ) (3) Beweis Unter Ausnutzung von Lemma 2 und mit K = x X 2 lx folgt H(X ) = x X p X (x) ld ( p X (x) ) (32) ( 2 l x ) p X (x) ld K x X (33) = p X (x) ( l x ld(k) ) = p X (x)l x + ld(k) p X (x) x X x X x X (34) = L(C) + ld(k) L(C) (35) Dabei wird L(C) = H(X ) erreicht, wenn K = und p X (x) = 2 lx bzw l x = ld ( p X (x) ), was nur in Spezialfällen auf ganzzahlige Längen führt Codierung diskreter Quellen Grenzen der Code-Effizienz < 4 / 228 > Satz 3 Zu jeder Quelle X existiert eine Präfix-Codierung C, sodass H(X ) L(C) H(X ) + (3) Beweis Eine solche Codierung C ist gegeben durch die Shannon-Codierung, bei der ld ( p X (x) ) l x ld ( p X (x) ) + (37) Damit gilt K = x X 2 lx x X 2ld(px (x)) = x X p X(x) =, womit die Kraftsche Ungleichung erfüllt ist Multiplikation von Gleichung (37) mit p X (x) und Summation über alle x führt auf p X (x) ld ( p X (x) ) p X (x)l x p X (x) ld ( p X (x) ) + p X (x) (38) x X x X x X x X }{{}}{{}}{{}}{{} H(X ) L(C) H(X ) Codierung diskreter Quellen Grenzen der Code-Effizienz < 4 / 228 >
10 Satz 37 (Erstes Shannonsches Codierungstheorem) Durch Codierung der erweiterten Quelle X n kann für hinreichend große n eine Codierung mit durchschnittlicher Codewortlänge beliebig nah an der Entropie erreicht werden Beweis Sei C eine Codierung von X n mit die nach Satz 3 existiert Nach Korollar 2 gilt H(X n ) L(C ) H(X n ) +, (39) n H(X ) L(C ) n H(X ) + (32) Für die auf ein Symbol der ursprünglichen Quelle X bezogene mittlere Codewortlänge L = L(C )/n ergibt sich damit und offenbar lim n H(X ) + /n = H(X ) H(X ) L H(X ) + /n, (32) Codierung diskreter Quellen Grenzen der Code-Effizienz < 42 / 228 > 35 Optimal-Codierung Wir haben gesehen, dass die Shannon-Codierung maximal ein Bit mehr pro Symbol zur Codierung benötigt, als durch die Entropie als untere Schranke gegeben ist dies ausreicht, um bei Betrachtung von erweiterten Quellen asymptotisch ideal zu codieren Wie codiert man die praktisch relevanten endlichen Erweiterungen oder nicht erweiterten Quellen? Definition 3 Ein eindeutig decodierbare Codierung C ist optimal, wenn für jede andere eindeutig decodierbare Codierung C gilt, dass L(C) L(C ) Codierung diskreter Quellen Optimal-Codierung < 43 / 228 >
11 35 Huffman-Codierung Algorithmus der Huffman-Codierung für eine Quelle X : Bestimme die beiden Symbole x, x 2 X mit der kleinsten Auftrittswahrscheinlichkeit 2 2 Konstruiere eine neue Quelle X mit X = X \ {x, x 2 } {x,2} und p X (x ) = p X (x ) für x x,2, p X (x,2) = p X (x ) + p X (x 2 ) (Es werden also x und x 2 zu einem Symbol x,2 zusammengefasst) 3 Bestimme die Huffman-Codierung C zu X mit x, x 2, falls X nur zwei Symbole enthält 4 Wähle C(x) = C (x) für x x, x 2, C(x ) = C (x,2), C(x 2 ) = C (x,2) 2 Auswahl bei Nicht-Eindeutigkeit beliebig Codierung diskreter Quellen Optimal-Codierung < 44 / 228 > Beispiel 3 Es sei wieder der gezinkte Würfel aus Beispiel 25 (p X (x) = x 2 ) betrachtet Die mittlere Codewortlänge beträgt ( L(C) = ) ( ) 2 Zum Vergleich: H(X ) 2, = 5 2 2,429 Codierung diskreter Quellen Optimal-Codierung < 45 / 228 >
12 Beispiel 3 Es sei die Erweiterung X 2 des gezinkten Würfels (p X,X (x, x 2 ) = x x 2 44 ) betrachtet, /44,2 2/44 3, 3/44 2,4 8/44 3,2 /44, /44 5, 3/44 3,5 5/44 5,3 5/44,5 3/44,4 4/44 2,2 4/44 4,2 8/44 4, 4/44,5 5/44 3,3 9/44 3, 8/44 4,4 /44 4,5 2/44,3 8/44, 3/44 2, 2/44,3 3/44 5, 5/44 2, 2/44 4, 24/44 2,5 /44 5,2 /44 5,4 2/44, /44 2,3 /44,2 2/44 5,5 25/44 3,4 2/44 4,3 2/44,4 24/44 3/44 5/44 /44 8/44 9/44 /44 2/44 2/44 4/44 /44 8/44 22/44 2/44 24/44 24/44 2/44 3/44 34/44 34/44 38/44 4/44 4/44 49/44 48/44 5/44 /44 8/44 74/44 /44 8/44 97/44 42/44 83/44 258/44 44/44 L(C) 4,828 = 2 2,44 Codierung diskreter Quellen Optimal-Codierung < 4 / 228 > 3 Zusammenfassung Aus den Sätzen von Kraft und McMillan folgt, dass Präfix-Codierungen genauso effizient sein können wie allgemeine, eindeutig decodierbare Codierungen Die Entropie der zu codierenden Quelle stellt eine untere Schranke der mittleren Codewortlänge dar Erstes Shannonsches Codierungstheorem: Durch blockweise Codierung (Codierung der erweiterten Quelle) lässt sich diese Schranke asymptotisch erreichen Die Huffman-Codierung lässt sich durch sukzessives Zusammenfassen der beiden unwahrscheinlichsten Symbole bilden Codierung diskreter Quellen Zusammenfassung < 47 / 228 >
Kapitel 7: Optimalcodierung und Huffman Coding
Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge
Mehr2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
Mehr3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238
3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher
Mehr2.7 Der Shannon-Fano-Elias Code
2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.
MehrWann sind Codes eindeutig entschlüsselbar?
Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C
MehrEinleitung. Kapitel 1
Kapitel 1 Einleitung In diesem Abschnitt geben wir einen kurzen Überblick über den Inhalt der Vorlesung. Wir werden kurz die wesentlichen Probleme erläutern, die wir ansprechen wollen. Wir werden auch
MehrEinführung in die Informatik II Aus der Informationstheorie: Datenkompression
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd
MehrInformationsgehalt einer Nachricht
Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung
MehrReferat zum Thema Huffman-Codes
Referat zum Thema Huffman-Codes Darko Ostricki Yüksel Kahraman 05.02.2004 1 Huffman-Codes Huffman-Codes ( David A. Huffman, 1951) sind Präfix-Codes und das beste - optimale - Verfahren für die Codierung
MehrInformationstheorie und Codierung
Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice
MehrTechnische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und
MehrInformatik II, SS 2018
Informatik II - SS 28 (Algorithmen & Datenstrukturen) Vorlesung 22 (6.7.28) Greedy Algorithmen II (Datenkompression) Algorithmen und Komplexität Datenkompression Reduziert Größen von Files Viele Verfahren
MehrInformatik II, SS 2016
Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 22 (20.7.2016) Greedy Algorithmen - Datenkompression Algorithmen und Komplexität Greedy Algorithmen Greedy Algorithmen sind eine Algorithmenmethode,
MehrKlausur Informationstheorie und Codierung
Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte
MehrSeminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung
Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft
MehrTheoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK
Theoretische Grundlagen der Informatik 3..29 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Thema dieses Kapitels Informationstheorie
MehrKodierung und Sicherheit
Skript zur Vorlesung: Kodierung und Sicherheit 0000 00000 000 0000 0000 000 00 000 Wintersemester 2004-2005 Dr. Andreas Jakoby Institut für Theoretische Informatik Universität zu Lübeck Inhaltsverzeichnis
MehrEntropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.
Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie
Mehr5. Woche Perfekte und Optimale Codes, Schranken. 5. Woche: Perfekte und Optimale Codes, Schranken 88/ 142
5 Woche Perfekte und Optimale Codes, Schranken 5 Woche: Perfekte und Optimale Codes, Schranken 88/ 142 Packradius eines Codes (Wiederholung) Definition Packradius eines Codes Sei C ein (n, M, d)-code Der
Mehr(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
Mehr1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen
1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte
MehrPerfekte Codes. Definition Perfekter Code. Sei C {0, 1} n ein (n, M, d)-code. C heißt perfekt, falls
Perfekte Codes Definition Perfekter Code Sei C {0, 1} n ein (n, M, d)-code. C heißt perfekt, falls ( ) d 1 M V n = 2 n. 2 D.h. die maximalen disjunkten Hammingkugeln um die Codeworte partitionieren {0,
MehrGrundbegriffe der Informatik Tutorium 3
Grundbegriffe der Informatik Tutorium 3 Tutorium Nr. 16 Philipp Oppermann 18. November 2014 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrInformations- und Codierungstheorie (Informationstheorie) Vorlesungsunterlagen
J O H A N N E S K E P L E R U N I V E R S I T Ä T L I N Z N e t z w e r k f ü r F o r s c h u n g, L e h r e u n d P r a x i s Informations- und Codierungstheorie (Informationstheorie) Vorlesungsunterlagen
MehrBeispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
MehrDie Größe A(n, d) und optimale Codes
Die Größe A(n, d) und optimale Codes Definition Optimaler Code Wir definieren A(n, d) = max{m binärer (n, M, d) Code} Ein (n, M, d)-code heißt optimal, falls M = A(n, d). Bestimmung von A(n, d) ist offenes
MehrRLE Arithm. Shannon Fano Huffman Grenzen. Komprimierung. Ingo Blechschmidt, Michael Hartmann. 6. Dezember 2006
RLE Arithm. Shannon Fano Huffman Grenzen Ingo Blechschmidt, Michael Hartmann 6. Dezember 2006 RLE Arithm. Shannon Fano Huffman Grenzen Inhalt 1 Lauflängenkodierung 2 Arithmetische Kodierung 3 Shannon Fano-Kodierung
MehrVorlesung 12. Quellencodieren und Entropie
Vorlesung 12 Quellencodieren und Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. Wir wollen die Buchstaben a, b,... durch (möglichst kurze) 01-Folgen k(a),
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Informationstheorie INSTITUT FÜR THEORETISCHE KIT 8.2.22 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik INSTITUT
Mehri Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
MehrRedundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1
Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)
MehrGrundbegriffe der Informatik Tutorium 5
Grundbegriffe der Informatik Tutorium 5 Tutorium Nr. 32 Philipp Oppermann 13. Januar 2015 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
Mehrh = 1 7 ( ) = 21 7 = 3
Zur mittleren Höhe von Binärbäumen mittlere Höhe von Binärbäumen Entropie gewichtete mittlere Höhe von Binärbäumen Quellcodierung, Datenkompression Shannons Theorem optimale Quellcodierung (Huffman) wobei
MehrInformation und Codierung
Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH Inhalt Vorwort zur 1. Auflage der Originalausgabe
Mehr6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N. 6.1 von wörtern zu zahlen und zurück Dezimaldarstellung von Zahlen Num 10
6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N 6.1 von wörtern zu zahlen und zurück 6.1.1 Dezimaldarstellung von Zahlen Num 10 Num10(ε) = 0 (6.1) für jedes w Z 10 für jedes x Z 10 Num 10 (wx)
Mehr21. Dynamic Programming III
Approximation 21. Dynamic Programming III FPTAS [Ottman/Widmayer, Kap. 7.2, 7.3, Cormen et al, Kap. 15,35.5] Sei ein ε (, 1) gegeben. Sei I eine bestmögliche Auswahl. Suchen eine gültige Auswahl I mit
MehrVorlesung 15a. Quellencodieren und Entropie
Vorlesung 15a Quellencodieren und Entropie 1 1. Volle Binärbäume als gerichtete Graphen und die gewöhnliche Irrfahrt von der Wurzel zu den Blättern 2 3 ein (nicht voller) Binärbaum Merkmale eines Binärbaumes:
Mehr1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes
1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon
MehrInformation nachher = Unsicherheit vorher.
1 Entropie Wir machen folgendes Gedankenexperiment. Gegeben ist die Menge X = {x 1,...,x n } von Ausgängen eines Experimentes mit den Wahrscheinlichkeiten p(x i )=p i. H(X) =H(p 1,...,p n ) ist das Informationsmaß,
MehrChaosSeminar - Informationstheorie
Alexander.Bernauer@ulm.ccc.de Stephanie.Wist@ulm.ccc.de 18. November 2005 Motivation schnelle Übertragung von Daten über gestörten Kanal Shannon48 Was ist Information? Information ist Abnahme von Unsicherheit
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität Gierige Algorithmen: Berechne Lösung schrittweise In jedem Schritt mache lokal optimale Wahl Daumenregel: Wenn optimale Lösung
Mehr21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3
581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv
MehrÜbungsblatt 5 - Musterlösung
Universität Mannheim Lehrstuhl für Praktische Informatik IV Prof. Dr. W. Effelsberg Christoph Kuhmünch, Gerald Kühne Praktische Informatik II SS 2000 Übungsblatt 5 - Musterlösung Aufgabe 1: Huffman-Codierung
MehrKolmogoroffkomplexität Teil 3 Informationstheorie und Kodierung. Torsten Steinbrecher
Kolmogoroffkompleität Teil 3 Informationstheorie und Kodierung Torsten Steinbrecher Informationstheorie Information ist Δ Wahlfreiheit beim Sender Δ Unbestimmtheit beim Empfänger Information ist nicht
MehrWir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir
Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht
MehrMusterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14
Institut für Theoretische Informatik Prof. Dr. Jörn Müller-Quade Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 23/4 Vorname Nachname Matrikelnummer Hinweise Für die
MehrDynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
MehrDiskrete Mathematik II
Diskrete Mathematik II Roberto Avanzi (nach Alexander May) Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2010 Organisatorisches 1/ 333 Organisatorisches Vorlesung: Mo 12-14 in HIA, Di
Mehr12. Übung TGI. (mit Teil 2 der 11. Übung) Lorenz Hübschle-Schneider, Tobias Maier INSTITUT FÜR THEORETISCHE INFORMATIK, PROF.
12. Übung TGI (mit Teil 2 der 11. Übung) Lorenz Hübschle-Schneider, Tobias Maier INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. SANDERS 1 Lorenz Hübschle-Schneider, Tobias Maier KIT Die Forschungsuniversität
MehrCodierungstheorie Rudolf Scharlau, SoSe 2006 9
Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets
MehrÜbung zur Vorlesung. Informationstheorie und Codierung
Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.
Mehr3 Quellencodierung. 3.1 Einleitung
Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im
MehrGierige Algorithmen Interval Scheduling
Gierige Algorithmen Interval Scheduling IntervalScheduling(s,f). n length[s] 2. A {} 3. j 4. for i 2 to n do 5. if s[i] f[j] then 6. A A {i} 7. j i 8. return A Gierige Algorithmen Interval Scheduling Beweisidee:
MehrEindeutigkeit reduzierter Gröbnerbasen
Eindeutigkeit reduzierter Gröbnerbasen Satz Existenz und Eindeutigkeit reduzierter Gröbnerbasen Jedes Ideal I F[x 1,..., x n ] besitzt eine eindeutige reduzierte Gröbnerbasis. Beweis: Existenz: Hilbert
MehrDie Hamming-Distanz definiert eine Metrik.
Die Hamming-Distanz definiert eine Metrik. Satz Metrik Hamming-Distanz Die Hamming-Distanz ist eine Metrik auf {0, 1} n, d.h. für alle x, y, z {0, 1} n gilt: 1 Positivität: d(x, y) 0, Gleichheit gdw x
MehrDiskrete Strukturen 5.9 Permutationsgruppen 168/558 c Ernst W. Mayr
Bemerkung: Der folgende Abschnitt Boolesche Algebren ist (im WS 2010/11) nicht Teil des Prüfungsstoffs, soweit nicht Teile daraus in der Übung behandelt werden! Diskrete Strukturen 5.9 Permutationsgruppen
MehrKompression. Tim Kilian
Kompression Tim Kilian Seminar Effiziente Programmierung Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg
Mehr6. Komprimierung. (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger
Komprimierung 6. Komprimierung (Text)komprimierung ist ein Wechsel der Repräsentation von Daten, so daß sie weniger Platz brauchen Motivation: beschleunigt Plattenzugriffe oder Datenübertragungen Voraussetzung:
MehrAlle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)).
8. Untere Schranken für Sortieren Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)). Werden nun gemeinsame Eigenschaften dieser Algorithmen untersuchen. Fassen gemeinsame
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Informationstheorie Vorlesungen vom 30. Januar und 1. Februar 2018 INSTITUT FÜR THEORETISCHE 0 30.01.2018 Dorothea Wagner - Theoretische Grundlagen der Informatik
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Informationstheorie Vorlesung vom 2. und 4. Februar 26 INSTITUT FÜR THEORETISCHE KIT 4.2.26 Universität des Gog, Landes Sanders, Baden-Württemberg Wagner - Theoretische
MehrNachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2013/14
Institut für Theoretische Informatik Prof. Dr. Jörn Müller-Quade Nachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2013/14 Vorname Nachname Matrikelnummer Hinweise Für die
Mehrx, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω
5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,
MehrÜberabzählbarkeit der reellen Zahlen
Überabzählbarkeit der reellen Zahlen Mathematik M4 Dozentin: Dr. Regula Krapf Jan Lukas Schallenberg Matr. Nr.: 214202241 November 2017 1 Inhaltsverzeichnis 1 Dedekindsche Schnitte 3 2 Addition und Multiplikation
MehrAlgorithmen und Datenstrukturen (für ET/IT) Programm heute. Wintersemester 2012/13. Dr. Tobias Lasser. 7 Fortgeschrittene Datenstrukturen
Algorithmen und Datenstrukturen (für ET/IT) Wintersemester 202/3 Dr. Tobias Lasser Computer Aided Medical Procedures Technische Universität München Programm heute 7 Fortgeschrittene Datenstrukturen 8 Such-Algorithmen
MehrOrganisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele
Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Informationstheorie INSTITUT FÜR THEORETISCHE INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
MehrDiskrete Mathematik II
Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2008 DiMA II - Vorlesung 01-07.04.2008 Einführung in die Codierungstheorie, Definition Codes 1 / 36 Organisatorisches
MehrEndliche Körper und Codierung SS Übungsblatt. 9. Bestimmen Sie alle primitiven Elemente (Erzeuger der multiplikativen Gruppe) von
Endliche Körper und Codierung SS 2007 1. Übungsblatt 1. Sei p eine Primzahl und 0 j p 1. Zeigen Sie, dass ( ) p 1 j ( 1) j (mod p). 2. Sei R ein kommutativer Ring der Charakteristik p > 0 (prim). Zeigen
Mehr4. ggt und kgv. Chr.Nelius: Zahlentheorie (SS 2007) 9
Chr.Nelius: Zahlentheorie (SS 2007) 9 4. ggt und kgv (4.1) DEF: Eine ganze Zahl g heißt größter gemeinsamer Teiler (ggt) zweier ganzer Zahlen a und b, wenn gilt: GGT 0 ) g 0 GGT 1 ) g a und g b GGT 2 )
MehrKonvergenz im quadratischen Mittel und die Parsevelsche Gleichung
Konvergenz im quadratischen Mittel und die Parsevelsche Gleichung Skript zum Vortrag im Proseminar Analysis bei Dr. Gerhard Mülich Christian Maaß 6.Mai 8 Im letzten Vortrag haben wir gesehen, dass das
MehrSignale und Codes Vorlesung 6
Signale und Codes Vorlesung 6 Nico Döttling December 13, 2013 1 / 24 Vergleich Shannon vs. Schranken für Minimaldistanz (1) BSC ρ hat Kapazität 1 H 2 (ρ) Shannon: Es existiert ein (n, k) Code C für BSC
MehrÜbrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?
Huffman-Code Dieser Text ist als Hintergrundinformation ausschliesslich für die Lehrperson gedacht. Der Text ist deshalb eher technisch gehalten. Er lehnt sich an das entsprechende Kapitel in "Turing Omnibus"
Mehr2. Klausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2014/2015
2. Klausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2014/2015 Hier Aufkleber mit Name und Matrikelnummer anbringen Vorname: Nachname: Matrikelnummer: Beachten Sie: Bringen Sie
MehrÜbungsblatt Nr. 7. Lösungsvorschlag
Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nico Döttling Dirk Achenbach Tobias Nilges Vorlesung Theoretische Grundlagen der Informatik Übungsblatt Nr. 7 svorschlag Aufgabe (K)
MehrIsomorphie von Bäumen
Isomorphie von Bäumen Alexandra Weinberger 23. Dezember 2011 Inhaltsverzeichnis 1 Einige Grundlagen und Definitionen 2 1.1 Bäume................................. 3 1.2 Isomorphie..............................
MehrÜbersicht. Aktivitäten-Auswahl-Problem. Greedy Algorithmen. Aktivitäten-Auswahl-Problem. Aktivitäten-Auswahl-Problem. Datenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Übersicht Greedy Algorithmen Einführung Aktivitäten-Auswahl-Problem Huffman Codierung Matthias Zwicker Universität Bern Frühling 2009 2 Greedy Algorithmen Entwurfsstrategie
MehrCODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 1. Das Problem 1.1. Kanalcodierung und Fehlerkorrektur. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder 1 übertragen kann, schicken.
MehrDie rationalen Zahlen. Caterina Montalto Monella
Die rationalen Zahlen Caterina Montalto Monella 07.12.2016 1 1 Die Konstruktion der rationalen Zahlen In dieser Ausarbeitung konstruieren wir die rationalen Zahlen aus den ganzen und den natürlichen Zahlen.
Mehr3 Primzahlen. j,... stets Primzahlen. 3.1 Satz. Jedes a > 1 ist als Produkt von Primzahlen darstellbar (Primfaktorzerlegung. n=1
3 Primzahlen Die Zahl 1 hat nur einen positiven Teiler, nämlich 1. Jede Zahl a > 1 hat mindestens zwei positive Teiler: 1 und a. Definition. Eine Primzahl ist eine Zahl a > 1, welche nur die Teiler 1 und
MehrSignale und Codes Vorlesung 4
Signale und Codes Vorlesung 4 Nico Döttling December 6, 2013 1 / 18 2 / 18 Letztes Mal Allgemeine Hamming Codes als Beispiel linearer Codes Hamming Schranke: Obere Schranke für k bei gegebenem d bzw. für
MehrNachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2012/13
Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2012/13 Vorname Nachname Matrikelnummer Hinweise Für
MehrModul Diskrete Mathematik WiSe 2011/12
Modul Diskrete Mathematik WiSe / Ergänzungsskript zum Kapitel 3.4. Hinweis: Dieses Manuskript ist nur verständlich und von Nutzen für Personen, die regelmäßig und aktiv die zugehörige Vorlesung besuchen
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Übung 8 Dirk Achenbach 7. Februar 2013 I NSTITUT FÜR K RYPTOGRAPHIE UND S ICHERHEIT KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrKapitel III Ringe und Körper
Kapitel III Ringe und Körper 1. Definitionen und Beispiele Definition 117 Eine Algebra A = S,,, 0, 1 mit zwei zweistelligen Operatoren und heißt ein Ring, falls R1. S,, 0 eine abelsche Gruppe mit neutralem
Mehr1 Zahlentheorie. 1.1 Kongruenzen
3 Zahlentheorie. Kongruenzen Der letzte Abschnitt zeigte, daß es sinnvoll ist, mit großen Zahlen möglichst einfach rechnen zu können. Oft kommt es nicht darauf, an eine Zahl im Detail zu kennen, sondern
MehrCODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.
MehrUniv.-Prof. Dr. Goulnara ARZHANTSEVA
Diskrete Mathematik Univ.-Prof. Dr. Goulnara ARZHANTSEVA SS 2018 c Univ.-Prof. Dr. Goulnara Arzhantseva Kapitel 08: Menger, König und Hall / Planare Graphen 1 / 30 Der Satz von Menger: s t trennende Kantenmenge
MehrEffiziente Algorithmen und Komplexitätstheorie
Fakultät für Informatik Lehrstuhl 2 Vorlesung Effiziente Algorithmen und Komplexitätstheorie Sommersemester 2008 Ingo Wegener; Vertretung: Carsten Witt 7. Juli 2008 Vorlesung am 14.07. (nächste Woche):
MehrVollständigkeit. 1 Konstruktion der reellen Zahlen
Vortrag im Rahmen des Proseminars zur Analysis, 17.03.2006 Albert Zeyer Ziel des Vortrags ist es, die Vollständigkeit auf Basis der Konstruktion von R über die CAUCHY-Folgen zu beweisen und äquivalente
MehrMathematik für Information und Kommunikation
Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html
MehrCodierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau
Codierung Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Ein bisschen Informationstheorie Betrachten wir das folgende Problem: Wie lautet eine sinnvolle Definition für das quantitative
MehrVorlesung 13b. Relative Entropie
Vorlesung 13b Relative Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). 2 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. S sei eine abzählbare Menge (ein
MehrFachprüfung. Nachrichtencodierung
Fachprüfung Nachrichtencodierung 23. Februar 2010 Prüfer: Prof. Dr. P. Pogatzki Bearbeitungszeit: 2 Stunden Hilfsmittel: Taschenrechner, Vorlesungsscript, Übungsaufgaben Name: Vorname: Matr.-Nr.: Unterschrift:
Mehr15 Optimales Kodieren
15 Optimales Kodieren Es soll ein optimaler Kodierer C(T ) entworfen werden, welcher eine Information (z.b. Text T ) mit möglichst geringer Bitanzahl eindeutig überträgt. Die Anforderungen an den optimalen
Mehr2. Teilbarkeit. Euklidischer Algorithmus
O. Forster: Einführung in die Zahlentheorie 2. Teilbarkeit. Euklidischer Algorithmus 2.1. Wir benutzen die folgenden Bezeichnungen: Z = {0, ±1, ±2, ±3,...} Menge aller ganzen Zahlen N 0 = {0, 1, 2, 3,...}
Mehr31 Polynomringe Motivation Definition: Polynomringe
31 Polynomringe 31.1 Motivation Polynome spielen eine wichtige Rolle in vielen Berechnungen, einerseits weil oftmals funktionale Zusammenhänge durch Polynome beschrieben werden, andererseits weil Polynome
Mehr