ChaosSeminar - Informationstheorie
|
|
- Heiko Vogel
- vor 5 Jahren
- Abrufe
Transkript
1 18. November 2005
2 Motivation schnelle Übertragung von Daten über gestörten Kanal Shannon48
3 Was ist Information? Information ist Abnahme von Unsicherheit ohne Zufall keine Unsicherheit Unsicherheit vorher ist Information nacher
4 Übersicht Wahrscheinlichkeitsrechnung Informationsmaß Quellen Quellcodiertheorem Huffman Code Kodierer Kanäle Kanalcodiertheorem Codebeispiel
5 Stichprobenraum Wahrscheinlichkeitsrechnung Informationsmaß Ω = {ω 1, ω 2,..., ω n } ω 1, ω 2,..., ω n : Elementarereignisse E Ω : Ereignis : unmögliches Ereignis Ω : sicheres Ereignis
6 Zufallsvariable Wahrscheinlichkeitsrechnung Informationsmaß X : Ω {x 1, x 2,..., x L }
7 Wahrscheinlichkeitsfunktion Wahrscheinlichkeitsrechnung Informationsmaß f X : {x 1, x 2,..., x L } R f X (x i ) = P(X = x i ), i = 1, 2,..., L i : f X (x i ) 0 L i=1 f X (x i ) = 1
8 Unabhängigkeit Wahrscheinlichkeitsrechnung Informationsmaß Ereignisse A und B stochastische unabhängig P(A B) = P(A) P(B) Zufallsvariablen X und Y stochastisch unabhängig x i, y j : f XY (x i, y j ) = f X (x i ) f Y (y j )
9 bedingte Wahrscheinlichkeit Wahrscheinlichkeitsrechnung Informationsmaß f X Y (x i y j ) := f XY (x i, y j ) f Y (y j ) f Y (y j ) > 0
10 Erwartungswert Wahrscheinlichkeitsrechnung Informationsmaß E [F (X )] := F (X ) := L F (x i )f (x i ) i=1 F : Funktion einer Zufallsvariablen f : Wahrscheinlichkeitsfunktion der Zufallsvariablen
11 Erwartungen an ein Informationsmaß Wahrscheinlichkeitsrechnung Informationsmaß maximale Unsicherheit bei Gleichverteilung Addition von Informationen Stetigkeit auf den Wahrscheinlichkeiten
12 Entropie Wahrscheinlichkeitsrechnung Informationsmaß H(X ) = K x X f X (x)logf X (x) K > 0 lim fx (x) 0 f X (x)logf X (x) := 0
13 Information - Einheiten Wahrscheinlichkeitsrechnung Informationsmaß Austausch der Basis: log b1 x = log b 2 x log b2 b 1 b = 2 b = e b = 10 binary digits (bits) natural digits (nats) decimal digits
14 Entropie - Schranken Wahrscheinlichkeitsrechnung Informationsmaß X : Ω {x 1, x 2,..., x L } 0 H(X ) logl Gleichheit nach links i : f X (x i ) = 1 Gleichheit nach rechts X gleichverteilt
15 binäre Entropie Wahrscheinlichkeitsrechnung Informationsmaß wikipedia h(p) = (p log p + (p 1) log p 1)
16 bedingte Entropie Wahrscheinlichkeitsrechnung Informationsmaß H(X Y = y) = x x f X Y (x y)logf X Y (x y) H(X Y ) = y Y f Y (y)h(x Y = y) H(X ) = x X f X (x)logf X (x)
17 bedingte Entropie - Eigenschaften Wahrscheinlichkeitsrechnung Informationsmaß 0 H(X Y ) logl Verminderung der Entropie H(X Y ) H(X )
18 Addition von Informationen Wahrscheinlichkeitsrechnung Informationsmaß H(X 1 X 2... X N ) = H(X 1 ) + H(X 2 X 1 ) H(X N X 1 X 2... X N 1 )
19 Entscheidungsbäume Wahrscheinlichkeitsrechnung Informationsmaß Die Entropie ist die mittlere Tiefe eines Entscheidungsbaumes Beispiel: ich denke mir eine Zahl...
20 wechselseitige Information Wahrscheinlichkeitsrechnung Informationsmaß Die Information, die ich über A erhalte, indem ich B beobachte A, B Ereignisse eines oder zweier Zufallsexperimente P(A) 0; P(B) 0 I (A; B) := log P(A B) P(A)
21 Eigeninformation Wahrscheinlichkeitsrechnung Informationsmaß I (A) := I (A; A) = log P(A A) P(A) = logp(a) P(A A) = 1
22 Entropie Wahrscheinlichkeitsrechnung Informationsmaß Der Erwartungswert der Eigeninformation der Ereignisse einer Zufallsvariablen H(X ) := E [I (X = x)] = E [ logf X (x)] = x X f X (x)logf X (x)
23 Transinformation Wahrscheinlichkeitsrechnung Informationsmaß Die Information, die ich über X erhalte, in dem ich Y beobachte I (X ; Y ) := E [I (X = x; Y = y)] I (X ; Y ) := H(X ) H(X Y ) H(X Y ): Äquivokation
24 Satz der Datenverarbeitung Wahrscheinlichkeitsrechnung Informationsmaß I (X ; Z) { I (X ; Y ) I (Y ; Z) Information kann nicht durch Datenverarbeitung erhöht werden.
25 Fragen Quellen Quellcodiertheorem Huffman Code Wie gut kann man komprimieren? Was kann man alles komprimieren? Wie sehen Kompressionsalgorithmen aus?
26 Quelle Quellen Quellcodiertheorem Huffman Code Eine Quelle erzeugt einen Strom von Symbolen Strom entspricht den Ausgaben eines Markoff Prozesses
27 Markoff-Prozesse Quellen Quellcodiertheorem Huffman Code hier: Beschränkung auf diskrete, gedächtnisfreie Quellen
28 Redundanz Quellen Quellcodiertheorem Huffman Code Quelle Q mit L Quellsymbolen R := 1 H(Q) logl
29 Quellen Quellcodiertheorem Huffman Code
30 Quellcodiertheorem Quellen Quellcodiertheorem Huffman Code Um eine Quelle Q mit Wahrscheinlichkeit 1 perfekt rekonstruieren zu können, sind H(Q) bit pro Quellensymbol notwendig und hinreichend
31 Konsequenzen Quellen Quellcodiertheorem Huffman Code ist Entfernung von Redundanz Mehrfachkomprimierung bringt nichts gleichverteilten Zufall kann man schlecht komprimieren
32 Beispiel Quellen Quellcodiertheorem Huffman Code p(a) = 1 2 p(b) = 1 4 p(c) = 1 4 H(Q) = 1.5, log 2 3 = 1.58, R = 5.3% a 0 b 10 c 11 p(0) = 1 2 p(1) = 1 2 H(Q ) = 1, log 2 2 = 1, R = 0%
33 Fragen Kodierer Kanäle Kanalcodiertheorem Kann man fehlerfrei übertragen? Wie schnell kann man übertragen? Wie wirken sich Störungen auf dem Kanal aus?
34 Kodierer Kodierer Kanäle Kanalcodiertheorem
35 Rate Kodierer Kanäle Kanalcodiertheorem R := k n Für den Kanal erscheint der Kodierer wie eine Quelle mit Entropie R
36 Kanal Kodierer Kanäle Kanalcodiertheorem hier: Beschränkung auf diskrete, gedächtnisfreie Kanäle
37 Bergersches Diagramm Kodierer Kanäle Kanalcodiertheorem
38 Kapazität Kodierer Kanäle Kanalcodiertheorem I (X ; Y ) = H(X ) H(X Y ) C := max f X I (X ; Y )
39 Kanalcodiertheorem - Teil 1 Kodierer Kanäle Kanalcodiertheorem Kanal mit Kapazität C, Quelle mit Entropie H. Wenn H < C, so existiert ein Code mit beliebig kleiner Fehlerwahrscheinlichkeit
40 Kanalcodiertheorem - Teil 2 Kodierer Kanäle Kanalcodiertheorem Kanal mit Kapazität C, Quelle mit Entropie H. Wenn H > C, so existiert kein Code mit einer Äquivokation unter H C
41 Beispiel - Kapazität Kodierer Kanäle Kanalcodiertheorem Ein Kanal mit additiver, weißer, Gauss verteilter Störung hat die Kapazität C = W log 2 P+N N W : Bandbreite P: Sendeleistung N: Rauschleistung
42 Bester Code? Codebeispiel Fehlerrate: = 1MB (Ethernet) Fehlerrate: = 1kB (Mobilfunk) unterschiedliche Codes für verschiedene Einsatzzwecke geeignet.
43 Beschreibung eins Codes C Codebeispiel Code C = (n, k, d) n: Codewortlänge k: Anzahl der codierten Bits d: Hammingabstand der Codewörter
44 Hammingabstand Codebeispiel Hammingabstand d ist minimale Distanz zweier Codewörter Fehlererkennung für maximal d 1 Fehler Fehlerbehebung für maximal d 1 2 Fehler
45 Codebeispiel Beispiel - ParityCheck-Code Code C = (3, 2, 2) Codewörter {000, 011, 101, 110} Rate R = k n = 2 3 Hammingabstand d = 2 d 1 = 1 Fehler können erkannt werden d 1 2 = 0 Fehler können behoben werden empfangenes Codewort 111 wird als verfälscht erkannt
46 Codebeispiel Beispiel - Wiederholungscodes Code C = (5, 1, 5) Codewörter {00000, 11111} Rate R = k n = 1 5 Hammingabstand d = 5 d 1 = 4 Fehler können erkannt werden d 1 2 = 2 Fehler können behoben werden empfangenes Codewort wird zu 00000
47 Reed-Solomon-Codes Codebeispiel entdeckt 1960 von Irving S. Reed und Gustave Solomon es gilt: C = (n(= p 1), k, d = n k + 1) MDS-Code Korrektur aus beliebigen k Stellen des Codeworts Anwendungen: Fehlerkorrektur von Audio-CDs, Mobilfunk, DVB, Kommunikation mit Raumsonden
48 Beispiel CD Codebeispiel Reed-Solomon-Kodierung mit Interleaver (CIRC) bis zu Bit lange Fehler korrigierbar entspricht Kratzer von etwa 2, 4mm Spurlänge bei Audio-Cds können sogar Bit (etwa 8.5mm) kompensiert werden
49 Restklassenringe Codebeispiel p: Primzahl Z p ist ein Körper Rechenvorschrift: a+b mod p, a*b mod p Es gibt p verschiedene Elemente (0,.., p 1) 0 <= a + b, a b < p a 0 = a p 1 = 1
50 Eigenschaften Körper Codebeispiel Assoziativität Neutrales Element Inverses Element Kommutativität Distributivgesetz
51 Beispiel: Restklassenring p=7 Codebeispiel
52 Primitives Element Codebeispiel α ist primitives Element {α 0 = α p 1, α 1, α 2,.., α p 2 } = {1, 2,.., p 1} Beispiel: p = 7, α = 5 {α 0 = 1, α 1 = 5, α 2 = 5 2 = 4, α 3 = 5 3 = 6, α 4 = 5 4 = 2, α 5 = 5 5 = 3} Zu jedem Primkörper gibt es mindestens ein primitives Element
53 Polynomdarstellung Codebeispiel (A 0, A 1,.., A k 1 ) = A(x) = A 0 + A 1 x + A 2 x A k 1 x k 1 grad(a(x)) < k (a 0, a 1,.., a n 1 ) = a(x) = a 0 + a 1 x + a 2 x a n 1 x n 1 grad(a(x)) < n
54 Kodierung Codebeispiel Kodierung: A 0,.., A k 1 : Information a 0,.., a n 1 : Codewort Es gilt: a i = A(α i )bzw.a j = n 1 a(α j )
55 Beispiel für p = 7, α = 5 Codebeispiel Es sei: n = p 1 = 6, k = 2, d = n k + 1 = 5 {α 0 = 1, α 1 = 5, α 2 = 4, α 3 = 6, α 4 = 2, α 5 = 3} Information: (23) A 0 = 2, A 1 = 3 A(x) = 2 + 3x Berechnung von a 0,.., a 5 : a 0 = A(α 0 = 1) = = 5 a 1 = A(α 1 = 5) = = = 3 a 2 = A(α 2 = 4) = = = 0 a 3 = A(α 3 = 6) = = = 6 a 4 = A(α 4 = 2) = = = 1 a 5 = A(α 5 = 3) = = = 4 Das erzeugte Codewort ist: (530614)
56 Dekodierung Codebeispiel Empfangen: r(x) = a(x) + f (x) wobei f(x) der Fehler sein soll (f(x) = 0 kein Fehler) Dekodierung erfolgt über R j = n 1 r(α j ) Ist gradr(x) < k, dh. R k = R k+1 =.. = R n 1 = 0, so ist r(x) ein gültiges Codewort, R(x) = A(x) die Informationi Wenn nicht, ist min. 1 Fehler aufgetreten. (Fehlererkennung) Fehlerbehebung zb. über Fehlerstellenpolynom C.
57 Fehlerstellenpolynom Codebeispiel Gesucht: Polynom C(x) mit möglichst geringem Grad, für das gilt: C(x) = f j!=0 (αj x) grad(c(x)) = #Fehlerstellen
58 Naive Berechnung Codebeispiel Sei e d 1 2 die Anzahl der Fehler C(x) = 1 + C 1 x + C 2 x C e x e Sei S 0 = R k,.., S e = R n 1 dann kann C(x) über Schlüsselgleichungen 0 = e 1 C i S j i mit j = 2e 1,.., e berechnet werden i=0 Die Nullstellen von C(x) sind die Stellen der inkorrekten Symbole
59 Beispiel Codebeispiel Gesendet: a(x) = (530614) Empfangen: r(x) = (530600)
60 Beispiel Codebeispiel Gesendet: a(x) = (530614) Empfangen: r(x) = (530600) (korrekte) Annahme: 2 Fehler
61 Beispiel Codebeispiel Gesendet: a(x) = (530614) Empfangen: r(x) = (530600) (korrekte) Annahme: 2 Fehler C(x) = 1 + C 1 x + C 2 x 2
62 Berechnung von R Codebeispiel n = 6, n 1 = 6, {α 0 = 1, α 1 = 5, α 2 = 4, α 3 = 6, α 4 = 2, α 5 = 3} r(x) = 5 + 3x + 6x 3 R j = n 1 r(α j ) R 0 = r(1) = 6( ) = 6 0 = 0 R 1 = r(3) = 6( ) = 6 1 = 6 R 2 = r(2) = 6( ) = 6 3 = 4 R 3 = r(6) = 6( ) = 6 3 = 4 R 4 = r(4) = 6( ) = 6 2 = 5 R 5 = r(5) = 6( ) = 6 0 = 0 R 2, R 3, R 4! = 0 kein gültiges Codewort!
63 Codebeispiel Berechnung von C S 0 = R 2 = 4 S 1 = R 3 = 4 S 2 = R 4 = 5 S 3 = R 5 = 0 Zu lösende Gleichungen: 0 = C 0 S 3 + C 1 S 2 + C 2 S 1 = 0 + 5C 1 + 4C 2 0 = C 0 S 2 + C 1 S 1 + C 2 S 0 = 5 + 4C 1 + 4C 2 C 1 = 5, C 2 = 6 C(x) = 1 + 5x + 6x 2 C(x) = 0 x = 2, x = 3 α 4 = 2, α 5 = 3 Fehler an Stellen 4 und 5
64 Specials Codebeispiel Faltungscodes (Zustandsmaschine, Trellis-Codierung) Kanalcodes, die je nach Bedarf zusätzliche Informationen schicken geschachtelte Kanalcodes (innerer Code, äusserer Code)
65 verwendete Software Codebeispiel vim L A TEX(Beamer Klassen) xfig ImageMagick Gimp Gimp
Informationsgehalt einer Nachricht
Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung
Mehr3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238
3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher
MehrPraktikum Fehlerreduktionssysteme / Codierungstheorie
Fakultät Elektrotechnik und Informationstechnik Institut für Nachrichtentechnik Lehrstuhl Theoretische Nachrichtentechnik Prof. Eduard Jorswieck, Anne Wolf Praktikum Fehlerreduktionssysteme / Codierungstheorie
MehrEntropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.
Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie
MehrKapitel 9: Informationstheorie. 2. Entropie
ZHAW, NT, FS2008, Rumc, Kapitel 9: 2-1 Kapitel 9: Informationstheorie 2. Entropie Inhaltsverzeichnis 2.1. INFORATIONSQUELLEN...2 2.2. INFORATIONSGEHALT...3 2.3. INIALE ANZAHL BINÄRE FRAGEN...5 2.4. ENTROPIE
Mehr(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
MehrCODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 1. Das Problem 1.1. Kanalcodierung und Fehlerkorrektur. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder 1 übertragen kann, schicken.
MehrEndliche Körper. Seminar Graphentheorie und Diskrete Mathematik Referent: Steffen Lohrke ii5105 SS 2005
Endliche Körper Seminar Graphentheorie und Diskrete Mathematik Referent: Steffen Lohrke ii5105 SS 2005 Abelsche Gruppe Eine Abelsche Gruppe ist eine algebraische Struktur, die aus einer Menge K und einem
MehrWir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir
Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht
MehrKlausur Informationstheorie und Codierung
Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte
Mehr3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.
3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle
MehrGrundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch
Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information
MehrAlgebra für Informationssystemtechniker
Algebra für Informationssystemtechniker Prof. Dr. Ulrike Baumann Fachrichtung Mathematik Institut für Algebra www.math.tu-dresden.de/ baumann Ulrike.Baumann@tu-dresden.de 16.07.2018 14. Vorlesung irreduzible
MehrEin (7,4)-Code-Beispiel
Ein (7,4)-Code-Beispiel Generator-Polynom: P(X) = X 3 + X 2 + 1 Bemerkung: Es ist 7 = 2^3-1, also nach voriger Überlegung sind alle 1-Bit-Fehler korrigierbar Beachte auch d min der Codewörter ist 3, also
MehrKapitel 7: Optimalcodierung und Huffman Coding
Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge
MehrEndliche Körper Seminar: Diskrete Mathematik Leitung: Prof. Dr. Rainer Lang Von: Steffen Lohrke (ii5105) SS2005
Endliche Körper Seminar: Diskrete Mathematik Leitung: Prof. Dr. Rainer Lang Von: Steffen Lohrke (ii5105) SS2005 Inhaltsverzeichnis Abelsche Gruppe 3 Kommutativer Ring 5 Körper 6 Endliche Körper 7 Endliche
MehrFormelsammlung Kanalcodierung
Formelsammlung Kanalcodierung Allgemeines Codewortlänge: N Anzahl der Informationsstellen: K Coderate: R = K/N Hamming-Distanz: D( x i, x j ) = w( x i xj ) Codedistanz: d = min D( x i, x j ); i j Fehlerkorrektur:
Mehrzu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6
zu ufgabe 6: a) 3 5 6 7 p( ) p( ) p( 3 ) p( ) p( 5 ) p( 6 ) p( 7 ) = p( 3 ) = p( 3 ) = p( 3 ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = 8 p( ) = p( ) = p( ) = p( ) Lösung: b) binär 8 p(
MehrDie Mathematik in der CD
Lehrstuhl D für Mathematik RWTH Aachen Lehrstuhl D für Mathematik RWTH Aachen St.-Michael-Gymnasium Monschau 14. 09. 2006 Codes: Definition und Aufgaben Ein Code ist eine künstliche Sprache zum Speichern
MehrSignale und Codes Vorlesung 4
Signale und Codes Vorlesung 4 Nico Döttling December 6, 2013 1 / 18 2 / 18 Letztes Mal Allgemeine Hamming Codes als Beispiel linearer Codes Hamming Schranke: Obere Schranke für k bei gegebenem d bzw. für
MehrModul 1: Einführung und Wahrscheinlichkeitsrechnung
Modul : Einführung und Wahrscheinlichkeitsrechnung Informationstheorie Dozent: Prof. Dr. M. Gross E-mail: grossm@inf.ethz.ch Assistenten: Bernd Bickel, Daniel Cotting, Michael Waschbüsch, Boris Köpf, Andrea
MehrDie Hamming-Distanz definiert eine Metrik.
Die Hamming-Distanz definiert eine Metrik. Satz Metrik Hamming-Distanz Die Hamming-Distanz ist eine Metrik auf {0, 1} n, d.h. für alle x, y, z {0, 1} n gilt: 1 Positivität: d(x, y) 0, Gleichheit gdw x
MehrÜbungen zur Vorlesung Grundlagen der Rechnernetze. Zusätzliche Übungen
Übungen zur Vorlesung Grundlagen der Rechnernetze Zusätzliche Übungen Hamming-Abstand d Der Hamming-Abstand d zwischen zwei Codewörtern c1 und c2 ist die Anzahl der Bits, in denen sich die beiden Codewörter
MehrZyklische Codes Rechnernetze Übung SS2010
Zyklische Codes Binärcodes Blockcodes Lineare Codes Nichtlineare Codes Zyklische Codes Systematische Codes Binärcodes Blockcodes Lineare Codes Nichtlineare Codes Zyklische Codes Systematische Codes Durch
MehrLösungsvorschläge zu Blatt Nr. 13
Institut für Algorithmen und Kognitive Systeme Dr. Jörn Müller-Quade Carmen Kempka Christian Henrich Nico Döttling Vorlesung Informatik III Lösungsvorschläge zu Blatt Nr. Aufgabe (K ( Punkte Gegeben ist
MehrBegriffe aus der Informatik Nachrichten
Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung
Mehr1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen
1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte
MehrKlausur zur Vorlesung Informationstheorie
INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 07 Hannover Klausur zur Vorlesung Informationstheorie Datum: 0.0.00 Uhrzeit: 09:00 Uhr Zeitdauer:
MehrSysteme II 3. Die Datensicherungsschicht
Systeme II 3. Die Datensicherungsschicht Christian Schindelhauer Technische Fakultät Rechnernetze und Telematik Albert-Ludwigs-Universität Freiburg Version 12.05.2016 1 Fehlererkennung: CRC Effiziente
MehrTGI-Übung Dirk Achenbach
TGI-Übung 7 06.02.2014 Dirk Achenbach INSTITUT FÜR THEORETISCHE INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Agenda
MehrGrundlagen der Technischen Informatik. 3. Übung
Grundlagen der Technischen Informatik 3. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 3. Übungsblatt Themen Aufgabe : Aufgabe 2: Aufgabe 3: Informationstheorie Huffman-Code Entropie
MehrLösungshinweise zur Klausur. Mathematik für Informatiker III. (Dr. Frank Hoffmann) 18. Februar 2008
Lösungshinweise zur Klausur Mathematik für Informatiker III (Dr. Frank Hoffmann) 8. Februar 8 Aufgabe Algebraisches I /6++ (a) Rechnen Sie zunächst nach, dass die Menge B = {,, von Vektoren eine Basis
MehrKapitel 11: Binäre Kanäle
Kaitel : Binäre Kanäle Ziele des Kaitels Binäre Kanäle und ihre Eigenschaften Gedächtnisfreie Kanäle Codierung als Schätzung und Schätzverfahren Kanalkaazität Shannon'sches Kanalcodierungstheorem Grundlegendes
MehrTechnische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und
MehrGegeben ist ein systematischer (7,3)-Cod. Die drei seiner Codewörter lauten:
Prof. Dr.-Ing. H.G. Musmann INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 67 Hannover Gegeben ist ein systematischer (7,)-Cod. Die drei seiner
MehrP (x i ) log 2 = P (x. i ) i=1. I(x i ) 2 = log 1. bit H max (X) = log 2 MX = log 2 2 = 1. Symbol folgt für die Redundanz. 0.9 = 0.
7. Diskretes Kanalmodell I 7. a Aussagen über das digitale Übertragungsverfahren Bis auf die bereitzustellende Übertragungsrate [vgl. c)] sind keine Aussagen über das digitale Übertragungsverfahren möglich.
MehrBeispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
MehrEinführung in die Codierungstheorie
Einführung in die Codierungstheorie Monika König 11.12.2007 Inhaltsverzeichnis 1 Einführung und Definitionen 2 2 Fehlererkennende Codes 3 2.1 Paritycheck - Code............................... 3 2.2 Prüfziffersysteme................................
MehrModul Diskrete Mathematik WiSe 2011/12
Modul Diskrete Mathematik WiSe / Ergänzungsskript zum Kapitel 3.4. Hinweis: Dieses Manuskript ist nur verständlich und von Nutzen für Personen, die regelmäßig und aktiv die zugehörige Vorlesung besuchen
MehrGrundlagen der Technischen Informatik. 2. Übung
Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 2. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Aufgabe 4: Hamming-Distanz Fehlererkennung
Mehr1.1 Denition und Eigenschaften von Polynomen. k=0 b kx k Polynome. Dann ist. n+m. c k x k, c k = k=0. f(x) + g(x) := (a k + b k )x k. k=0.
1 Polynome I 1.1 Denition und Eigenschaften von Polynomen Denition: Ein Polynom über einem Körper K ist ein Ausdruck der Form a 0 + a 1 x + a 2 x 2 +... + a n x n = a k x k mit a i K. Ist a n 0, so heiÿt
MehrStochastische Lernalgorithmen
Stochastische Lernalgorithmen Gerhard Jäger 14. Mai 2003 Das Maximum-Entropy-Prinzip Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kommt ursprünglich aus der Physik:
MehrStatistik I für Betriebswirte Vorlesung 2
Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April
MehrEinführung in die Wahrscheinlichkeitsrechnung
Marco Cattaneo Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2011 1. Wahrscheinlichkeitsrechnung 2. Diskrete Zufallsvariable 3. Stetige Zufallsvariable 4. Grenzwertsätze
MehrGrundlagen der Technischen Informatik. Hamming-Codes. Kapitel 4.3
Hamming-Codes Kapitel 4.3 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Inhalt Welche Eigenschaften müssen Codes haben, um Mehrfachfehler erkennen und sogar korrigieren zu können?
MehrKanalkodierung. 6 Kanalkodierung Zielstellung. Störungen der übertragenen Daten. 6 Kanalkodierung Zielstellung WS 2018/2019
Fakultät Informatik Institut Systemarchitektur Professur Datenschutz und Datensicherheit WS 2018/2019 6. Kanalkodierung Dr.-Ing. Elke Franz Elke.Franz@tu-dresden.de 6 Kanalkodierung Zielstellung en der
MehrÜbungsblatt 5 - Musterlösung
Universität Mannheim Lehrstuhl für Praktische Informatik IV Prof. Dr. W. Effelsberg Christoph Kuhmünch, Gerald Kühne Praktische Informatik II SS 2000 Übungsblatt 5 - Musterlösung Aufgabe 1: Huffman-Codierung
MehrGrundbegrie der Codierungstheorie
Grundbegrie der Codierungstheorie Pia Lackamp 12. Juni 2017 Inhaltsverzeichnis 1 Einleitung 2 2 Hauptteil 3 2.1 Blockcodes............................ 3 2.1.1 Beispiele.......................... 3 2.2
Mehr2.7 Der Shannon-Fano-Elias Code
2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.
MehrKongruenz modulo g definiert auf K[x] eine Äquivalenzrelation g : h g f h f ist durch g teilbar, und [f] g ist die Äquivalenzklasse von f.
3 Kongruenz modulo g definiert auf K[x] eine Äquivalenzrelation g : h g f h f ist durch g teilbar, und [f] g ist die Äquivalenzklasse von f 4 Auf der Menge aller Restklassen [f] g kann man Addition und
MehrÜbungsaufgaben zur Vorlesung Quellencodierung
Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = 1 0.1 0.1 0.1 y 2
MehrEinführung in die Codierungstheorie
11. Dezember 2007 Ausblick Einführung und Definitionen 1 Einführung und Definitionen 2 3 Einführung und Definitionen Code: eindeutige Zuordnung von x i X = {x 1,.., x k } und y j Y = {y 1,..., y n } Sender
MehrDiskrete Mathematik II
Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2008 DiMA II - Vorlesung 01-07.04.2008 Einführung in die Codierungstheorie, Definition Codes 1 / 36 Organisatorisches
Mehr31 Polynomringe Motivation Definition: Polynomringe
31 Polynomringe 31.1 Motivation Polynome spielen eine wichtige Rolle in vielen Berechnungen, einerseits weil oftmals funktionale Zusammenhänge durch Polynome beschrieben werden, andererseits weil Polynome
MehrCodierungstheorie Teil 1: Fehlererkennung und -behebung
Codierungstheorie Teil 1: Fehlererkennung und -behebung von Manuel Sprock 1 Einleitung Eine Codierung ist eine injektive Abbildung von Wortmengen aus einem Alphabet A in über einem Alphabet B. Jedem Wort
MehrInformationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006
Informationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006 Institut für Nachrichtentechnik und Hochfrequenztechnik Bitte beachten Sie: Sie dürfen das Vorlesungsskriptum, einen Taschenrechner
MehrWir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir
Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zuallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Inormation steht
MehrMathematische Grundlagen III
Mathematische Grundlagen III Informationstheorie Vera Demberg Universität des Saarlandes 26. Juni 202 Vera Demberg (UdS) Mathe III 26. Juni 202 / 43 Informationstheorie Entropie (H) Wie viel Information
MehrInformatik I WS 07/08 Tutorium 24
Info I Tutorium 24 Informatik I WS 07/08 Tutorium 24 8.11.07 Bastian Molkenthin E-Mail: infotut@sunshine2k.de Web: http://www.sunshine2k.de Übersicht o Information und Bezugssysteme o Informationstheorie
MehrSignale und Codes Vorlesung 11
Signale und Codes Vorlesung 11 Nico Döttling January 31, 2014 1 / 22 Ein List-Decoder für WH k Theorem (Goldreich-Levin) Für jedes ɛ > 0 existiert ein effizienter List-Decoder für WH k welcher 1 2 ɛ Fehler
MehrUnsicherheit * M RS = 6
Informationstheorie Gegenstand Unsicherheit Überraschung Entropie Relative und maximale Entropie, Redundanz Konditionale Entropie und Verbundentropie Wechselseitige ("Mutual") Information Gegenstand Kodierung,
MehrStatistik für Ingenieure Vorlesung 2
Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Unabhängigkeit von Ereignissen A, B unabhängig:
MehrAufgabe 7.1 Bei einer digitalen Übertragung liege folgendes Modell vor:
1 Aufgabe 7.1 Bei einer digitalen Übertragung liege folgendes Modell vor: Q x q x akf digitale Übertrag. q y akf S y Quellensymboldauer T q = 1ms diskreter Kanal Q x sei eine stationäre Markov-Quelle nullter
MehrKlausur zur Vorlesung Informationstheorie
INSTITUT FÜR INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 0167 Hannover Klausur zur Vorlesung Informationstheorie Datum:.02.2006 Uhrzeit: 9:00 Uhr Zeitdauer: 2 Stunden Hilfsmittel: ausgeteilte
MehrEine Menge K, auf der eine Addition. + und eine Multiplikation definiert sind, nennt man einen Körper, wenn folgende Eigenschaften gelten: Körper 1-1
Körper Eine Menge K, auf der eine Addition + und eine Multiplikation definiert sind, nennt man einen Körper, wenn folgende Eigenschaften gelten: Körper 1-1 Körper Eine Menge K, auf der eine Addition +
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrMathematik für Informatiker II (Maikel Nadolski)
Lösungen zum 4. Aufgabenblatt vom Mittwoch, den 02.Mai 2012 zur Vorlesung Mathematik für Informatiker II (Maikel Nadolski) 1. Reelles Betrachten Sie die folgenden beiden Mengen reeller Zahlen: S = { m
MehrSE Codierungstheorie Leitung: Dr. Amin Coja-Oghlan. Reed-Solomon-Codes. Jörg Pohle, Dezember 2006
SE Codierungstheorie Leitung: Dr. Amin Coja-Oghlan Reed-Solomon-Codes Jörg Pohle, 140114 15. Dezember 2006 1 Einleitung Im gleichen Jahr, in dem R. C. Bose, D. K. Ray-Chaudhuri und A. Hocquenghem die später
Mehr4.0.2 Beispiel (Einfacher Wiederholungscode). Im einfachsten Fall wird die Nachricht einfach wiederholt. D.h. man verwendet die Generatorabbildung
Wir beschäftigen uns mit dem Problem, Nachrichten über einen störungsanfälligen Kanal (z.b. Internet, Satelliten, Schall, Speichermedium) zu übertragen. Wichtigste Aufgabe in diesem Zusammenhang ist es,
MehrErinnerung: Der Vektorraum F n 2
Erinnerung: Der Vektorraum F n 2 Definition Vektorraum F n 2 F n 2 = ({0, 1}n,+, ) mit Addition modulo 2, + : F n 2 Fn 2 Fn 2 und skalarer Multiplikation : F 2 F n 2 Fn 2 definiert einen Vektorraum, d.h.
MehrSprechstunde zur Klausurvorbereitung
htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)
MehrVorlesung 13b. Relative Entropie
Vorlesung 13b Relative Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). 2 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. S sei eine abzählbare Menge (ein
MehrEine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«
Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................
MehrÜbungsblatt Nr. 7. Lösungsvorschlag
Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nico Döttling Dirk Achenbach Tobias Nilges Vorlesung Theoretische Grundlagen der Informatik Übungsblatt Nr. 7 svorschlag Aufgabe (K)
MehrWahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de
MehrDie Größe A(n, d) und optimale Codes
Die Größe A(n, d) und optimale Codes Definition Optimaler Code Wir definieren A(n, d) = max{m binärer (n, M, d) Code} Ein (n, M, d)-code heißt optimal, falls M = A(n, d). Bestimmung von A(n, d) ist offenes
MehrKommunikationstechnik II Wintersemester 07/08
Kommunikationstechnik II Wintersemester 07/08 Prof. Dr. Stefan Weinzierl Musterlösung: 5. Aufgabenblatt 1. Aufgabe: Kanalkodierung Zweck der Kanalcodierung: - Abbildung der information bits des Quellkodes
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
MehrKryptographie und Datensicherheit. Universität Potsdam Institut für Informatik Almahameed Ayman
Kryptographie und Datensicherheit Universität Potsdam Institut für Informatik Almahameed Ayman almahame@uni-potsdam.de Inhalt des Vortrags Einführung Grundlagen der Wahrscheinlichkeitstheorie Begriff der
MehrKapitel III Ringe und Körper
Kapitel III Ringe und Körper 1. Definitionen und Beispiele Definition 117 Eine Algebra A = S,,, 0, 1 mit zwei zweistelligen Operatoren und heißt ein Ring, falls R1. S,, 0 eine abelsche Gruppe mit neutralem
Mehr4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140
4 Woche Decodierung; Maximale, Perfekte und Optimale Codes 4 Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 Szenario für fehlerkorrigierende Codes Definition (n, M)-Code Sei C {0, 1}
MehrDirk W. Hoffmann. Einführung. in die Informations. und Codierungstheorie. ^ Springer Vieweg
Dirk W. Hoffmann Einführung und Codierungstheorie in die Informations ^ Springer Vieweg Inhaltsverzeichnis 1 Geschichte der Nachrichtentechnik 13 1.1 Von Fackeln und Feuern der Antike 15 1.1.1 Fackelpost
MehrKapitel 13: Syndromcodierung / Hamming Codes
Kapitel 3: Syndromcodierung / Hamming Codes Ziele des Kapitels Lineare Codes Zyklische Codes Copyright M. Gross, ETH Zürich 26, 27 2 Parity-Check-Matrix Theorem: Die Minimaldistanz eines linearen Codes
MehrTheoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK
Theoretische Grundlagen der Informatik 3..29 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Thema dieses Kapitels Informationstheorie
MehrWann sind Codes eindeutig entschlüsselbar?
Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C
MehrEinführungsvortrag zum Proseminar Datenkompression im Wintersemester 2003/2004
Einführungsvortrag zum Proseminar Datenkompression im Wintersemester 2003/2004 Dr. Ralf Schlüter Lehrstuhl für Informatik VI RWTH Aachen 52056 Aachen schlueter@cs.rwth-aachen.de Ralf Schlüter Einführungsvortrag
MehrCodes on Graphs: Normal Realizations
Codes on Graphs: Normal Realizations Autor: G. David Forney, Jr. Seminarvortrag von Madeleine Leidheiser und Melanie Reuter Inhaltsverzeichnis Einführung Motivation Einleitung Graphendarstellungen Trellis
MehrG. Dobner/H.-J. Dobner: Lineare Algebra Elsevier Spektrum Akademischer Verlag
G. Dobner/H.-J. Dobner: Lineare Algebra Elsevier Spektrum Akademischer Verlag Beantwortung der Fragen und Lösungen der Aufgaben zu Kapitel Version V vom 3.. 28 2 Beantwortung der Fragen zu Kapitel TESTFRAGEN
MehrDie inverse Diskrete Fourier Transformation
Die inverse Diskrete Fourier Transformation Konvertierung von der Point-value Form in Koeffizientenform. Dazu stellen wir die DFT als Matrix-Vektor Produkt dar 1 1 1... 1 1 ω n ωn 2... ωn n 1 a 0 y 0 1
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrMathematische und statistische Methoden II
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de
MehrÜbung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit
Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung
MehrInformationstheorie und Codierung
Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice
MehrSEMINAR KLASSIFIKATION & CLUSTERING STATISTISCHE GRUNDLAGEN. Stefan Langer WINTERSEMESTER 2014/15.
SEMINAR KLASSIFIKATION & CLUSTERING WINTERSEMESTER 2014/15 STATISTISCHE GRUNDLAGEN Stefan Langer stefan.langer@cis.uni-muenchen.de Frequenz & Häufigkeit: Übersicht Absolute Häufigkeit Relative Häufigkeit
Mehr