Kommunikationstechnik II Wintersemester 08/09

Ähnliche Dokumente
Prof. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert.

Kommunikationstechnik II Wintersemester 07/08

Prof. Dr. Stefan Weinzierl SNR V = P signal P noise

Musterlösung: 23. Oktober 2014, 16:42

1 Amplitudenstatistik analoger Signale

9. Vorlesung. Systemtheorie für Informatiker. Dr. Christoph Grimm. Professur Prof. Dr. K. Waldschmidt, Univ. Frankfurt/Main

Einführung in die Nachrichtenübertragung

Musterlösung: 11. Dezember 2014, 10:43. Informationstheorie und Entropiekodierung

Rechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir?

Grundlagen der Statistischen Nachrichtentheorie

Klausur Informationstheorie und Codierung

Error detection and correction

Übung zu Drahtlose Kommunikation. 1. Übung

Population und Stichprobe: Wahrscheinlichkeitstheorie

Grundlagen der Statistischen Nachrichtentheorie

Übungen zur Vorlesung Grundlagen der Rechnernetze. Zusätzliche Übungen

3. Grundbegriffe der Wahrscheinlichkeitstheorie

(Prüfungs-)Aufgaben zur Codierungstheorie

1 Autokorrelation, Leistung und Wahrscheinlichkeitsdichtefunktion eines Sinussignals

Aufgabe 1 - Pegelrechnung und LTI-Systeme

Kommunikationstechnik II Wintersemester 07/08

Grundlagen Digitaler Systeme (GDS)

Kapitel 5 Stochastische Unabhängigkeit

Kapitel 5: Digitale Übertragung im Basisband

Prof. Dr. Stefan Weinzierl

Theoretische Grundlagen der Informatik WS 09/10

Statistik für Ingenieure Vorlesung 2

Grundlagen der Nachrichtentechnik

Klausur vom

10 Bedingte Wahrscheinlichkeit

Auswirkungen der Quantisierung bei nichtlinearen Funktionen

Fit for Abi & Study Stochastik

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen

(Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!)

Kommunikationstechnik II. Prof. Dr. Stefan Weinzierl

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?

Zahlenformate. SigProc-4-Zahlenformate 1

Auswertung und Lösung

Klausur zur Vorlesung Informationstheorie

Grundlagen der Technischen Informatik. Hamming-Codes. Kapitel 4.3

Primzahlen zwischen 50 und 60. Primzahlen zwischen 70 und 80. Primzahlen zwischen 10 und 20. Primzahlen zwischen 40 und 50. den Term 2*x nennt man

Einführung in die Wahrscheinlichkeitsrechnung

Statistische Kenngrößen. Histogramm. Grundlagen zur statistischen Signalverarbeitung. Statistische Beschreibung von Audio

WHB11 - Mathematik. AFS II: Umgang mit Zufall und Wahrscheinlichkeiten. Thema: Summierte Binomialverteilung

Digitale Signalverarbeitung, Vorlesung 2: Quantisierung, Frequenzanalyse

Grundbegrie der Codierungstheorie

Grundlagen der Informatik II Übungsblatt: 5, WS 17/18 mit Lösungen

Bild-Erfassung Digitalisierung Abtastung/Quantisierung

1.3 Digitale Audiosignale

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 3

Grundwissen Mathematik Klasse 8. Beispiel: m= 2,50 1 = 5,00. Gleichung: y=2,50 x. Beispiel: c=1,5 160=2,5 96=3 80=6 40=240.

und mit t in Sekunden wird mit einer Frequenz von 8000 Hz abgetastet. Die Abtastung beginnt bei t=0 mit dem Zeitindex n=0.

Praxiswerkstatt Algorithmen der Signalcodierung

Tipps und Tricks für die Abschlussprüfung

11 Unabhängige Ereignisse

Übersicht Grundwissen 8. Klasse

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

Eingebettete Systeme

Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1

Vergleich der Hard-Decision Decodierung mit der Soft Decision- Decodierungi (HD- mit SD-Decodierung)

Statistik I für Humanund Sozialwissenschaften

2D Graphik: Bildverbesserung. Vorlesung 2D Graphik Andreas Butz, Otmar Hilliges Freitag, 2. Dezember 2005

Kombinatorik. 1. Permutationen 2. Variationen 3. Kombinationen. ad 1) Permutationen. a) Permutationen von n verschiedenen Elementen

Mecklenburg-Vorpommern Pflichtaufgaben ohne Hilfsmittel

Digital Signal Processing

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Mathematische und statistische Methoden II

Codierungstheorie Teil 1: Fehlererkennung und -behebung

Wahrscheinlichkeitsverteilungen

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Passerelle. Beschrieb der Fach-Module. von der Berufsmaturität. zu den universitären Hochschulen

Codes (6) Fehlererkennende (EDC) bzw. fehlerkorrigierende Codes (ECC)

Biomathematik für Mediziner

Klausur: Diskrete Strukturen I

Themen. Sicherungsschicht. Rahmenbildung. Häufig bereitgestellte Dienste. Fehlererkennung. Stefan Szalowski Rechnernetze Sicherungsschicht

Klausur zur Mathematik für Biologen

Formelsammlung. Wahrscheinlichkeit und Information

Übung 14: Block-Codierung

Kapitel 8 Absolutstetige Verteilungen

Lineare Funktionen. 1 Proportionale Funktionen Definition Eigenschaften Steigungsdreieck 3

Grundlagen und Diskrete Strukturen Aufgaben zur Vorbereitung der Klausur

7.1.2 Lineare Funktionen Schnittpunkte mit den Achsen - Lösungen

Die Mathematik in der CD

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2. Codewörter. Codewörter. Strukturierte Codes

Direkt und indirekt proportionale Größen

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte

Prof. Dr. Christoph Karg Hochschule Aalen. Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik. Sommersemester 2016

Einführung in die medizinische Bildverarbeitung WS 12/13

Einführung in die Kodierungstheorie


Dr. Jürgen Senger INDUKTIVE STATISTIK. Wahrscheinlichkeitstheorie, Schätz- und Testverfahren. 1. Zweimaliges Ziehen aus einer Urne (ohne Zurücklegen)

Was sind Dezibel (db)?

Wahrscheinlichkeitsrechnung

Übungsaufgaben zur Vorlesung Quellencodierung

Fehlerfortpflanzung. M. Schlup. 27. Mai 2011

Statistik I für Wirtschaftswissenschaftler Klausur am ,

Forschungsstatistik I

Technische Informatik - Eine Einführung

Einführung in die Codierungstheorie

Transkript:

Kommunikationstechnik II Wintersemester 8/9 Prof. Dr. Stefan Weinzierl Musterlösung: 8. Aufgabenblatt Lösung in der Rechenübung am 9.1.9 1. Aufgabe: Fehlererkennung/-korrektur Audio Symbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert. a) Wird bei einer Paritätsprüfung das empfangene Kodewort 1111 als fehlerfrei klassifiziert? Je nach Paritäts-Typ würde dieses Wort als gültig oder ungültig erkannt werden. Bei der häufiger anzutreffenden even parity wird das angefügte Prüfbit so gewählt, dass die Anzahl der Einsen im Gesamtwort (9-bit) gerade ist. Für diesen Fall wäre unser Kodewort gültig, auch wenn wir damit die (geringe) Restfehlerwahrscheinlichkeit, dass genau, 4, 6 oder gar 8 Bit fehlerhaft sind, außer Acht lassen. Bei odd parity würde das Kodewort als fehlerhaft erkannt werden. JA für even parity NEIN für odd parity Ein Nachteil einfacher Paritätskodes ist, dass nur eine ungeradzahlige Anzahl von fehlerhaften Bits erkannt wird. Zudem können diese nicht korrigiert werden, da durch den Paritätscheck nur erkannt wird, dass ein Fehler existiert, nicht aber wo er sich befindet. b) Wie groß ist die Wahrscheinlichkeit einer falschen Klassifizierung, wenn in dem so kodierten Kanal Bitfehler (random bit errors) mit einer Bit Error Rate (BER) von 1-3 auftreten? Die Wahrscheinlichkeit einer falschen Klassifizierung, d.h. der fälschlichen Akzeptanz eines fehlerhaften Kodewortes durch die Paritätsprüfung kann man mithilfe der Bernoulllischen Formel zur Binominalverteilung berechnen. p k = n ' p k ( (1) p) n)k k mit ' n n! = k k!( n! k)! Sie gibt die Wahrscheinlichkeit an, dass bei einem n mal wiederholten Zufallsexperiment (n voneinander unabhängigen Einzelversuche) das Ereignis A mit der Wahrscheinlichkeit p genau k mal auftritt. Im Kontext der Bitfehlerbetrachtung ist dabei A: Auftreten eines fehlerhaften Bits n = 9 Bit bzw. 9 Versuche je Kodewort

k = Anzahl fehlerhafter Bits (Ereignisse) pro Kodewort (Versuchsreihe n) p= Auftretenswahrscheinlichkeit eines Bitfehlers Der Term p k beschreibt die Wahrscheinlichkeit, dass genau k Bits fehlerhaft sind (multiplikative Verknüpfung der Wahrscheinlichkeiten konjunkter Ereignisse: p tot = p(a) p(b)). Der Term (1 - p) n-k beschreibt die Wahrscheinlichkeit, dass die restlichen n-k Bits fehlerfrei sind. Die Konjunktivität (Gleichzeitigkeit) der zwei beschriebenen Zustände verlangt die multiplikative Zusammenfassung der zwei Terme. Der n Term! beschreibt die Gesamtanzahl aller verschiedenen Anordnungen von k fehlerhaften Bits in einem n-stelligen Kodewort (Fehlermuster) und muss mit den beiden k anderen Termen multipliziert werden. Um nun die Wahrscheinlichkeit für Falschklassifikation bei Paritätskanalcodierung zu bestimmen, muss man sich zuerst klarmachen, welche Fehler zur Falschakzeptanz eines Kodeworts führen: Die Paritätsprüfung erkennt dann Fehler nicht, wenn sie geradzahlig d.h. -, 4-, 6-, 8- fach usw. auftreten. Die Kodewortfehlerwahrscheinlichkeit ergibt sich nach dem Additionstheorem für disjunkte Ereignisse (p tot = p(a)+p(b)) als Summe der Einzelwahrscheinlichkeiten: p Kodewortfehler = p Fehler + p 4 Fehler + p 6Fehler + p 8Fehler Man berechnet also die Auftretenswahrscheinlichkeiten P aller Bitfehlermuster, die von der Paritätsprüfung nicht erkannt werden und summiert diese zur Gesamtfehlerwahrscheinlichkeit P Kodewort auf. p Kodewort = p k [k =,4,6,8] k p Kodewort = 9 ' 1 (3) (1(1 (3 ) 7 + 9 4 ' 1 (3)4 (1(1 (3 ) 5 + 9 6 ' 1 (3)6 (1(1 (3 ) 3 + 9 8 ' 1 (3)8 (1(1 (3 ) 1 p Kodewort = 3,571 5 +1,51 1 + 8,371 17 + 8,991 4 p Kodewort = 3,571 5. Quantisierung und Dither (aus Klausur WS 6/7) Gegeben sei ein A/D-Wandler mit linearer Quantisierungskennlinie und der Stufenbreite Q. Zur Festlegung der erforderlichen Wortlänge z.b. eines PCM- Sprachübertragungssystems mit dieser Quantisierung gelte für die Quantisierungsrauschleistung Q { q [ n] } 1 W Q = E = a) Wie ist unter dieser Voraussetzung die Wortbreite w zu wählen, damit für ein Sinussignal bei Vollaussteuerung ein Signal-Rauschabstand von SNR > 45 db erreicht wird?

Bestimmen Sie zunächst die Leistung eines vollausgesteuerten Sinussignals in Abhängigkeit von der Wortbreite w und der Stufenbreite Q, geben Sie einen Ausdruck für den resultierenden SNR an und bestimmen Sie w so, dass der geforderte SNR erreicht wird. Signalenergie: W S = A ' Stufenbreite: Q = A Q w A = w also: W S = w Q ' = w Q W S = w Q 1 8 W Q 8 Q = w 3 SNR = 1log W S W Q ' =1log w ( 3 ' = w (1log ( ) +1log 3 ' = w 6. db+1,76 db Wortbreite w für 45 db SNR: 45 db=! w 6. db+1,76 db w min = 45 db1,76 db 6. db = 7.18 8 bit b) Welcher Signal-Rauschabstand ergibt sich für w = 5? SNR 5bit = 5 6. db+1,76 db = 31.9 db c) Welche Bedingung muss erfüllt sein, damit sich ein Quantisierungsfehler als Rauschsignal (wie in a)) modellieren lässt? Die Amplitudendichteverteilung des Quantisierungsrauschens wird als rechteckförmig (gleichverteilt) vorausgesetzt. Dies kann bei hoch ausgesteuerten, mit ausreichender Wortbreite quantisierten Signalen angenommen werden. d) Was ist ein Dither-Signal? Wie wirkt es sich auf das Leistungsdichtespektrum (LDS) des Quantisierungsfehlers aus? Dither ist Rauschen, das vor dem Quantisieren oder Requantisieren additiv zum Eingangssignal zugefügt wird. Dies führt zu einer Linearisierung der Quantisierungskennlinie. Die Rauschmodulation kann durch eine geeignete ADV des Dithers unterdrückt werden. Die Korrelation zwischen Eingangssignal und Quantisierungsfehler wird aufgehoben, dadurch wird das LDS des Quantisierungsfehlers weiß bzw. die ADV wird rechteckförmig e) Gegeben sei ein Dither-Signal mit folgender Amplitudendichteverteilung (ADV)

Skalieren Sie die Verteilungsdichte (y-achse) so, dass die Normierung für die ADV erfüllt ist. p Q! ( q) dq = 1 Die Fläche eines Dreiecks berechnet sich wie folgt: A = b h Hier ist A=1, b=4q, demnach ist h = A b = 4Q = 1 1 f) Berechnen Sie die Leistung des Dithersignals als Varianz der Rauschamplitude q. Geben sie hierfür einen abschnittsweisen Verlauf von p Q (q) an und berechnen E q Sie den quadratischen Mittelwert { } Mit y = mx + b ist hier b = 1 m = y x = 1 1 = 1 4Q (Steigung) (Schnittpunkt mit der y-achse) und Also ist: p Q (q) = ± 1 4Q q + 1 Es gilt: E q also: E q = 1 ) ( { } = q p Q (q)dq 1 = q 4Q q + 1 ' ) dq + q 1 ( 4Q q + 1 ' ) dq ( { } = q p Q (q)dq q 3 + q ' dq + ) ( q3 + q ' dq' = 1 * q 4 8Q + q 3-, / + 3. = 1 16 8Q Q4 8 3 Q3 ( + 16 ' 8Q Q4 + 8 3 Q3 (( = + 8 '' 3 Q = 3 ( * + ( q4 8Q + q 3-, / + 3. g) Bestimmen Sie den Signal-Rauschabstand zu einem vollausgesteuerten Sinussignal in Anwesenheit des Dither-Signals. '

Die Gesamtfehlerleistung ergibt sich durch Addition der Quantisierungsfehler- und der Ditherleistung. Bei gleichverteiltem Quantisierungsfehler (siehe Aufgabe a)) ist dies also: W F = W Q + W D = Q 1 + 3 = 9Q 1 = 3Q 4 SNR = 1log W S W F ' =1log w ( 1 6 = w 6, db 7,78 db W S = w Q W F 8 ' = w ( 6, db+1log 1 6 ' 4 3Q = w 1 6 h) Welchen Vorzug hat dreieckverteilter Dither wie in e) gegenüber rechteckverteiltem Dither? Die Rauschmodulation wird ideal unterdrückt.