Übungsaufgaben zur Vorlesung Quellencodierung

Größe: px
Ab Seite anzeigen:

Download "Übungsaufgaben zur Vorlesung Quellencodierung"

Transkript

1 Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = y 2 = y 3 = a) Berechne die Wahrscheinlichkeiten P(x), P(y), P(x y) und P(y x). b) Sind x und y unkorreliert, d.h. linear unabhängig? c) Sind x und y statistisch unabhängig? Aufgabe 2: Eine gedächtnislose Signalquelle möge die in der Tabelle aufgeführten Abtastwerte x k mit den angegebenen Wahrscheinlichkeiten als Symbolalphabet erzeugen. Die Abtastwerte werden durch einen Quadrierer mit der Kennlinie A bzw. B geschickt. Für beide Kennlinien sollen die Abtastwerte y k, ihre Wahrscheinlichkeiten P(y k ) und die Entropie H(Y) am Ausgang des Quadrierers berechnet werden. x k x 1 = 0 x 2 = 1 x 3 = 2 x 4 = 3 x 5 = 4 P(x k ) x A B y A: y x 2 B: y x für x 2.5 sonst Aufgabe 3: Für eine stationäre Quelle mit 4 Symbolen kennt man folgende Wahrscheinlichkeiten: a k P(a k ) P(u N u N 1 ) u N : a 1 a 2 a 3 a 4 a u N 1 : a a a a a a a a) Berechne die Verbundwahrscheinlichkeit P(u N, u N 1 ). b) Berechne die Entropie H(U), den Entscheidungsgehalt H 0 und die Redundanz R unter der Annahme einer gedächtnislosen Quelle. c) Berechne die bedingte Entropie H(U N U N 1 ). 1

2 Aufgabe 4: Eine stationäre, gedächtnislose Nachrichtenquelle sendet 4 Symbole mit den angegebenen Wahrscheinlichkeiten. a k a 1 a 2 a 3 a 4 P(a k ) a) Konstruiere einen binären Huffman Code für die Einzelsymbole und berechne seine mittlere Codewortlänge. b) Konstruiere einen binären Huffman Code für Symbolpaare (Blöcke aus 2 Symbolen) und berechne die mittlere Codewortlänge je Symbol. c) Berechne Entropie und Redundanz der Quelle und vergleiche die Ergebnisse mit a) und b). Berechne die Redundanz für die Codes a) und b). Aufgabe 5: Gegeben ist der dargestellte Markov Prozeß: a 1 ; a 2 ; a 1 ; 1 a 3 ; 0.35 a 2 ; 0.35 a 3 ; a) Man bestimme die Wahrscheinlichkeiten der Zustände P(S j ), der Symbole P(a k ) und die bedingten Wahrscheinlichkeiten P(a k a j ). b) Von wievielter Ordnung ist der Markov Prozeß? c) Berechne den Entscheidungsgehalt der Quelle H 0 und den mittleren Informationsgehalt eines Einzelsymbols H 1. Konstruiere einen Huffman Code für die Einzelsymbole und vergleiche die mittlere Codewortlänge mit H 0 und H 1. d) Berechne die Entropie der Quelle H Q. Konstruiere nun einen Huffman Code, der das Gedächtnis der Quelle optimal ausnutzt. Vergleiche die mittlere Codewortlänge n H mit H Q. e) In einem redundanzreduzierenden Blockcoder werden Blöcke von L aufeinanderfolgenden Symbolen gemeinsam codiert. Man gebe die untere Grenze für die mittlere Codewortlänge am Ausgang eines solchen Coders in Abhängigkeit von L, H 1 und H Q an (binäre Codierung: D=2). f) Wie groß muß L gewählt werden, damit die mittlere Codewortlänge pro Quellensymbol n B der Blockcodierung die Codewortlänge n H der Markov Quellen Codierung aus d) sicher unterschreitet? 2

3 Aufgabe 6: Zur digitalen Übertragung von Faksimilesignalen werden die Bildvorlagen, die die zwei Helligkeitsstufen weiß und schwarz aufweisen, zeilenweise abgetastet und in gleichbreite Bildpunkte aufgeteilt. Nach der Digitalisierung liegt eine zeit und wertdiskrete Nachrichtenquelle mit den Quellensymbolen s (schwarz) und w (weiß) vor. Es wird vorausgesetzt, daß die Wahrscheinlichkeit, ob ein Bildpunkt schwarz oder weiß ist, nur vom Helligkeitswert des vorangegangenen Bildpunktes abhängt. Es gelten folgende Verbundwahrscheinlichkeiten: P(u N, u N 1 ) u N = s w u N 1 = s w a) Stelle die Quelle in Form eines Markov Prozesses dar. Von wievielter Ordnung ist er? Berechne die Übergangswahrscheinlichkeiten P(u N s j ), die Wahrscheinlichkeiten der Zustände s j sowie der Symbole s und w. b) Bestimme die Entropie H M der Markov Quelle. Es soll nun eine Lauflängencodierung realisiert werden. Dabei werden die Bildpunktfolgen in Abschnitte aufeinanderfolgender Bildpunkte gleicher Helligkeit aufgeteilt und für jeden Abschnitt die Lauflänge in codierter Form übertragen. Es werden schwarze und weiße Lauflängen voneinander getrennnt behandelt. c) Bestimme die Wahrscheinlichkeiten für schwarze und weiße Lauflängen P s (l) bzw. P w (l) in Abhängigkeit der Lauflänge l. Wie groß sind die mittleren Lauflängen l s bzw. l w? d) Berechne die Entropie H L eines Bildpunktes dieser Lauflängencodierung und vergleiche das Ergebnis mit H M. Hinweis: i0 i0 q i 1 1 q mit q <1 i q i1 1 mit q <1 (1 q) 2 3

4 Aufgabe 7: Für eine gedächtnislose Binärquelle soll die Codierung mit fester Codewortlänge untersucht werden. Die Quelle sendet die Symbole a 1 und a 2 mit den Wahrscheinlichkeiten P(a 1 ) = 0.7 bzw. P(a 2 ) = 0.3. Die Codierung erfolgt binär, d.h. es gilt D = 2. a) Berechne für Blocklängen von L {1, 2,.., 85} die Wahrscheinlichkeit P(T), daß für einen Block kein Codewort zur Verfügung steht: P(T) P ld P(u 1,,u L ) L H(U) mit = 0.1. b) Beurteile die Praktibilität dieser Codierung. Aufgabe 8: Eine gedächtnislose Nachrichtenquelle sendet 4 Symbole mit den angegebenen Wahrscheinlichkeiten. Zur Quellencodierung wird eine arithmetische Codierung eingesetzt. a k a 1 a 2 a 3 a 4 P(a k ) a) Bestimme die Codeworte eines Elias Codes für Symbolpaare (Blockcodierung mit L=2). b) Berechne die mittleren Codewortlängen des Elias Codes und vergleiche die Ergebnisse mit einem entsprechenden Huffman Code (siehe Aufgabe 4b). Erläutere die Vor und Nachteile der verschiedenen Codierungsverfahren. Aufgabe 9: Eine gedächtnislose Nachrichtenquelle sendet 5 Symbole mit den angegebenen Wahrscheinlichkeiten. a k a 1 a 2 a 3 a 4 a 5 P(a k ) Die Quellensymbole werden zu Blöcken der Länge L=5 zusammengefaßt, mittels eines Elias Codes codiert und binär übertragen. Der Decoder empfängt folgendes Codewort: Welche Symbolfolge wurde gesendet? 4

5 Aufgabe 10: Eine Quelle mit unbekannter Statistik sendet die Zeichen a, b und c als Quellensymbole. Zur Quellencodierung wird der Algorithmus von Lempel Ziv Welch (LZW) eingesetzt. Die Quelle sendet folgende Symbolfolge: ababcabcabcaabcaa a) Codiere die Symbolfolge mit Hilfe des LZW Algorithmus. b) Decodiere die in a) codierte Folge von Tabellenindizes. Aufgabe 11: Eine gedächtnislose Quelle sendet zwei Symbole mit den Wahrscheinlichkeiten Q(0) und Q(1). Das Ausgangsalphabet des Quellencoders bestehe aus zwei Symbolen und es gelte ein Verzerrungsmaß d(k; j) k j k 0, 1 und j 0, 1 a) Berechne die minimale mittlere Verzerrung d * min und die zugehörige Übertragungsrate R(d * min). b) Berechne die maximale mittlere Verzerrung d * max. c) Berechne mit Hilfe des Lagrange schen Verfahrens die Rate Distortion Funktion R(d * ). Aufgabe 12: Eine gedächtnislose Quelle sendet 8 Symbole mit den angegebenen Wahrscheinlichkeiten aus. Für den nachfolgenden Quellencoder gelte folgendes Verzerrungsmaß: k: Q(k): d(k;j): j = /16 k = / / / / / / / a) Berechne die minimale mittlere Verzerrung d * min und vergleiche R(d* min) mit H(Q). b) Berechne die maximale mittlere Verzerrung d * max. 5

6 Aufgabe 13: Gegeben sei eine wertkontinuierliche, zeitdiskrete, gedächtnislose Quelle mit der Varianz 2 und einer mittelwertfreien Laplace schen Wahrscheinlichkeitsdichte p(u) 1 2 u e 2 a) Berechne die Entropie H(U) und für ein Verzerrungsmaß d(u; v) (v u) 2 die Rate Distortion Funktion R(d * ). b) Berechne für die gegebene Quelle die Repräsentativwerte x k und Entscheidungswerte d k eines 3 stufigen Max Quantisierers. c) Berechne die Wahrscheinlichkeiten P(x k ) und die Entropie H Max am Ausgang des Max Quantisiers. d) Berechne für 2 die Verzerrung D des Max Quantisierers sowie R(d * D) und skizziere die Rate Distortion Funktion R(d * ). e) Erzeuge eine Trainingsmenge mit T=1000 Trainingswerten mit einer Laplaceverteilung für 2. Entwerfe mit Hilfe des LBG Algorithmus je einen Quantisierer mit K=3 sowie K=10 Stufen und vergleiche die Ergebnisse mit c) und d). Aufgabe 14: Die spektrale Leistungsdichte einiger Quellen kann näherungsweise durch die nachfolgende Funktion beschrieben werden. S(f) A A f 0 f 2n für für f f 0 f f 0 a) Berechne die mittlere Leistung P und die mittlere Verzerrung d * E (u v) 2, wenn eine Bandbegrenzung auf W durchgeführt wird (W > f 0 ). b) Ermittle die obere Grenze der Rate Distortion Funktion in allgemeiner Form als Funktion des Verhältnisses P/d *. c) Ermittle die Rate Distortion Funktion für die beiden nachfolgend angegebenen Quellen: Bildquelle: n=1 f 0 = 15 khz W = 5 MHz Sprachquelle: n = 2 f 0 = 500 Hz W = 3400 Hz 6

7 Aufgabe 15: Es sollen die mittleren quadratischen Quantisierungsfehler verschiedener zweidimensionaler Vektorquantisierer verglichen werden. Dabei ist die Näherung nach Panter und Dite anzuwenden, d.h. es ist davon auszugehen, daß die Wahrscheinlichkeitsdichte innerhalb einer Quantisierungszelle konstant ist. a) b) c) a) Berechne den mittleren quadratischen Quantisierungsfehler E[q 2 ] eines gleichförmigen skalaren Quantisierers (Z 2 Lattice) mit der Zellgröße x. b) Berechne E[q 2 ] für ein D 2 Lattice mit der Zellgröße x. c) Berechne E[q 2 ] für ein hexagonales A 2 Lattice mit der Zellhöhe. Die Breite einer Quantisierungszelle ergibt sich dann zu 2. 3 Aufgabe 16: Gegeben seien die Werte der Autokorrelationsfunktion R xx (n) eines stationären, mittelwertfreien Signals x: R xx (n) 8 3, 2 3, 2 3, 1 3 a) Bestimme die optimalen Koeffizienten eines linearen Prädiktors 3. Ordnung. b) Berechne den minimalen mittleren quadratischen Prädiktionsfehler 2 e min. c) Berechne den maximalen Gewinn des linearen Prädiktors G LPmax in db mit: G LPmax 10 log 10 2 x 2 e min 7

8 Aufgabe 17: Gegeben sei wiederum das Signal x aus Aufgabe 16. a) Bestimme die Transformationsmatrix für eine Karhunen Loeve Transformation (KLT) 3. Ordnung. b) Berechne den mittleren quadratischen Fehler der Transformation 2 e, wenn nur die ersten beiden Koeffizienten des Ergebnisvektors übertragen werden. c) Berechne den maximalen Transformationsgewinn G KLT in db mit: G KLT 10 log 10 2 x m N 1 N m1 8

Übung zur Vorlesung. Informationstheorie und Codierung

Übung zur Vorlesung. Informationstheorie und Codierung Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.

Mehr

Übung 13: Quellencodierung

Übung 13: Quellencodierung ZHAW, NTM, FS2008, Rumc, /5 Übung 3: Quellencodierung Aufgabe : Huffmann-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Signalübertragung und -verarbeitung

Signalübertragung und -verarbeitung ILehrstuhl für Informationsübertragung Schriftliche Prüfung im Fach Signalübertragung und -verarbeitung 6. Oktober 008 5Aufgaben 90 Punkte Hinweise: Beachten Sie die Hinweise zu den einzelnen Teilaufgaben.

Mehr

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon

Mehr

Übung 1: Quellencodierung

Übung 1: Quellencodierung ZHAW, NTM2, Rumc, /7 Übung : Quellencodierung Aufgabe : Huffman-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten

Mehr

Formelsammlung. Wahrscheinlichkeit und Information

Formelsammlung. Wahrscheinlichkeit und Information Formelsammlung Wahrscheinlichkeit und Information Ein Ereignis x trete mit der Wahrscheinlichkeit p(x) auf, dann ist das Auftreten dieses Ereignisses verbunden mit der Information I( x): mit log 2 (z)

Mehr

Der Huffman Algorithmus

Der Huffman Algorithmus Der Huffman Algorithmus Für das Folgende setzen wir voraus, dass die Quellensymbole q ν einem Alphabet {q μ } = {A, B, C,...} mit dem Symbolumfang M entstammen und statistisch voneinander unabhängig seien.

Mehr

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele

Organisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung

Mehr

3 Quellencodierung. 3.1 Einleitung

3 Quellencodierung. 3.1 Einleitung Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im

Mehr

Codierung, Codes (variabler Länge)

Codierung, Codes (variabler Länge) Codierung, Codes (variabler Länge) A = {a, b, c,...} eine endliche Menge von Nachrichten (Quellalphabet) B = {0, 1} das Kanalalphabet Eine (binäre) Codierung ist eine injektive Abbildung Φ : A B +, falls

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

Modulationsverfahren

Modulationsverfahren Funktions- und Fehleranalyse Herr Rößger 2011 2012 Modulationsverfahren Definition: Modulation ist die Beeinflussung einer Trägerschwingung durch eine Information. Trägerschwingung: Informationsparameter:

Mehr

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.

Mehr

Information & Kommunikation - Zusammenfassung

Information & Kommunikation - Zusammenfassung Information & Kommunikation - Zusammenfassung Patrick Pletscher 29 September 2004 Grundlagen der Informationstheorie Entropie als Mass für Unsicherheit Definition der Entropie Die Entropie einer diskreten

Mehr

Allgemeine Beschreibung von Blockcodes

Allgemeine Beschreibung von Blockcodes Allgemeine Beschreibung von Blockcodes Bei Blockcodierung wird jeweils eine Sequenz von m q binären Quellensymbolen (M q = 2) durch einen Block von m c Codesymbolen mit dem Symbolumfang M c dargestellt.

Mehr

KANALCODIERUNG AUFGABEN. Aufgabe 1. Aufgabe 2

KANALCODIERUNG AUFGABEN. Aufgabe 1. Aufgabe 2 AUFGABEN KANALCODIERUNG Aufgabe Wir betrachten den Hamming-Code mit m = 5 Prüfbits. a) Wie gross ist die Blocklänge n dieses Codes? b) Wie viele gültige Codewörter umfasst dieser Code? c) Leiten Sie die

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München Prof. Hußmann

Mehr

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Codierung Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Ein bisschen Informationstheorie Betrachten wir das folgende Problem: Wie lautet eine sinnvolle Definition für das quantitative

Mehr

Blockweise und symbolweise Codierung

Blockweise und symbolweise Codierung Blockweise und symbolweise Codierung Bei der Übertragungscodierung unterscheidet man zwischen zwei Arten, der symbolweisen und der blockweisen Codierung. Bei symbolweiser Codierung, die im Kapitel 2.4

Mehr

Mathematik für Information und Kommunikation

Mathematik für Information und Kommunikation Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html

Mehr

A2.3: Zur LZ78 Komprimierung

A2.3: Zur LZ78 Komprimierung A2.3: Zur LZ78 Komprimierung Im Gegensatz zur Entropiecodierung nach Huffman oder Shannon, bei der man die Quellenstatistik (möglichst genau) kennen muss, sind solche Einschränkungen bei den von Abraham

Mehr

Decodierung von Faltungscode- und Turbocode-basierten 2D-Barcodes unter Ausnutzung des Matched-Filter Ansatzes

Decodierung von Faltungscode- und Turbocode-basierten 2D-Barcodes unter Ausnutzung des Matched-Filter Ansatzes Decodierung von Faltungscode- und Turbocode-basierten 2D-Barcodes unter Ausnutzung des Matched-Filter Ansatzes Andreas Weinand 1, Wolfgang Sauer-Greff 2, Hans D. Schotten 1 1 Lehrstuhl für Funkkommunikation

Mehr

2. Eigenschaften digitaler Nachrichtensignale

2. Eigenschaften digitaler Nachrichtensignale FH OOW / Fachb. Technik / Studiengang Elektrotechnik u. Automatisierungstechnik Seite 2-2. Eigenschaften digitaler Nachrichtensignale 2. Abgrenzung zu analogen Signalen Bild 2.- Einteilung der Signale

Mehr

Übungsaufgaben für "Grundlagen der Informationsverarbeitung" (mit Lösungen)

Übungsaufgaben für Grundlagen der Informationsverarbeitung (mit Lösungen) Übungsaufgaben für "Grundlagen der Informationsverarbeitung" (mit Lösungen). Erläutern Sie die Begriffe Bit, Byte und Wort bezogen auf einen 6 Bit Digitalrechner. Bit: Ein Bit ist die kleinste, atomare,

Mehr

Codierung. H.-G. Hopf

Codierung. H.-G. Hopf Codierung H.-G. Hopf Inhalt Informationsübermittlung Codierung von Zeichen GDI: Codierung / 2 Inhalt Informationsübermittlung Codierung von Zeichen GDI: Codierung / 3 Ideale Kommunikation Übertragungskanal

Mehr

A1.7: Entropie natürlicher Texte

A1.7: Entropie natürlicher Texte A1.7: Entropie natürlicher Texte Anfang der 1950er Jahre hat Claude E. Shannon die Entropie H der englischen Sprache mit einem bit pro Zeichen abgeschätzt. Kurz darauf kam Karl Küpfmüller bei einer empirischen

Mehr

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester

Mehr

Kapitel 3: Etwas Informationstheorie

Kapitel 3: Etwas Informationstheorie Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens

Mehr

Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011

Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011 Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011 Ziel: Nachrichten fehlerfrei übertragen und ökonomisch (wenig Redundanz) übertragen Was ist der Hamming-Abstand?

Mehr

4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140

4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 4 Woche Decodierung; Maximale, Perfekte und Optimale Codes 4 Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 Szenario für fehlerkorrigierende Codes Definition (n, M)-Code Sei C {0, 1}

Mehr

Versuch 3: Anwendungen der schnellen Fourier-Transformation (FFT)

Versuch 3: Anwendungen der schnellen Fourier-Transformation (FFT) Versuch 3: Anwendungen der schnellen Fourier-Transformation (FFT) Ziele In diesem Versuch lernen Sie zwei Anwendungen der Diskreten Fourier-Transformation in der Realisierung als recheneffiziente schnelle

Mehr

Einführung in die Kodierungstheorie

Einführung in die Kodierungstheorie Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht

Mehr

Grundlagen der Technischen Informatik. 2. Übung

Grundlagen der Technischen Informatik. 2. Übung Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit Organisatorisches Übungsblätter zuhause vorbereiten! In der Übung an der Tafel vorrechnen! Bei

Mehr

OSNABRÜCKER SCHRIFTEN ZUR MATHEMATIK

OSNABRÜCKER SCHRIFTEN ZUR MATHEMATIK OSNABRÜCKER SCHRIFTEN ZUR MATHEMATIK Reihe V Vorlesungsskripten EHeft 9 Wintersemester 2001/02 Codierungstheorie und Kryptographie W. Bruns Fachbereich Mathematik/Informatik Universität Osnabrück OSM Osnabrücker

Mehr

Codierungstheorie. Code-Arten und Code-Sicherung

Codierungstheorie. Code-Arten und Code-Sicherung Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem

Mehr

Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de

Informationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de Inhaltsverzeichnis 3. Kanalcodierung 3.1 Nachrichtentheorie für gestörte Kanäle 3.1.1 Transinformation 3.1.2 Kanalkapazität

Mehr

Erst die rechte und dann die linke Hand heben: Zweimal nacheinander die rechte Hand heben:

Erst die rechte und dann die linke Hand heben: Zweimal nacheinander die rechte Hand heben: 7.7.7. Codierung mit variabler Wortlänge Vom schweigsamen König, der gern chweinebraten aß (Frei nach Walter. Fuchs: Knaur s Buch der Denkmaschinen, 968) n einem fernen Land lebte vor langer, langer Zeit

Mehr

Kanonische Huffman Codes (Canonical Huffman Codes)

Kanonische Huffman Codes (Canonical Huffman Codes) Projektarbeit (Canonical Huffman Codes) SS 2008 Studentin: Michaela Kieneke Dozent: Dr. Heiko Körner 0001010110110110010001110110001111100001101000110111100101111110001111000 1010101110101001011100100101011111110000011001011010100101000101010001010

Mehr

Single Parity check Codes (1)

Single Parity check Codes (1) Single Parity check Codes (1) Der Single Parity check Code (SPC) fügt zu dem Informationsblock u = (u 1, u 2,..., u k ) ein Prüfbit (englisch: Parity) p hinzu: Die Grafik zeigt drei Beispiele solcher Codes

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Diese Veröffentlichung ist ein zusätzliches Kapitel zum Buch

Diese Veröffentlichung ist ein zusätzliches Kapitel zum Buch Quantisierung Diese Veröffentlichung ist ein zusätzliches Kapitel zum Buch Rudolf Nocker Digitale Kommunikationssysteme 1 Grundlagen der Basisband-Übertragungstechnik Vieweg Verlag, Wiesbaden 004 Das Original

Mehr

Zusammenfassung zu Codierungstheorie

Zusammenfassung zu Codierungstheorie Zusammenfassung zu Codierungstheorie Sara Adams 5. Juli 2005 Diese Zusammenfassung basiert auf der Vorlesung Codierungstheorie gehalten im Sommersemester 2005 von Prof. Dr. Hans-Dietrich Gronau an der

Mehr

JKU Young Scientists Matheseminar

JKU Young Scientists Matheseminar JKU Young Scientists Matheseminar Matheseminar WS 2013/14 Codierung und Information Das grundlegende Problem der Kommunikation besteht darin, an einer Stelle entweder genau oder angenähert eine Nachricht

Mehr

2 Informationstheorie

2 Informationstheorie 2 Informationstheorie Formale Grundlagen der Informatik I Herbstsemester 2012 Robert Marti Vorlesung teilweise basierend auf Unterlagen von Prof. emer. Helmut Schauer Grundbegriffe Informatik (IT: Information

Mehr

Man unterscheidet zwei Gruppen von Codes: Blockcodes und Faltungscodes.

Man unterscheidet zwei Gruppen von Codes: Blockcodes und Faltungscodes. Versuch: Kanalcodierung. Theoretische Grundlagen Kanalcodierungstechniken werden zur Erkennung und Korrektur von Übertragungsfehlern in digitalen Systemen eingesetzt. Auf der Sendeseite wird zur Originalinformation

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Informationstheorie Prof Dr. Matthew Crocker Universität des Saarlandes 22. Juni 205 Matthew Crocker (UdS) Mathe III 22. Juni 205 / 43 Informationstheorie Entropie (H) Wie

Mehr

6 Fehlerkorrigierende Codes

6 Fehlerkorrigierende Codes R. Reischuk, ITCS 35 6 Fehlerkorrigierende Codes Wir betrachten im folgenden nur Blockcodes, da sich bei diesen das Decodieren und auch die Analyse der Fehlertoleranz-Eigenschaften einfacher gestaltet.

Mehr

Netzwerke - Bitübertragungsschicht (1)

Netzwerke - Bitübertragungsschicht (1) Netzwerke - Bitübertragungsschicht (1) Theoretische Grundlagen Fourier-Analyse Jedes Signal kann als Funktion über die Zeit f(t) beschrieben werden Signale lassen sich aus einer (möglicherweise unendlichen)

Mehr

3) Es soll ein aktives Butterworth-Tiefpassfilter mit folgenden Betriebsparametern entworfen werden: Grunddämpfung: Grenze des Durchlassbereiches:

3) Es soll ein aktives Butterworth-Tiefpassfilter mit folgenden Betriebsparametern entworfen werden: Grunddämpfung: Grenze des Durchlassbereiches: Übungsblatt 4 1) Beim Praktikumsversuch 4 sollten Sie an das aufgebaute iefpassfilter eine Rechteckspannung mit einer Frequenz von 6 Hz anlegen: a) Skizzieren Sie grob den Verlauf der Ausgangsspannung

Mehr

Kodierungsalgorithmen

Kodierungsalgorithmen Kodierungsalgorithmen Komprimierung Verschlüsselung Komprimierung Zielsetzung: Reduktion der Speicherkapazität Schnellere Übertragung Prinzipien: Wiederholungen in den Eingabedaten kompakter speichern

Mehr

High-Speed Optical Transmission Systems Grundlagen der numerischen Simulation

High-Speed Optical Transmission Systems Grundlagen der numerischen Simulation High-Speed Optical Transmission Systems Grundlagen der numerischen Simulation 8. Februar 2 In dieser Übung sollen einige Grundlagen der numerischen Simulation mit dem Programm VPItransmissionMaker behandelt

Mehr

OSNABRÜCKER SCHRIFTEN ZUR MATHEMATIK

OSNABRÜCKER SCHRIFTEN ZUR MATHEMATIK OSNABRÜCKER SCHRIFTEN ZUR MATHEMATIK Reihe V Vorlesungsskripten EHeft 9 Wintersemester 2001/02 Codierungstheorie und Kryptographie W. Bruns Fachbereich Mathematik/Informatik Universität Osnabrück OSM Osnabrücker

Mehr

15 Optimales Kodieren

15 Optimales Kodieren 15 Optimales Kodieren Es soll ein optimaler Kodierer C(T ) entworfen werden, welcher eine Information (z.b. Text T ) mit möglichst geringer Bitanzahl eindeutig überträgt. Die Anforderungen an den optimalen

Mehr

Codierungstheorie I: Information, Entropie, Kanäle

Codierungstheorie I: Information, Entropie, Kanäle 1 Codierungstheorie I: Information, Entropie, Kanäle Frieder Knüppel Hauptthema der Vorlesung sind fehlerkorrigierende Codes. Zunächst wollen wir aber in Teil I einige allgemeine Überlegungen zur Datenübertragung

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Sommersemester 2006 6. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@bioinf.uni-leipzig.de Datenkomprimierung Bei den meisten bisher betrachteten

Mehr

Gruppe. Lineare Block-Codes

Gruppe. Lineare Block-Codes Thema: Lneare Block-Codes Lneare Block-Codes Zele Mt desen rechnerschen und expermentellen Übungen wrd de prnzpelle Vorgehenswese zur Kanalcoderung mt lnearen Block-Codes erarbetet. De konkrete Anwendung

Mehr

Monte Carlo Simulationen

Monte Carlo Simulationen Monte Carlo Simulationen Erkenntnisse durch die Erschaffung einer virtuellen Welt Stefan Wunsch 31. Mai 2014 INSTITUT FÜR EXPERIMENTELLE KERNPHYSIK (IEKP) KIT Universität des Landes Baden-Württemberg und

Mehr

Code-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg

Code-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem

Mehr

Verkettungen von optimalen algebraischen und sphärischen Codes bei Coderate 1/2

Verkettungen von optimalen algebraischen und sphärischen Codes bei Coderate 1/2 Verkettungen von optimalen algebraischen und sphärischen Codes bei Coderate 1/2 Dejan E. Lazic Technische Universität Chemnitz-Zwickau, Fakultät für Elektrotechnik und Informationstechnik, Institut für

Mehr

Prinzipien der Signalaufbereitung im UMTS Mobilfunk

Prinzipien der Signalaufbereitung im UMTS Mobilfunk Prinzipien der Signalaufbereitung im UMTS Mobilfunk Darko Rozic Lehrstuhl für Messtechnik Universität Wuppertal Einführung Seit der Einführung des Global System for Mobile Communications (GSM) um 1990

Mehr

Verkettungen von optimalen algebraischen und sphärischen Codes bei Coderate 1/2

Verkettungen von optimalen algebraischen und sphärischen Codes bei Coderate 1/2 Verkettungen von optimalen algebraischen und sphärischen Codes bei Coderate 1/2 Dejan E. Lazic Technische Universität Chemnitz-Zwickau, Fakultät für Elektrotechnik und Informationstechnik, Institut für

Mehr

Multimediale Werkzeuge, Audio: Formate, Tools. -Sound/Audio Objekte. Formate, Beispiele:

Multimediale Werkzeuge, Audio: Formate, Tools. -Sound/Audio Objekte. Formate, Beispiele: Multimediale Werkzeuge, Audio: Formate, Tools -Sound/Audio Objekte Formate, Beispiele: - Mp3 (Kurz für MPEG1/2 Layer 3) - PCM (z.b. Wave Datei), übliche Formate: CD: 44100 HZ Abtastrate, 16 Bits/Abtastwert.

Mehr

ADSL über ISDN-Basisanschlüsse

ADSL über ISDN-Basisanschlüsse ADSL über ISDN-Basisanschlüsse Thomas Keßler und Werner Henkel Deutsche Telekom AG, Technologiezentrum, Postfach 10 00 03, 64276 Darmstadt Zusammenfassung Für ADSL-Kunden mit ISDN-Basisanschluß müssen

Mehr

Institut für Leistungselektronik und Elektrische Antriebe. Übungen Regelungstechnik 2

Institut für Leistungselektronik und Elektrische Antriebe. Übungen Regelungstechnik 2 Institut für Leistungselektronik und Elektrische Antriebe Prof. Dr.-Ing. J. Roth-Stielow Übungen Regelungstechnik 2 Inhalt der Übungen: 1. Grundlagen (Wiederholung RT1) 2. Störgrößenaufschaltung 3. Störgrößennachbildung

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Ein (7,4)-Code-Beispiel

Ein (7,4)-Code-Beispiel Ein (7,4)-Code-Beispiel Generator-Polynom: P(X) = X 3 + X 2 + 1 Bemerkung: Es ist 7 = 2^3-1, also nach voriger Überlegung sind alle 1-Bit-Fehler korrigierbar Beachte auch d min der Codewörter ist 3, also

Mehr

Informationssicherheit - Lösung Blatt 2

Informationssicherheit - Lösung Blatt 2 Informationssicherheit - Lösung Blatt 2 Adam Glodek adam.glodek@gmail.com 13.04.2010 1 1 Aufgabe 1: One Time Pad 1.1 Aufgabenstellung Gegeben ist der folgende Klartext 12Uhr (ASCII). Verschlüsseln Sie

Mehr

Elektrische Messtechnik, Labor Sommersemester 2014

Elektrische Messtechnik, Labor Sommersemester 2014 Institut für Elektrische Messtechnik und Messsignalverarbeitung Elektrische Messtechnik, Labor Sommersemester 2014 Rechnerunterstützte Erfassung und Analyse von Messdaten Übungsleiter: Dipl.-Ing. GALLIEN

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Additive Modelle Katharina Morik Informatik LS 8 Technische Universität Dortmund 7.1.2014 1 von 34 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 34 Ausgangspunkt:

Mehr

Inhaltsverzeichnis. 2.6.5 C-Abhängigkeit... 155. 2.6.6 S- und R-Abhängigkeit... 156 2.6.7 EN-Abhängigkeit... 156 2.6.9 M-Abhängigkeit...

Inhaltsverzeichnis. 2.6.5 C-Abhängigkeit... 155. 2.6.6 S- und R-Abhängigkeit... 156 2.6.7 EN-Abhängigkeit... 156 2.6.9 M-Abhängigkeit... VII 1 Grundlagen der Elektrotechnik und Elektronik 1 1.1 Physikalische Größen................................ 1 1.1.1 Die Schreibweise von Gleichungen.................... 2 1.1.2 Ursachen und Wirkungen

Mehr

Lösungen zu den Übungsaufgaben aus Kapitel 5

Lösungen zu den Übungsaufgaben aus Kapitel 5 Lösungen zu den Übungsaufgaben aus Kapitel 5 Ü5.1: Die entsprechende Bellman sche Funktionalgleichung kann angegeben werden als: Vct (, ) = max qt D { r rt t ( min{ q t, c} ) min{ q t, c} Vc ( min{ q t,

Mehr

MATHEMATISCHE ANALYSE VON ALGORITHMEN

MATHEMATISCHE ANALYSE VON ALGORITHMEN MATHEMATISCHE ANALYSE VON ALGORITHMEN Michael Drmota Institut für Diskrete Mathematik und Geometrie, TU Wien michael.drmota@tuwien.ac.at www.dmg.tuwien.ac.at/drmota/ Ringvorlesung SS 2008, TU Wien Algorithmus

Mehr

FH Darmstadt FB Informatik Klausurensammlung Rechnergrundlagen Prof. Komar

FH Darmstadt FB Informatik Klausurensammlung Rechnergrundlagen Prof. Komar Matr.Nr.: Name: Leistungsnachweis Rechnergrundlagen SS 2006 Skripte, Umdrucke, Kopien, handschriftliche Aufzeichnungen und Taschenrechner sind zugelassen. Die Lösungs-Ergebnisse sind ausschließlich auf

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Kapitel 4 Leitungscodierung

Kapitel 4 Leitungscodierung Kapitel 4 Leitungscodierung Prof. Dr. Dirk W. Hoffmann Hochschule Karlsruhe w University of Applied Sciences w Fakultät für Informatik Übersicht Quelle Senke Kompression Huffman-, Arithmetische-, Lempel-Ziv

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

3 Sicherheit von Kryptosystemen

3 Sicherheit von Kryptosystemen 3 Sicherheit von Kryptosystemen 43 3 Sicherheit von Kryptosystemen 3.1 Informationstheoretische Sicherheit Claude E. Shannon untersuchte die Sicherheit kryptographischer Systeme auf informationstheoretischer

Mehr

Seminar Digitale Signalverarbeitung

Seminar Digitale Signalverarbeitung Universität Koblenz-Landau Institut für integrierte aturwissenschaften Abteilung Physik Dr. Merten Joost Seminar Digitale Signalverarbeitung Thema: Fast Fourier Transformation Praktische Durchführung einer

Mehr

Vorwort 13 Themenaspekte 13 Digitale Kommunikationstechniken 13 Übersicht über den Lehrstoff 14 Beispiele und Übungsaufgaben 15 Kursoptionen 15

Vorwort 13 Themenaspekte 13 Digitale Kommunikationstechniken 13 Übersicht über den Lehrstoff 14 Beispiele und Übungsaufgaben 15 Kursoptionen 15 Inhaltsverzeichnis Vorwort 13 Themenaspekte 13 Digitale Kommunikationstechniken 13 Übersicht über den Lehrstoff 14 Beispiele und Übungsaufgaben 15 Kursoptionen 15 Kapitel 1 Einleitung 17 1.1 Historischer

Mehr

Bilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB

Bilddatenformate BMP GIF JPG. Digitale Bildverarbeitung Liedtke 7.1. Bezeichnung: Microsoft Windows Bitmap, BMP, DIB Bilddatenformate BMP Bezeichnung: Microsoft Windows Bitmap, BMP, DIB Format: Raster Farben: 1 Bit (s/w), 4 Bit (16 Farben), 8 Bit (256 Farben), 24 Bit (16,7 Mio. Farben) Kompression: Keine (meist) oder

Mehr

Simulink: Einführende Beispiele

Simulink: Einführende Beispiele Simulink: Einführende Beispiele Simulink ist eine grafische Oberfläche zur Ergänzung von Matlab, mit der Modelle mathematischer, physikalischer bzw. technischer Systeme aus Blöcken mittels plug-and-play

Mehr

Statistische Thermodynamik I Lösungen zur Serie 1

Statistische Thermodynamik I Lösungen zur Serie 1 Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen

Mehr

Codierung zur Fehlerkorrektur und Fehlererkennung

Codierung zur Fehlerkorrektur und Fehlererkennung Codierung zur Fehlerkorrektur und Fehlererkennung von Dr.-techn. Joachim Swoboda Mit 39 Bildern und 24 Tafeln R. OLDENBOURG VERLAG MÜNCHEN WIEN 1973 Inhalt Vorwort 9 1. Einführung 11 1.1 Redundante Codierung

Mehr

Messtechnik. Gedächnisprotokoll Klausur 2012 24. März 2012. Es wurde die Kapazität von 10 Kondensatoren gleicher Bauart gemessen:

Messtechnik. Gedächnisprotokoll Klausur 2012 24. März 2012. Es wurde die Kapazität von 10 Kondensatoren gleicher Bauart gemessen: Messtechnik Gedächnisprotokoll Klausur 2012 24. März 2012 Dokument erstellt von: mailto:snooozer@gmx.de Aufgaben Es wurde die Kapazität von 10 Kondensatoren gleicher Bauart gemessen: Index k 1 2 3 4 5

Mehr

Binäre abhängige Variablen

Binäre abhängige Variablen Binäre abhängige Variablen Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Einführung Oft wollen wir qualitative Variablen

Mehr

Gruppe: 2/19 Versuch: 5 PRAKTIKUM MESSTECHNIK VERSUCH 5. Operationsverstärker. Versuchsdatum: 22.11.2005. Teilnehmer:

Gruppe: 2/19 Versuch: 5 PRAKTIKUM MESSTECHNIK VERSUCH 5. Operationsverstärker. Versuchsdatum: 22.11.2005. Teilnehmer: Gruppe: 2/9 Versuch: 5 PAKTIKM MESSTECHNIK VESCH 5 Operationsverstärker Versuchsdatum: 22..2005 Teilnehmer: . Versuchsvorbereitung Invertierender Verstärker Nichtinvertierender Verstärker Nichtinvertierender

Mehr

Lebensdauer eines x-jährigen

Lebensdauer eines x-jährigen Lebensdauer eines x-jährigen Sabrina Scheriau 20. November 2007, Graz 1 INHALTSVERZEICHNIS 2 Inhaltsverzeichnis 1 Einleitung 3 2 Sterbewahrscheinlichkeiten 4 2.1 Definition und Ermittlung....................

Mehr

Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse

Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse Yannik Behr Gliederung 1 Stochastische Prozesse Stochastische Prozesse Ein stochastischer Prozess ist ein Phänomen, dessen

Mehr

Technische Informatik Informationstechnische Grundlagen und Codierung

Technische Informatik Informationstechnische Grundlagen und Codierung Informationstechnische Grundlagen und Codierung H. SS 4. Informationstheoretische Grundlagen S. 2 2. Blockcodes S. 22 3. Zyklische Codes, eine anwendungsbezogene Einführung S. 47 (informelles Angebot,

Mehr

Sachauseinandersetzung und Begründung der Auswahl

Sachauseinandersetzung und Begründung der Auswahl Unterrichtsentwurf zum Thema Vergleich von Morse- und ASCII-Code Lernziele Die SchülerInnen wenden die Begriffe der mittleren Codewortlänge, Präfixfreiheit und binären Kodierung in der Beschreibung des

Mehr

Kommentierter SPSS-Ausdruck zur logistischen Regression

Kommentierter SPSS-Ausdruck zur logistischen Regression Daten: POK V AG 3 (POKV_AG3_V07.SAV) Kommentierter SPSS-Ausdruck zur logistischen Regression Fragestellung: Welchen Einfluss hat die Fachnähe und das Geschlecht auf die interpersonale Attraktion einer

Mehr

Einführung in Kompressionstechniken

Einführung in Kompressionstechniken Einführung in Kompressionstechniken W. Kowarschick 7. Februar 997. November 9 W. Kowarschick Motivation Dateigrößen Text Vektorgraphiken Rasterbilder Tomographien Telephon CD-Stereo Bildfolgen VD7 VD7

Mehr

6.2 Scan-Konvertierung (Scan Conversion)

6.2 Scan-Konvertierung (Scan Conversion) 6.2 Scan-Konvertierung (Scan Conversion) Scan-Konvertierung ist die Rasterung von einfachen Objekten (Geraden, Kreisen, Kurven). Als Ausgabemedium dient meist der Bildschirm, der aus einem Pixelraster

Mehr

Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* aller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt:

Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* aller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt: 8. Grundlgen der Informtionstheorie 8.1 Informtionsgehlt, Entropie, Redundnz Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* ller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt: 1.

Mehr

Gehirntraining. Logisches Denken, Intelligenz, Gedächtnis, Kreativität verbessern

Gehirntraining. Logisches Denken, Intelligenz, Gedächtnis, Kreativität verbessern Gehirntraining Logisches Denken, Intelligenz, Gedächtnis, Kreativität verbessern Wörtliches und Verschlüsseltes 1 Außerdem weiß Fritz Forscher, dass gytsum»wenn«oder»falls«bedeutet und aranid»tanzen«.

Mehr

Abitur 2012 Mathematik GK Stochastik Aufgabe C1

Abitur 2012 Mathematik GK Stochastik Aufgabe C1 Seite 1 Abiturloesung.de - Abituraufgaben Abitur 2012 Mathematik GK Stochastik Aufgabe C1 nter einem Regentag verstehen Meteorologen einen Tag, an dem mehr als ein Liter Niederschlag pro Quadratmeter gefallen

Mehr

Run Length Coding und Variable Length Coding

Run Length Coding und Variable Length Coding Fachbereich Medieninformatik Hochschule Harz Run Length Coding und Variable Length Coding Referat Matthias Zittlau 11034 Abgabe: 15.01.2007 Inhaltsverzeichnis 1. RLC...1 2.1 Einführung...1 2.2 Prinzip...1

Mehr