Grundlagen der Technischen Informatik. 3. Übung
|
|
- Johann Kramer
- vor 5 Jahren
- Abrufe
Transkript
1 Grundlagen der Technischen Informatik 3. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit
2 3. Übungsblatt Themen Aufgabe : Aufgabe 2: Aufgabe 3: Informationstheorie Huffman-Code Entropie
3 3. Übungsblatt Aufgabe a) Nennen Sie die kleinste Anzahl an Prüfstellen, die benötigt wird, um einen Hamming-Code mit 6 (bzw. oder 2) Informationsstellen zu bilden, welcher die Korrektur von Einzelbitfehlern erlaubt. 2 k m + k + k = #Prüfstellen m = #Informationsstellen
4 3. Übungsblatt Aufgabe a) Nennen Sie die kleinste Anzahl an Prüfstellen, die benötigt wird, um einen Hamming-Code mit 6 (bzw. oder 2) Informationsstellen zu bilden, welcher die Korrektur von Einzelbitfehlern erlaubt. 2 k m + k + Für m = 6: 2 k 7 + k k ld(7 + k) Ausprobieren liefert: k = 4
5 3. Übungsblatt Aufgabe a) Nennen Sie die kleinste Anzahl an Prüfstellen, die benötigt wird, um einen Hamming-Code mit 6 (bzw. oder 2) Informationsstellen zu bilden, welcher die Korrektur von Einzelbitfehlern erlaubt. 2 k m + k + Für m = : 2 k 2 + k k ld(2 + k) Ausprobieren liefert: k = 4
6 3. Übungsblatt Aufgabe a) Nennen Sie die kleinste Anzahl an Prüfstellen, die benötigt wird, um einen Hamming-Code mit 6 (bzw. oder 2) Informationsstellen zu bilden, welcher die Korrektur von Einzelbitfehlern erlaubt. 2 k m + k + Für m = 2: 2 k 3 + k k ld(3 + k) Ausprobieren liefert: k = 5
7 3. Übungsblatt Aufgabe b) Geben Sie die Gleichungen für die Prüfstellen eines Hamming-Codes (HD min = 3) mit 6 Informationsstellen auf Basis des in der Vorlesung vorgestellten Konstruktionsschemas an. Das Konstruktionsschema:. Aufstellen der Huffman-Matri 2. Aufstellen der Gleichungen
8 3. Übungsblatt Aufgabe b) Geben Sie die Gleichungen für die Prüfstellen eines Hamming-Codes (HD min = 3) mit 6 Informationsstellen auf Basis des in der Vorlesung vorgestellten Konstruktionsschemas an.. Aufstellen der Huffman-Matri: m + k Spalten ld(m + k) Zeilen (Aufrunden!) Jede Spalte mit nur einer entspricht einer Prüfstelle (y i ) Alle anderen Spalten entsprechen Informationsstellen ( i )
9 3. Übungsblatt Aufgabe b) Geben Sie die Gleichungen für die Prüfstellen eines Hamming-Codes (HD min = 3) mit 6 Informationsstellen auf Basis des in der Vorlesung vorgestellten Konstruktionsschemas an.. Aufstellen der Huffman-Matri: y y y y
10 3. Übungsblatt Aufgabe b) Geben Sie die Gleichungen für die Prüfstellen eines Hamming-Codes (HD min = 3) mit 6 Informationsstellen auf Basis des in der Vorlesung vorgestellten Konstruktionsschemas an. 2. Aufstellen der Gleichungen: Für jedes Prüfbit: Ver-XOR-n der Informationsstellen ihrer Zeilen
11 3. Übungsblatt Aufgabe b) Geben Sie die Gleichungen für die Prüfstellen eines Hamming-Codes (HD min = 3) mit 6 Informationsstellen auf Basis des in der Vorlesung vorgestellten Konstruktionsschemas an. 2. Aufstellen der Gleichungen: y y y y y y y y
12 3. Übungsblatt Aufgabe 2 Ein Satz soll kodiert und anschließend übertragen werden. Die Häufigkeit der verwendeten Zeichen ist in der folgenden Tabelle gegeben: Zeichen A B C D E F G H Häufigkeit a) Erstellen Sie für die gegebenen Zeichen und ihre zugehörigen Häufigkeiten einen Huffman-Codierungsbaum. Geben Sie dabei auch die einzelnen Teilschritte an. b) Geben Sie die aus dem Huffman-Codierungsbaum aus der Teilaufgabe a) resultierenden Codierung der Zeichen an. c) Wie viele Bits sind mindestens notwendig, wenn man für die Codierung jedes verwendeten Zeichens dieselbe Anzahl Bits verwenden würde?
13 3. Übungsblatt Aufgabe 2 a) Erstellen Sie für die gegebenen Zeichen und ihre zugehörigen Häufigkeiten einen Huffman-Codierungsbaum. Geben Sie dabei auch die einzelnen Teilschritte an. Zeichen E G C B H F A D Häufigkeit
14 3. Übungsblatt Aufgabe 2 a) Erstellen Sie für die gegebenen Zeichen und ihre zugehörigen Häufigkeiten einen Huffman-Codierungsbaum. Geben Sie dabei auch die einzelnen Teilschritte an. E: G: C: 3 B: 4 H: 4 F: 6 A: 9 D: E und G zusammenfassen zu EG Neues Element der Größe 2 2 C: 3 B: 4 H: 4 F: 6 A: 9 D: E: G:
15 3. Übungsblatt Aufgabe 2 a) Erstellen Sie für die gegebenen Zeichen und ihre zugehörigen Häufigkeiten einen Huffman-Codierungsbaum. Geben Sie dabei auch die einzelnen Teilschritte an. EG und C zusammenfassen zu CEG Neues Element der Größe 5 B: 4 H: 4 5 F: 6 A: 9 D: 2 C: 3 E: G:
16 3. Übungsblatt Aufgabe 2 a) Erstellen Sie für die gegebenen Zeichen und ihre zugehörigen Häufigkeiten einen Huffman-Codierungsbaum. Geben Sie dabei auch die einzelnen Teilschritte an. B und H zusammenfassen zu BH Neues Element der Größe 8 5 F: 6 8 A: 9 D: 2 C: 3 B: 4 H: 4 E: G:
17 3. Übungsblatt Aufgabe 2 a) Erstellen Sie für die gegebenen Zeichen und ihre zugehörigen Häufigkeiten einen Huffman-Codierungsbaum. Geben Sie dabei auch die einzelnen Teilschritte an. CEG und F zusammenfassen zu CEFG Neues Element der Größe 8 A: 9 D: B: 4 H: 4 5 F: 6 2 C: 3 E: G:
18 3. Übungsblatt Aufgabe 2 a) Erstellen Sie für die gegebenen Zeichen und ihre zugehörigen Häufigkeiten einen Huffman-Codierungsbaum. Geben Sie dabei auch die einzelnen Teilschritte an. BH und A zusammenfassen zu ABH Neues Element der Größe 7 D: 7 5 F: 6 8 A: 9 2 C: 3 B: 4 H: 4 E: G:
19 3. Übungsblatt Aufgabe 2 a) Erstellen Sie für die gegebenen Zeichen und ihre zugehörigen Häufigkeiten einen Huffman-Codierungsbaum. Geben Sie dabei auch die einzelnen Teilschritte an. D und CEFG zusammenfassen zu CDEFG Neues Element der Größe A: 9 D: B: 4 H: 4 5 F: 6 2 C: 3 E: G:
20 3. Übungsblatt Aufgabe A: 9 D: B: 4 H: 4 5 F: 6 2 C: 3 E: G:
21 3. Übungsblatt Aufgabe 2 b) Geben Sie die aus dem Huffman-Codierungsbaum aus der Teilaufgabe a) resultierenden Codierung der Zeichen an A: 9 D: B: 4 H: 4 5 F: 6 E G C B H F A D E: 2 G: C: 3
22 3. Übungsblatt Aufgabe 2 b) Geben Sie die aus dem Huffman-Codierungsbaum aus der Teilaufgabe a) resultierenden Codierung der Zeichen an. Zeichen E G C B H F A D Codierung c) Wie viele Bits sind mindestens notwendig, wenn man für die Codierung jedes verwendeten Zeichens dieselbe Anzahl Bits verwenden würde? Anzahl: ld(8) = 3
23 3. Übungsblatt Aufgabe 3 Gegeben sei ein Alphabet bestehend aus den Buchstaben A-F. In einer empfangenen Nachricht wurden die folgenden Häufigkeiten ermittelt: a) Berechnen Sie den maimalen Entropiewert der Quelle. H Zeichen A B C D E F Häufigkeit N ma ld ( N) ld ( N) i N H ma ld (6) 2,585
24 3. Übungsblatt Aufgabe 3 b) Wieviele Bits werden demnach benötigt, falls alle Zeichen mit gleichlangen Binärwörtern kodiert werden sollen? Aufrunden des maimalen Entropiewertes auf die nächste ganze Zahl, also ld ( 6) 3
25 3. Übungsblatt Aufgabe 3 c) Berechnen Sie den Informationsgehalt der einzelnen Zeichen sowie die Entropie der Quelle unter Berücksichtigung der gegebenen Häufigkeiten. Informationsgehalt: I( i) ld ( ) p( i) Zeichen A B C D E F p(i),2,,5,5,3,2 I(i) 2,322 3,322 4,322 2,737,737 2,322
26 3. Übungsblatt Aufgabe 3 c) Berechnen Sie den Informationsgehalt der einzelnen Zeichen sowie die Entropie der Quelle unter Berücksichtigung der gegebenen Häufigkeiten. Zeichen A B C D E F p(i),2,,5,5,3,2 I(i) 2,322 3,322 4,322 2,737,737 2,322 Entropie ist Erwartungswert des Informationsgehalts, also: H N p( i) I( i) N p( i) ld ( i i p i)
27 3. Übungsblatt Aufgabe 3 c) Berechnen Sie den Informationsgehalt der einzelnen Zeichen sowie die Entropie der Quelle unter Berücksichtigung der gegebenen Häufigkeiten. Zeichen A B C D E F p(i),2,,5,5,3,2 I(i) 2,322 3,322 4,322 2,737,737 2,322 Entropie ist Erwartungswert des Informationsgehalts, also: H,2* ld (5),* ld (),5* ld (2) 2,5* ld ( ),3* ld ( ),2* ld (5) 3 3 2,49
28 3. Übungsblatt Aufgabe 3 d) Kodieren Sie das Alphabet mit Hilfe eines Huffman-Codes unter Berücksichtigung der gegebenen Häufigkeiten und berechnen Sie die daraus resultierende durchschnittliche Codewortlänge m. Zeichen A B C D E F Kodierung #Bits m =,2 * 2 +, * 4 + +,5 * 4 +,5 * 3 + +,3 * 2 +,2 * 2 = = 2,45
29 3. Übungsblatt Aufgabe 3 e) Zwecks Fehlererkennung sollen die Buchstaben des Alphabets nun kodiert werden, wobei lediglich Einfachfehler erkannt (aber nicht korrigiert) werden sollen. Die Länge der Codewörter soll dabei so kurz wie möglich gewählt werden. In diesem Fall HD min = 2 3 Bits reichen dafür jedoch nicht aus (,,, ) Für 4 Bits ergeben sich folgende (mögliche) Codewörter: Zeichen A B C D E F Code
30 3. Übungsblatt Danke für die Aufmerksamkeit
Grundlagen der Technischen Informatik. 2. Übung
Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 2. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Aufgabe 4: Hamming-Distanz Fehlererkennung
MehrÜbungsblatt 5 - Musterlösung
Universität Mannheim Lehrstuhl für Praktische Informatik IV Prof. Dr. W. Effelsberg Christoph Kuhmünch, Gerald Kühne Praktische Informatik II SS 2000 Übungsblatt 5 - Musterlösung Aufgabe 1: Huffman-Codierung
MehrGrundlagen der Technischen Informatik. 2. Übung
Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit Organisatorisches Übungsblätter zuhause vorbereiten! In der Übung an der Tafel vorrechnen! Bei
MehrTechnische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und
MehrGrundlagen der Technischen Informatik. Hamming-Codes. Kapitel 4.3
Hamming-Codes Kapitel 4.3 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Inhalt Welche Eigenschaften müssen Codes haben, um Mehrfachfehler erkennen und sogar korrigieren zu können?
Mehr(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
MehrÜbungsblatt Nr. 7. Lösungsvorschlag
Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nico Döttling Dirk Achenbach Tobias Nilges Vorlesung Theoretische Grundlagen der Informatik Übungsblatt Nr. 7 svorschlag Aufgabe (K)
MehrKlausur Informationstheorie und Codierung
Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte
MehrÜbungen zur Vorlesung Grundlagen der Rechnernetze. Zusätzliche Übungen
Übungen zur Vorlesung Grundlagen der Rechnernetze Zusätzliche Übungen Hamming-Abstand d Der Hamming-Abstand d zwischen zwei Codewörtern c1 und c2 ist die Anzahl der Bits, in denen sich die beiden Codewörter
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Übung 8 Dirk Achenbach 7. Februar 2013 I NSTITUT FÜR K RYPTOGRAPHIE UND S ICHERHEIT KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
Mehr, 2015W Übungstermin: Do.,
VU Technische Grundlagen der Informatik Übung 2: Numerik, Codierungstheorie 183.579, 2015W Übungstermin: Do., 29.10.2015 Allgemeine Hinweise: Versuchen Sie beim Lösen der Beispiele keine elektronischen
MehrInformationsgehalt einer Nachricht
Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner
Mehr2. Tutorium Digitaltechnik und Entwurfsverfahren
2. Tutorium Digitaltechnik und Entwurfsverfahren Tutorium Nr. 9 Alexis Tobias Bernhard Fakultät für Informatik, KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
Mehr, 2016W Übungstermin: Fr.,
VU Technische Grundlagen der Informatik Übung 2: Numerik, Codierungstheorie 183.579, 2016W Übungstermin: Fr., 28.10.2016 Allgemeine Hinweise: Versuchen Sie beim Lösen der Beispiele keine elektronischen
MehrGrundlagen der Informatik II Übungsblatt: 5, WS 17/18 mit Lösungen
PD. Dr. Pradyumn Shukla Marlon Braun Micaela Wünsche Dr. Friederike Pfeiffer-Bohnen Dr. Lukas König Institut für Angewandte Informatik und Formale Beschreibungsverfahren Grundlagen der Informatik II Übungsblatt:
MehrProbeklausur Digitale Medien
Probeklausur Digitale Medien Wintersemester 2007 / 2008 LMU München LFE Medieninformatik Prof. H. Hußmann Dauer: 90 Minuten Zugelassene Hilfsmittel: Unterlagen zur Vorlesung und Übung Digitale Medien,
MehrKolmogoroffkomplexität Teil 3 Informationstheorie und Kodierung. Torsten Steinbrecher
Kolmogoroffkompleität Teil 3 Informationstheorie und Kodierung Torsten Steinbrecher Informationstheorie Information ist Δ Wahlfreiheit beim Sender Δ Unbestimmtheit beim Empfänger Information ist nicht
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009
MehrInformatik II, SS 2018
Informatik II - SS 28 (Algorithmen & Datenstrukturen) Vorlesung 22 (6.7.28) Greedy Algorithmen II (Datenkompression) Algorithmen und Komplexität Datenkompression Reduziert Größen von Files Viele Verfahren
MehrRechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir?
Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2012 Wo sind wir? Quelle Nachricht Senke Sender Signal Übertragungsmedium Empfänger Quelle Nachricht Senke Primäres
Mehr3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238
3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher
MehrTGI-Übung Dirk Achenbach
TGI-Übung 7 06.02.2014 Dirk Achenbach INSTITUT FÜR THEORETISCHE INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Agenda
MehrPraktikum Digitaltechnik
dig A) Vorbereitungsaufgaben: 1) Ermitteln Sie anhand der gegebenen zwei Blockschaltbilder die Schaltgleichungen und vereinfachen Sie weitmöglich! y 1 =(/(/(x 0 x 1 )/(x 0 +x 1 )))+(/(/(x 0 x 1 )+/(x 0
MehrInformatik II, SS 2016
Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 22 (20.7.2016) Greedy Algorithmen - Datenkompression Algorithmen und Komplexität Greedy Algorithmen Greedy Algorithmen sind eine Algorithmenmethode,
MehrÜbung zur Vorlesung Digitale Medien. Doris Hausen Ludwig-Maximilians-Universität München Wintersemester 2010/2011
Übung zur Vorlesung Digitale Medien Doris Hausen Ludwig-Maximilians-Universität München Wintersemester 2010/2011 1 Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm http://www.die-informatiker.net
MehrWann sind Codes eindeutig entschlüsselbar?
Wann sind Codes eindeutig entschlüsselbar? Definition Suffix Sei C ein Code. Ein Folge s {0, 1} heißt Suffix in C falls 1 c i, c j C : c i = c j s oder 2 c C und einen Suffix s in C: s = cs oder 3 c C
MehrModul Diskrete Mathematik WiSe 2011/12
Modul Diskrete Mathematik WiSe / Ergänzungsskript zum Kapitel 3.4. Hinweis: Dieses Manuskript ist nur verständlich und von Nutzen für Personen, die regelmäßig und aktiv die zugehörige Vorlesung besuchen
MehrEinführung in die Informatik II Aus der Informationstheorie: Datenkompression
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd
MehrOrganisation. Was kommt zum Test? Buch Informatik Grundlagen bis inkl. Kapitel 7.4 Wissensfragen und Rechenbeispiele
Organisation Was kommt zum Test? Buch Informatik Grundlagen bis inkl Kapitel 74 Wissensfragen und Rechenbeispiele 3 Vorträge zur Übung Informationstheorie, Huffman-Codierung und trennzeichenfreie Codierung
MehrÜbung zur Vorlesung. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider
Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid, Hanna Schneider Wintersemester 2016/17 Bilder 20 x 14 Pixel (= Bildpunkte) 16 Bit Farben (= 65.536 Farben) 560
MehrCodierungstheorie Teil 1: Fehlererkennung und -behebung
Codierungstheorie Teil 1: Fehlererkennung und -behebung von Manuel Sprock 1 Einleitung Eine Codierung ist eine injektive Abbildung von Wortmengen aus einem Alphabet A in über einem Alphabet B. Jedem Wort
MehrInformatik I WS 07/08 Tutorium 24
Info I Tutorium 24 Informatik I WS 07/08 Tutorium 24 8.11.07 Bastian Molkenthin E-Mail: infotut@sunshine2k.de Web: http://www.sunshine2k.de Übersicht o Information und Bezugssysteme o Informationstheorie
MehrKlausur Digitale Medien
Klausur Digitale Medien Sommersemester 2003 LMU München LFE Medieninformatik Prof. H. Hußmann Dauer: 90 Minuten Auf jedes Blatt sind Name und Matrikelnummer einzutragen! Blätter ohne Namen oder ohne Matrikelnummer
MehrÜbungsblatt 8. Aufgabe 1 Datentransferrate und Latenz
Übungsblatt 8 Abgabe: 15.12.2011 Aufgabe 1 Datentransferrate und Latenz Der Preußische optische Telegraf (1832-1849) war ein telegrafisches Kommunikationssystem zwischen Berlin und Koblenz in der Rheinprovinz.
MehrError detection and correction
Referat Error detection and correction im Proseminar Computer Science Unplugged Dozent Prof. M. Hofmann Referent Pinto Raul, 48005464 Datum 19.11.2004 Error detection and correction 1. Fehlererkennung
MehrBeispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
Mehr1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen
1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte
MehrGrundlagen der Technischen Informatik. 3. Übung
Grundlagen der Technischen Informatik 3. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 3. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Aufgabe 4: Zahlendarstellungen Zahlendarstellungen,
MehrCodierung Fehlerdetektion
Übersicht Elektromagnetische Wellen Frequenzen und Regulierungen Antennen Signale Signalausbreitung Multiplex Modulation Bandspreizverfahren Codierung Rauschen und Übertragungsfehler Fehlerdetektion Block-Codes
MehrOptimalcodierung. Thema: Optimalcodierung. Ziele
Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.
MehrProbeklausur zur Vorlesung Grundbegriffe der Informatik
Probeklausur zur Vorlesung Grundbegriffe der Informatik Hinweis: Diese Probeklausur wurde von Tutoren erstellt. Die An-/Abwesenheit bestimmter Aufgabentypen oder auch deren Schwierigkeit in der Probeklausur
MehrGrundlagen der Technischen Informatik. 5. Übung
Grundlagen der Technischen Informatik 5. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 5. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Aufgabe 4: Aufgabe 5: Boolesche Algebra
MehrDiskrete Mathematik II
Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2008 DiMA II - Vorlesung 01-07.04.2008 Einführung in die Codierungstheorie, Definition Codes 1 / 36 Organisatorisches
MehrLösungsvorschlag 3. Übung Technische Grundlagen der Informatik II Sommersemester 2009
Fachgebiet Rechnerarchitektur Fachbereich Informatik Lösungsvorschlag 3. Übung Technische Grundlagen der Informatik II Sommersemester 2009 Aufgabe 3.1: Codierungen a) Vervollständigen Sie folge Tabelle,
MehrGrundlagen der Technischen Informatik. 4. Übung
Grundlagen der Technischen Informatik 4. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 4. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Aufgabe 4: IEEE Format Zahlenumwandlung
MehrGrundlagen der Technischen Informatik. 4. Übung
Grundlagen der Technischen Informatik 4. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 4. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Aufgabe 4: IEEE Format Zahlenumwandlung
MehrGrundlagen der Technischen Informatik. 1. Übung
Grundlagen der Technischen Informatik 1. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit Organisatorisches Christian Knell: christian.knell@informatik.stud.uni-erlangen.de Übungs-Folien
MehrÜbung Praktische Informatik II
Übung Praktische Informatik II FSS 2009 Benjamin Guthier Lehrstuhl für Praktische Informatik IV Universität Mannheim guthier@pi4.informatik.uni-mannheim.de 06.03.09 2-1 Heutige große Übung Allgemeines
MehrMathematik für Information und Kommunikation
Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html
MehrKlausur zur Vorlesung Informationstheorie
INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 07 Hannover Klausur zur Vorlesung Informationstheorie Datum: 0.0.00 Uhrzeit: 09:00 Uhr Zeitdauer:
MehrGrundlagen der Informatik II
Grundlagen der Informatik II Tutorium 5 Professor Dr. Hartmut Schmeck Mathematisch sind Schaltnetze eine Teilmenge der Schaltwerke, aber i.a. wird letzterer Begriff nur verwendet, wenn es tatsächlich rückgekoppelte
MehrGrundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch
Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information
MehrGrundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1
Informationsgehalt Kapitel 4.1 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916) Quelle Sender
MehrProf. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert.
Audiotechnik II Digitale Audiotechnik: 8. Tutorium Prof. Dr. Stefan Weinzierl 9.2.23 Musterlösung: 9. Dezember 23, 8:34 Fehlerkorrektur II Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit
MehrTheoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK
Theoretische Grundlagen der Informatik 3..29 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Thema dieses Kapitels Informationstheorie
MehrProseminar Datenkompression Suchstrategien und Präfixcodes
Proseminar Datenkompression Suchstrategien und Präfixcodes Patrick Sonntag Mittwoch, den 05.02.2003 I. Einführung - Suche elementares Problem in Informatik - hierbei Beschränkung auf binäre Tests nur 2
MehrDie Mathematik in der CD
Lehrstuhl D für Mathematik RWTH Aachen Lehrstuhl D für Mathematik RWTH Aachen St.-Michael-Gymnasium Monschau 14. 09. 2006 Codes: Definition und Aufgaben Ein Code ist eine künstliche Sprache zum Speichern
MehrDatenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut
Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,
MehrDigitale Medien. Übung
Digitale Medien Übung Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm http://www.die-informatiker.net Zwei Stunden pro Woche Praktische Anwendungen des theoretischen Vorlesungsstoffs
MehrHauptdiplomklausur Informatik Februar 2006: Multimedia Systems
Universität Mannheim Fakultät für Mathematik und Informatik Lehrstuhl für Praktische Informatik IV Prof. Dr.-Ing. W. Effelsberg Hauptdiplomklausur Informatik Februar 2006: Multimedia Systems Name: Matrikel-Nr.:
MehrÜbung zu Drahtlose Kommunikation. 1. Übung
Übung zu Drahtlose Kommunikation 1. Übung 22.10.2012 Termine Übungen wöchentlich, Montags 15 Uhr (s.t.), Raum B 016 Jede Woche 1 Übungsblatt http://userpages.uni-koblenz.de/~vnuml/drako/uebung/ Bearbeitung
Mehr5. Übungsserie. Sophia Schumann Matr. XXX
5. Übungsserie Montag, 23. November 2009 1. Aufgabe Es soll die Bitfolge 101001100111 mit dem Hammingcode zum Senden aufbereitet werden. Die Bitfolge hat eine Länge von 12 Bits. Deshalb legt man sich eine
MehrDigitale Medien. Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid. Übung zur Vorlesung
Übung zur Vorlesung Digitale Medien Vorlesung: Heinrich Hußmann Übung: Renate Häuslschmid Wintersemester 2016/17 LZW-Komprimierung Idee: Nicht einzelne Zeichen werden günstig kodiert, sondern ganze Zeichenketten
MehrKlausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13)
Berlin, 21. Februar 2013 Name:... Matr.-Nr.:... Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13) 1 2 3 4 5 6 7 8 9 Σ Bearbeitungszeit: 90 min. max. Punktezahl:
MehrCODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.
MehrVorkurs Informatik WiSe 17/18
Konzepte der Informatik Dr. Werner Struckmann / Stephan Mielke, Nicole Naczk, 13.10.2017 Technische Universität Braunschweig, IPS Inhaltsverzeichnis Codierung Aspekte der Binär-Codierung Binärcode Codetabellen
MehrChaosSeminar - Informationstheorie
Alexander.Bernauer@ulm.ccc.de Stephanie.Wist@ulm.ccc.de 18. November 2005 Motivation schnelle Übertragung von Daten über gestörten Kanal Shannon48 Was ist Information? Information ist Abnahme von Unsicherheit
MehrLösungsvorschläge zu Blatt Nr. 13
Institut für Algorithmen und Kognitive Systeme Dr. Jörn Müller-Quade Carmen Kempka Christian Henrich Nico Döttling Vorlesung Informatik III Lösungsvorschläge zu Blatt Nr. Aufgabe (K ( Punkte Gegeben ist
Mehr6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N. 6.1 von wörtern zu zahlen und zurück Dezimaldarstellung von Zahlen Num 10
6 Ü B E R S E T Z U N G E N U N D C O D I E R U N G E N 6.1 von wörtern zu zahlen und zurück 6.1.1 Dezimaldarstellung von Zahlen Num 10 Num10(ε) = 0 (6.1) für jedes w Z 10 für jedes x Z 10 Num 10 (wx)
MehrGrundlagen der Technischen Informatik. 4. Übung
Grundlagen der Technischen Informatik 4. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 4. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Aufgabe 4: IEEE Format Zahlenumwandlung
MehrFehlererkennende und fehlerkorrigierende Codes
Fehlererkennende und fehlerkorrigierende Codes Claudiu-Vlad URSACHE, 5AHITN Inhalt 1. Codes... 2 2. Hammingdistanz... 3 3. Fehlererkennende Codes... 4 4. Fehlerkorrigierende Codes... 5 1. Codes a 2 a 00
MehrEntropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.
Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie
MehrLösung. H_DA Dr. Frank Fachbereich I. Unterschrift:
Name: Matr.-Nr.: Unterschrift: Die Klausur besteht aus elf Blättern und 10 Aufgaben. ACHTUNG!!! Die Blätter dürfen NICHT getrennt werden. Das Deckblatt ist mit Angabe des Namens, Matrikelnr. und der Unterschrift
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Verlustfreie universelle Kompression 2.3 Digitalisierung, Digitale Medien Weiterführende Literatur zum Thema Informationstheorie:
MehrDuE-Tutorien 17 und 18
DuE-Tutorien 17 und 18 Tutorien zur Vorlesung Digitaltechnik und Entwurfsverfahren Christian A. Mandery TUTORIENWOCHE 3 AM 18.11.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Informationstheorie INSTITUT FÜR THEORETISCHE KIT 8.2.22 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik INSTITUT
MehrGrundlagen Rechnernetze und Verteilte Systeme IN0010, SoSe 2018
Grundlagen Rechnernetze und Verteilte Systeme IN0010, SoSe 2018 Übungsblatt 11 2. Juli 6. Juli 2018 Hinweis: Mit * gekennzeichnete Teilaufgaben sind ohne Lösung vorhergehender Teilaufgaben lösbar. Aufgabe
MehrDuE-Tutorien 16 und 17
Tutorien zur Vorlesung Digitaltechnik und Entwurfsverfahren Tutorienwoche 3 am 19.11.2010 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der
Mehr3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.
3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle
MehrCodes und Codierung. Dr. Michael Hielscher
Codes und Codierung Dr. Michael Hielscher Aus der Eingangsbefragung von Studierenden Ich weiss, wie Codes in unserem Alltag (z.b. Barcodes auf der Milchpackung) funktionieren. Ja 10.60% Teilweise 31.80%
Mehr2. Klausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2014/2015
2. Klausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2014/2015 Hier Aufkleber mit Name und Matrikelnummer anbringen Vorname: Nachname: Matrikelnummer: Beachten Sie: Bringen Sie
MehrGrundlagen der Technischen Informatik. 6. Übung. Christian Knell Keine Garantie für Korrekt-/Vollständigkeit
Grundlagen der Technischen Informatik 6. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 6. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Aufgabe 4: Relais-Schaltnetze Entwicklungssatz
MehrGrundlagen der Technischen Informatik. 8. Übung
Grundlagen der Technischen Informatik 8. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 8. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Verknüpfungsbasis Entwicklungssatz NAND-Technik
MehrDynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
MehrÜbung zu Grundlagen der Technischen Informatik
Grundlagen der Technischen Informatik 9. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 9. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Aufgabe 4: Multiplexer und De-Multiplexer
MehrKlausur Digitale Medien
Klausur Digitale Medien Wintersemester 2005/2006 LMU München LFE Medieninformatik Prof. H. Hußmann Dauer: 90 Minuten Auf jedem Blatt sind Name und Matrikelnummer einzutragen. Blätter ohne Namen und Matrikelnummer
MehrEndliche Körper und Codierung SS Übungsblatt. 9. Bestimmen Sie alle primitiven Elemente (Erzeuger der multiplikativen Gruppe) von
Endliche Körper und Codierung SS 2007 1. Übungsblatt 1. Sei p eine Primzahl und 0 j p 1. Zeigen Sie, dass ( ) p 1 j ( 1) j (mod p). 2. Sei R ein kommutativer Ring der Charakteristik p > 0 (prim). Zeigen
MehrGrundbegriffe der Informatik Tutorium 3
Grundbegriffe der Informatik Tutorium 3 Tutorium Nr. 16 Philipp Oppermann 18. November 2014 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrTheoretische Grundlagen der Informatik. Vorlesung am 7. Februar INSTITUT FÜR THEORETISCHE INFORMATIK
Theoretische Grundlagen der Informatik 0 07.02.2019 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Werbung Vorlesung Algorithmen
MehrEinführung in die Codierungstheorie
11. Dezember 2007 Ausblick Einführung und Definitionen 1 Einführung und Definitionen 2 3 Einführung und Definitionen Code: eindeutige Zuordnung von x i X = {x 1,.., x k } und y j Y = {y 1,..., y n } Sender
Mehr7.1 a) Für die Übertragung der Nachricht mittels des Polynoms T(x) werden 40 Bit benötigt.
Informatik 3 Übung 07 Georg Kuschk 7.1) CRC-Verfahren 7.1 a) Für die Übertragung der Nachricht mittels des Polynoms T(x) werden 40 Bit benötigt. 32 Bit für die eigentliche Nachricht M(x) und 8 Bit für
MehrA1.1: Zur Kennzeichnung aller Bücher
A1.1: Zur Kennzeichnung aller Bücher Seit den 1960er Jahren werden alle Bücher mit einer 10 stelligen International Standard Book Number versehen. Die letzte Ziffer dieser sog. ISBN 10 Angabe berechnet
MehrAlgorithmensammlung Codierungstheorie von Alfred Franz und Hauke Hund Sommersemester 2007
Algorithmensammlung Codierungstheorie von Alfred Franz und Hauke Hund Sommersemester 2007 Inhaltsverzeichnis Hamming-Code... 2 Codewort überprüfen und ggf. korrigieren...2 BCH-Code... 2 Einen BCH-Code
MehrDigitale Medien. Übung
Digitale Medien Übung Übungsbetrieb Informationen zu den Übungen: http://www.medien.ifi.lmu.de/dm Zwei Stunden pro Woche Praktische Anwendungen des theoretischen Vorlesungsstoffs Wichtige Voraussetzung
MehrÜbung zur Vorlesung. Informationstheorie und Codierung
Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.
MehrKlausur zur Vorlesung Informationstheorie
INSTITUT FÜR INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 0167 Hannover Klausur zur Vorlesung Informationstheorie Datum:.02.2006 Uhrzeit: 9:00 Uhr Zeitdauer: 2 Stunden Hilfsmittel: ausgeteilte
Mehr