Klausur Informationstheorie und Codierung
|
|
- Pia Schwarz
- vor 6 Jahren
- Abrufe
Transkript
1 Klausur Informationstheorie und Codierung WS 2013/ Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte Erreichte Pkt. Note Hinweise: Dieses Deckblatt muss mit den Lösungsblättern abgegeben werden Täuschungsversuche führen zur Bewertung der Prüfungsleistung als "nicht ausreichend" (5.0) Erlaubte Hilfsmittel: Formelsammlung, eine Seite DIN A4 beidseitig Es darf kein eigenes Papier verwendet werden. Verwenden Sie nicht die Farbe Rot. Klausurdauer: 120 min. Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str. 46/ Wolfenbüttel
2 Aufgabe 1 Quellencodierung 2 Präfixfreier Code 1. Wann gilt ein Code C als Präfixfrei? Nennen Sie zwei Beispiele. 2. Wie lautet die Ungleichung von Kraft und was bedeutet sie? 3. Ein binärer Baum habe 5 Endknoten, deren Abstände von der Wurzel sind: 1, 2, 3, 4 Existiert dieser Baum? Wenn ja stellen Sie diesen Baum dar. Prof. Dr. Ing. Lilia Lajmi 1
3 Entropie Codierung Es sollen binäre Bilder (Schwarz/Weiss) der Größe 4x4 codiert werden. 4. Wie viele Bits werden bei einer binären Codierung pro Bildpunkt benötigt? Begründen Sie Ihre Antwort 1P 5. Welche Bedeutung hat die Entropie H einer Quelle Q (Keine Formel)? 1P 6. Wann hat die Entropie einer Quelle Q mit N Symbolen ihren Maximum und welchen Wert erreicht sie dann? 7. Bestimmen Sie die relativen Häufigkeiten schwarzer und weißer Bildpunkte in dem Oben dargestellten Bild. Bestimmen Sie dann die Entropie unter der Annahme, dass diese Häufigkeiten mit den Wahrscheinlichkeiten übereinstimmen. Prof. Dr. Ing. Lilia Lajmi 2
4 Für die Codierung werden zwei benachbarte Bildpunkte zu einem Symbol zusammengefasst. Es entstehen somit folgende Symbole WW, WS, SW und SS. Es wird angenommen, dass benachbarte Bildpunkte statistisch unabhängig voneinander sind. 8. Entwerfen Sie einen Huffman Code welcher jeweils zwei benachbarte Bildpunkte zu einem Symbol zusammengefasst codiert. Bestimmen Sie die mittlere Codewortlänge in Bit pro Bildpunkt. 4P Prof. Dr. Ing. Lilia Lajmi 3
5 9. Entwerfen Sie einen Shannon Code welcher jeweils zwei benachbarte Bildpunkte zu einem Symbol zusammengefasst codiert. Bestimmen Sie die mittlere Codewortlänge in Bit pro Bildpunkt. Welches Verfahren (Shannon oder Huffman) ergibt bessere Ergebnisse? Woran könnte das liegen? 6P Prof. Dr. Ing. Lilia Lajmi 4
6 Aufgabe 2 Binäre Symmetrische Kanäle 5P Gegeben sei ein BSC Kanal mit folgender Kanalmatrix 0,95 0,05 0,05 0,95 1. Wie groß ist die Bitfehlerwahrscheinlichkeit im Kanal? 1P 2. Was beschreibt die Transinformation, eines Kanals und wodurch wird sie beeinflusst? 3. Wie groß ist die Kanalkapazität in Bit pro Symbol, wenn die Eingangs und Ausgangssymbole gleichverteilt sind? Prof. Dr. Ing. Lilia Lajmi 5
7 Aufgabe 3 Kanalcodierung 23P Block Code Bei einem 3,1, Blockcode wird eine binäre 1 in 100 und eine binäre 0 in 011 codiert. 10. Wie groß ist die Hamming Distanz dieses Codes? 11. Wie viele Fehler können damit erkannt bzw. korrigiert werden? 12. Die Bitfehlerwahrscheinlichkeit sei 10. Wie groß ist die Restfehlerwahrscheinlichkeit, wenn der Code zur Fehlerkorrektur verwendet wird? Prof. Dr. Ing. Lilia Lajmi 6
8 Zyklischer Code Ein zyklischer Code mit 7 und 3 besitzt das Generatorpolynom 1 4. Prüfen Sie nach, ob die Binärvektoren und gültige Codewörter sind. 4P 5. Bei der Übertragung des Codewortes tritt der Fehler Wie lautet die Polynomialer Darstellung des empfangenen Binärwortes? Prof. Dr. Ing. Lilia Lajmi 7
9 6. Welches Syndrom ergibt sich bei der Decodierung? 7. Welches Syndrom erwartet man bei einem Fehlermuster e? Vergleichen Sie das Ergebnis mit dem Ergebnis aus Aufgabenteil Ist das Restpolynom vom gesendeten Codewort abhängig? 1P Prof. Dr. Ing. Lilia Lajmi 8
10 9. Wie sieht die Generatormatrix des zyklischen Codes mit dem Generatorpolynom? 10. Bestimmen Sie für das Nachrichtenwort das zugehörige Codewort des separierbaren Codes (Führen Sie alle Schritte der Codierung durch) 4P Prof. Dr. Ing. Lilia Lajmi 9
Übung zur Vorlesung. Informationstheorie und Codierung
Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.
MehrGegeben ist ein systematischer (7,3)-Cod. Die drei seiner Codewörter lauten:
Prof. Dr.-Ing. H.G. Musmann INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 67 Hannover Gegeben ist ein systematischer (7,)-Cod. Die drei seiner
MehrKlausur zur Vorlesung Informationstheorie
INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 07 Hannover Klausur zur Vorlesung Informationstheorie Datum: 0.0.00 Uhrzeit: 09:00 Uhr Zeitdauer:
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung
MehrKapitel 7: Optimalcodierung und Huffman Coding
Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge
MehrTechnische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und
MehrFormelsammlung Kanalcodierung
Formelsammlung Kanalcodierung Allgemeines Codewortlänge: N Anzahl der Informationsstellen: K Coderate: R = K/N Hamming-Distanz: D( x i, x j ) = w( x i xj ) Codedistanz: d = min D( x i, x j ); i j Fehlerkorrektur:
MehrFachprüfung. Nachrichtencodierung
Fachprüfung Nachrichtencodierung 14. März 2006 Prüfer: Prof. Dr. P. Pogatzki Bearbeitungszeit: 2 Stunden Hilfsmittel: Taschenrechner, Vorlesungsscript, Übungsaufgaben Name:... Matr.-Nr.:... Unterschrift:...
MehrFachprüfung. Nachrichtencodierung
Fachprüfung Nachrichtencodierung 6. August 2009 Prüfer: Prof. Dr. P. Pogatzki Bearbeitungszeit: 2 Stunden Hilfsmittel: Taschenrechner, Vorlesungsscript, Übungsaufgaben Name: Vorname: Matr.-Nr.: Unterschrift:
MehrAufgabe 7.1 Bei einer digitalen Übertragung liege folgendes Modell vor:
1 Aufgabe 7.1 Bei einer digitalen Übertragung liege folgendes Modell vor: Q x q x akf digitale Übertrag. q y akf S y Quellensymboldauer T q = 1ms diskreter Kanal Q x sei eine stationäre Markov-Quelle nullter
Mehr(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
MehrGrundlagen der Nachrichtentechnik
Universität Bremen Arbeitsbereich Nachrichtentechnik Prof. Dr.-Ing. A. Dekorsy Schriftliche Prüfung im Fach Grundlagen der Nachrichtentechnik Name: Vorname: Mat.-Nr.: BSc./Dipl.: Zeit: Ort: Umfang: 07.
MehrGrundlagen der Technischen Informatik. 3. Übung
Grundlagen der Technischen Informatik 3. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 3. Übungsblatt Themen Aufgabe : Aufgabe 2: Aufgabe 3: Informationstheorie Huffman-Code Entropie
Mehr3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.
3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle
MehrÜbungsblatt 5 - Musterlösung
Universität Mannheim Lehrstuhl für Praktische Informatik IV Prof. Dr. W. Effelsberg Christoph Kuhmünch, Gerald Kühne Praktische Informatik II SS 2000 Übungsblatt 5 - Musterlösung Aufgabe 1: Huffman-Codierung
MehrCODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 1. Das Problem 1.1. Kanalcodierung und Fehlerkorrektur. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder 1 übertragen kann, schicken.
MehrFachprüfung. Nachrichtencodierung
Fachprüfung Nachrichtencodierung 23. Februar 2010 Prüfer: Prof. Dr. P. Pogatzki Bearbeitungszeit: 2 Stunden Hilfsmittel: Taschenrechner, Vorlesungsscript, Übungsaufgaben Name: Vorname: Matr.-Nr.: Unterschrift:
MehrKlausur zur Vorlesung Informationstheorie
INSTITUT FÜR INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 0167 Hannover Klausur zur Vorlesung Informationstheorie Datum:.02.2006 Uhrzeit: 9:00 Uhr Zeitdauer: 2 Stunden Hilfsmittel: ausgeteilte
MehrTechnische Grundlagen der Informatik Test Minuten Gruppe A
Technische Grundlagen der Informatik Test 1 24.03.2017 90 Minuten Gruppe A Matrikelnr. Nachname Vorname Unterschrift Deckblatt sofort ausfüllen und unterschreiben! Bitte deutlich und nur mit Kugelschreiber
MehrP (x i ) log 2 = P (x. i ) i=1. I(x i ) 2 = log 1. bit H max (X) = log 2 MX = log 2 2 = 1. Symbol folgt für die Redundanz. 0.9 = 0.
7. Diskretes Kanalmodell I 7. a Aussagen über das digitale Übertragungsverfahren Bis auf die bereitzustellende Übertragungsrate [vgl. c)] sind keine Aussagen über das digitale Übertragungsverfahren möglich.
Mehr1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes
1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon
MehrInformationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006
Informationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006 Institut für Nachrichtentechnik und Hochfrequenztechnik Bitte beachten Sie: Sie dürfen das Vorlesungsskriptum, einen Taschenrechner
MehrGrundlagen der Nachrichtentechnik
Universität Bremen Arbeitsbereich Nachrichtentechnik Prof. Dr.-Ing. A. Dekorsy Schriftliche Prüfung im Fach Grundlagen der Nachrichtentechnik Name: Vorname: Mat.-Nr.: BSc./Dipl.: Zeit: Ort: Umfang: 07.
MehrKapitel 13: Syndromcodierung / Hamming Codes
Kapitel 3: Syndromcodierung / Hamming Codes Ziele des Kapitels Lineare Codes Zyklische Codes Copyright M. Gross, ETH Zürich 26, 27 2 Parity-Check-Matrix Theorem: Die Minimaldistanz eines linearen Codes
MehrTechnische Grundlagen der Informatik Test Minuten Gruppe A
Technische Grundlagen der Informatik Test 1 04.11.2016 90 Minuten Gruppe A Matrikelnr. Nachname Vorname Unterschrift Deckblatt sofort ausfüllen und unterschreiben! Bitte deutlich und nur mit Kugelschreiber
MehrRechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir?
Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2012 Wo sind wir? Quelle Nachricht Senke Sender Signal Übertragungsmedium Empfänger Quelle Nachricht Senke Primäres
MehrFehlerschutz durch Hamming-Codierung
Versuch.. Grundlagen und Begriffe Wesentliche Eigenschaften der Hamming-Codes für die Anwendung sind: der gleichmäßige Fehlerschutz für alle Stellen des Codewortes und die einfache Bildung des Codewortes
MehrTechnische Grundlagen der Informatik Test Minuten Gruppe A
Technische Grundlagen der Informatik Test 1 08.04.2016 90 Minuten Gruppe A Matrikelnr. Nachname Vorname Unterschrift Deckblatt sofort ausfüllen und unterschreiben! Bitte deutlich und nur mit Kugelschreiber
MehrÜbungsblatt Nr. 7. Lösungsvorschlag
Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nico Döttling Dirk Achenbach Tobias Nilges Vorlesung Theoretische Grundlagen der Informatik Übungsblatt Nr. 7 svorschlag Aufgabe (K)
Mehrzu Aufgabe 26: a) A 3 A 2 A 4 A 1 A 5 A 0 A 6
zu ufgabe 6: a) 3 5 6 7 p( ) p( ) p( 3 ) p( ) p( 5 ) p( 6 ) p( 7 ) = p( 3 ) = p( 3 ) = p( 3 ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = p( ) = 8 p( ) = p( ) = p( ) = p( ) Lösung: b) binär 8 p(
MehrEinführung in die Codierungstheorie
Einführung in die Codierungstheorie Monika König 11.12.2007 Inhaltsverzeichnis 1 Einführung und Definitionen 2 2 Fehlererkennende Codes 3 2.1 Paritycheck - Code............................... 3 2.2 Prüfziffersysteme................................
MehrBeispiel: Zeigen Sie, dass H(x) = H 0 = I gilt, wenn alle Zeichen gleichwahrscheinlich sind.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
MehrGruppe. Kanalcodierung
Kanalcodierung Ziele Mit diesen rechnerischen und experimentellen Übungen wird die prinzipielle Vorgehensweise zur Kanalcodierung mit linearen Block-Codes und mit Faltungscodes erarbeitet. Die konkrete
MehrDirk W. Hoffmann. Einführung. in die Informations. und Codierungstheorie. ^ Springer Vieweg
Dirk W. Hoffmann Einführung und Codierungstheorie in die Informations ^ Springer Vieweg Inhaltsverzeichnis 1 Geschichte der Nachrichtentechnik 13 1.1 Von Fackeln und Feuern der Antike 15 1.1.1 Fackelpost
Mehr3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238
3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher
MehrEndliche Körper und Codierung SS Übungsblatt. 9. Bestimmen Sie alle primitiven Elemente (Erzeuger der multiplikativen Gruppe) von
Endliche Körper und Codierung SS 2007 1. Übungsblatt 1. Sei p eine Primzahl und 0 j p 1. Zeigen Sie, dass ( ) p 1 j ( 1) j (mod p). 2. Sei R ein kommutativer Ring der Charakteristik p > 0 (prim). Zeigen
MehrInformationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi
Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de Organisatorisches Vorlesung 2 SWS ( 2,5 LP) - Dienstags. 12:00-13:30 Uhr, Raum L122 Unterlagen - Vorlesungsfolien - Übungsaufgaben
MehrÜbungsaufgaben zur Vorlesung Quellencodierung
Übungsaufgaben zur Vorlesung Quellencodierung Aufgabe 1: Gegeben seien die Verbundwahrscheinlichkeiten zweier diskreter Zufallsvariablen x und y: P(x, y) x 1 = 1 x 2 = 2 x 3 = 3 y 1 = 1 0.1 0.1 0.1 y 2
MehrNachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2013/14
Institut für Theoretische Informatik Prof. Dr. Jörn Müller-Quade Nachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2013/14 Vorname Nachname Matrikelnummer Hinweise Für die
MehrDiskrete Mathematik II
Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2008 DiMA II - Vorlesung 01-07.04.2008 Einführung in die Codierungstheorie, Definition Codes 1 / 36 Organisatorisches
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN
Name Studiengang (Hauptfach) Vorname Fachrichtung (Nebenfach)... Note Matrikelnummer Unterschrift der Kandidatin/des Kandidaten 1 I II TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Informatik Midterm-Klausur
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Informationstheorie INSTITUT FÜR THEORETISCHE KIT 8.2.22 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik INSTITUT
MehrMusterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 2013/14
Institut für Theoretische Informatik Prof. Dr. Jörn Müller-Quade Musterlösung zur Hauptklausur Theoretische Grundlagen der Informatik Wintersemester 23/4 Vorname Nachname Matrikelnummer Hinweise Für die
MehrNachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2012/13
Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nachklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2012/13 Vorname Nachname Matrikelnummer Hinweise Für
MehrChaosSeminar - Informationstheorie
Alexander.Bernauer@ulm.ccc.de Stephanie.Wist@ulm.ccc.de 18. November 2005 Motivation schnelle Übertragung von Daten über gestörten Kanal Shannon48 Was ist Information? Information ist Abnahme von Unsicherheit
MehrDefinition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009
MehrFachprüfung. Nachrichtencodierung
Fachprüfung Nachrichtencodierung 14. Juli 2011 Prüfer: Prof. Dr. P. Pogatzki Bearbeitungszeit: 2 Stunden Hilfsmittel: Taschenrechner, Vorlesungsscript, Übungsaufgaben Name:... Matr.-Nr.:... Unterschrift:...
MehrInformationstheorie und Codierung. Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de
Informationstheorie und Codierung Prof. Dr.-Ing. Lilia Lajmi l.lajmi@ostfalia.de Inhaltsverzeichnis 3. Kanalcodierung 3.1 Nachrichtentheorie für gestörte Kanäle 3.1.1 Transinformation 3.1.2 Kanalkapazität
MehrEinführung in die Informations- und Codierungstheorie
Einführung in die Informations- und Codierungstheorie Von Prof. Dr. Hermann Rohling Technische Universität Braunschweig unter Mitarbeit von Dipl.-Ing. Thomas Müller Technische Universität Braunschweig
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Übung 8 Dirk Achenbach 7. Februar 2013 I NSTITUT FÜR K RYPTOGRAPHIE UND S ICHERHEIT KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrEinführung in die Informatik II Aus der Informationstheorie: Datenkompression
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd
MehrGrundlagen der Technischen Informatik. 2. Übung
Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 2. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Aufgabe 4: Hamming-Distanz Fehlererkennung
MehrPraktikum Digitaltechnik
dig A) Vorbereitungsaufgaben: 1) Ermitteln Sie anhand der gegebenen zwei Blockschaltbilder die Schaltgleichungen und vereinfachen Sie weitmöglich! y 1 =(/(/(x 0 x 1 )/(x 0 +x 1 )))+(/(/(x 0 x 1 )+/(x 0
MehrKlausur zur Digitalen Kommunikationstechnik
Klausur zur Digitalen Kommunikationstechnik Prof. Dr. Henrik Schulze, Fachhochschule Südwestfalen, Standort Meschede 16. Januar 2015 Name Matr.-Nr. Vorname Unterschrift Aufgabe 1 2 3 4 Summe Note Punkte
MehrÜbung 14: Block-Codierung
ZHW, NTM, 26/6, Rur Übung 4: Block-Codierung Aufgabe : Datenübertragung über BSC. Betrachten Sie die folgende binäre Datenübertragung über einen BSC. Encoder.97.3.3.97 Decoder Für den Fehlerschutz stehen
MehrTheoretische Grundlagen der Informatik. Vorlesung am 31. Januar INSTITUT FÜR THEORETISCHE INFORMATIK
Theoretische Grundlagen der Informatik 3..29 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Thema dieses Kapitels Informationstheorie
MehrGrundbegriffe der Informatik Tutorium 3
Grundbegriffe der Informatik Tutorium 3 Tutorium Nr. 16 Philipp Oppermann 18. November 2014 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrVorname:... Studiengang 1 : I MI BI
FH GIESSEN - FRIEDBERG, FB MNI PROF. DR. W. SCHMITT RECHNERNETZE I PRÜFUNG RECHNERNETZE, SS 05 Termin: 4. Okt. 2004 Name:... Matr. Nr.:... Vorname:... Studiengang 1 : I MI BI Unterschrift:... Aufgabe erreichbare
MehrTheoretische Grundlagen der Informatik WS 09/10
Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3
MehrDie Mathematik in der CD
Lehrstuhl D für Mathematik RWTH Aachen Lehrstuhl D für Mathematik RWTH Aachen St.-Michael-Gymnasium Monschau 14. 09. 2006 Codes: Definition und Aufgaben Ein Code ist eine künstliche Sprache zum Speichern
MehrKANALCODIERUNG AUFGABEN. Aufgabe 1. Aufgabe 2
AUFGABEN KANALCODIERUNG Aufgabe Wir betrachten den Hamming-Code mit m = 5 Prüfbits. a) Wie gross ist die Blocklänge n dieses Codes? b) Wie viele gültige Codewörter umfasst dieser Code? c) Leiten Sie die
MehrInformation und Codierung
Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH Inhalt Vorwort zur 1. Auflage der Originalausgabe
MehrCodierung Fehlerdetektion
Übersicht Elektromagnetische Wellen Frequenzen und Regulierungen Antennen Signale Signalausbreitung Multiplex Modulation Bandspreizverfahren Codierung Rauschen und Übertragungsfehler Fehlerdetektion Block-Codes
MehrAufgabe: Summe Punkte (max.): Punkte:
ZUNAME:... VORNAME:... MAT. NR.:... Prüfung 389.53 Musterlösung A Datenkommunikation Institute of Telecommunications TU-Wien 2.2.24 Bitte beachten Sie: Die Dauer dieser Klausur beträgt zwei Zeitstunden.
MehrAufgabe: Summe Punkte (max.): Punkte:
ZUNAME:... VORNAME:... MAT. NR.:... Prüfung 389.53 Musterlösung B Datenkommunikation Institute of Telecommunications TU-Wien 9..25 Bitte beachten Sie: Die Dauer dieser Klausur beträgt zwei Zeitstunden.
MehrLabor für Kommunikationssysteme
Labor für Kommunikationssysteme Leitung: Prof. Dr.-Ing. Diederich Wermser Versuch: Kanalcodierung Sommersemester 2017 Gruppe: Datum: Teilnehmer: Name: Matr.-Nr.: Name: Matr.-Nr.: Name: Matr.-Nr.: Laborumdruck
MehrInformationsgehalt einer Nachricht
Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner
Mehr2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
MehrÜbung 13: Quellencodierung
ZHAW, NTM, FS2008, Rumc, /5 Übung 3: Quellencodierung Aufgabe : Huffmann-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Informationstheorie INSTITUT FÜR THEORETISCHE INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
MehrA1.1: Zur Kennzeichnung aller Bücher
A1.1: Zur Kennzeichnung aller Bücher Seit den 1960er Jahren werden alle Bücher mit einer 10 stelligen International Standard Book Number versehen. Die letzte Ziffer dieser sog. ISBN 10 Angabe berechnet
MehrOptimalcodierung. Thema: Optimalcodierung. Ziele
Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.
MehrLösung. H_DA Dr. Frank Fachbereich I. Unterschrift:
Name: Matr.-Nr.: Unterschrift: Die Klausur besteht aus elf Blättern und 10 Aufgaben. ACHTUNG!!! Die Blätter dürfen NICHT getrennt werden. Das Deckblatt ist mit Angabe des Namens, Matrikelnr. und der Unterschrift
MehrProf. Dr. Stefan Weinzierl Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit zur Fehlererkennung kodiert.
Audiotechnik II Digitale Audiotechnik: 8. Tutorium Prof. Dr. Stefan Weinzierl 9.2.23 Musterlösung: 9. Dezember 23, 8:34 Fehlerkorrektur II Audiosymbole mit einer Länge von 8 bit werden mit einem Paritätsbit
MehrInformatik II, SS 2018
Informatik II - SS 28 (Algorithmen & Datenstrukturen) Vorlesung 22 (6.7.28) Greedy Algorithmen II (Datenkompression) Algorithmen und Komplexität Datenkompression Reduziert Größen von Files Viele Verfahren
MehrOtto Mildenberger. Ioformatioostheorie uod Codierung
Otto Mildenberger Ioformatioostheorie uod Codierung Aus dem Programm Technische Informatik Datenstruktoren und Speichertechniken, von O. Lange und G. Stegemann Datenstruktoren und Datenbanken, von G. Schafer
MehrGrundbegriffe der Informatik Tutorium 5
Grundbegriffe der Informatik Tutorium 5 Tutorium Nr. 32 Philipp Oppermann 13. Januar 2015 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
Mehr1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen
1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte
MehrRedundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1
Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)
MehrModul Diskrete Mathematik WiSe 2011/12
Modul Diskrete Mathematik WiSe / Ergänzungsskript zum Kapitel 3.4. Hinweis: Dieses Manuskript ist nur verständlich und von Nutzen für Personen, die regelmäßig und aktiv die zugehörige Vorlesung besuchen
Mehr21. Dynamic Programming III
Approximation 21. Dynamic Programming III FPTAS [Ottman/Widmayer, Kap. 7.2, 7.3, Cormen et al, Kap. 15,35.5] Sei ein ε (, 1) gegeben. Sei I eine bestmögliche Auswahl. Suchen eine gültige Auswahl I mit
MehrAufgabe: Summe Punkte (max.): Punkte:
ZUNAME:.................................... VORNAME:.................................... MAT. NR.:................................... Prüfung 389.153 A Datenkommunikation Institute of Telecommunications
MehrKlausur Lösung
Name: Matr.-Nr.: Unterschrift: Die Klausur besteht aus elf Blättern und 10 Aufgaben. ACHTUNG!!! Die Blätter dürfen NICHT getrennt werden. Das Deckblatt ist mit Angabe des Namens, Matrikelnr. und der Unterschrift
MehrGrundlagen der Technischen Informatik. Hamming-Codes. Kapitel 4.3
Hamming-Codes Kapitel 4.3 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Inhalt Welche Eigenschaften müssen Codes haben, um Mehrfachfehler erkennen und sogar korrigieren zu können?
MehrVorlesung 12. Quellencodieren und Entropie
Vorlesung 12 Quellencodieren und Entropie 1 S sei eine abzählbare Menge (ein Alphabet ). Die Elemente von S nennen wir Buchstaben. Wir wollen die Buchstaben a, b,... durch (möglichst kurze) 01-Folgen k(a),
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Informationstheorie Vorlesungen vom 30. Januar und 1. Februar 2018 INSTITUT FÜR THEORETISCHE 0 30.01.2018 Dorothea Wagner - Theoretische Grundlagen der Informatik
MehrFehlererkennung und Fehlerkorrektur in Codes
Fehlererkennung und Fehlerkorrektur in Codes Blockcodes und Hamming Abstand Untersuchungen zu Codierungen von Informationen, die über einen Nachrichtenkanal übertragen werden sollen, konzentrieren sich
MehrInformatik II, SS 2016
Informatik II - SS 2016 (Algorithmen & Datenstrukturen) Vorlesung 22 (20.7.2016) Greedy Algorithmen - Datenkompression Algorithmen und Komplexität Greedy Algorithmen Greedy Algorithmen sind eine Algorithmenmethode,
MehrFehlerdetektion. Cyclic Redanduncy Check. Grundlagen der Rechnernetze Übertragungssicherung 7
Fehlerdetektion Cyclic Redanduncy Check Grundlagen der Rechnernetze Übertragungssicherung 7 Modulo 2 Arithmetik Addition Modulo 2 Subtraktion Modulo 2 Multiplikation Modulo 2 A B A B 0 0 0 1 1 0 1 1 A
MehrInformations- und Kodierungstheorie
Information Informations- und Kodierungstheorie Ziel: Sichere und effiziente Speicherung und Übertragung von Informationen: Gesendete Information soll unverfälscht beim Empfänger ankommen (räumlich, von
MehrPraktikum Fehlerreduktionssysteme / Codierungstheorie
Fakultät Elektrotechnik und Informationstechnik Institut für Nachrichtentechnik Lehrstuhl Theoretische Nachrichtentechnik Prof. Eduard Jorswieck, Anne Wolf Praktikum Fehlerreduktionssysteme / Codierungstheorie
MehrGrundlagen der Technischen Informatik. Informationsgehalt. Kapitel 4.1
Informationsgehalt Kapitel 4.1 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916) Quelle Sender
MehrInformationstheorie und Codierung
Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN
Name Studiengang (Hauptfach) Vorname Fachrichtung (Nebenfach)... Note Matrikelnummer Unterschrift der Kandidatin/des Kandidaten 1 I II TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Informatik Midterm-Klausur
Mehri Der Informatinonsgehalt ist also intuitiv umgekehrt proportional der Auftritswahrscheimlichkeit.
1 2 Im ersten Schritt werden wir uns mit dem Begriff und der Definition der Information beschäftigen. Ferner werden die notwendigen math. Grundlagen zur Quellencodierung gelegt. Behandelt werden Huffman,
MehrGrundlagen der Statistischen Nachrichtentheorie
- Prof. Dr.-Ing. Thomas Sikora - Name:............................ Vorname:......................... Matr.Nr:........................... Ich bin mit der Veröffentlichung des Klausurergebnisses unter meiner
Mehr