Information und Codierung
|
|
|
- Greta Dittmar
- vor 9 Jahren
- Abrufe
Transkript
1 Richard W. Hamming Information und Codierung Technische Universität Darmstadt FACHBEREICH INFORMATIK BIBLIOTHEK Invantar-Nr.: Sachgebiete:. Standort: VCH
2 Inhalt Vorwort zur 1. Auflage der Originalausgabe Danksagungen Vorwort zur 2. Auflage der Originalausgabe 1 Einführung Zusammenfassung der Theorie Geschichtliche Entwicklung Modell des Informationsübertragungssystems Informationsquelle Codierung eines Quellenalphabetes Spezielle Codes ASCII-Code Weitere Codes Mehrwertige Codes (Basis r) Steuerzeichen Aufbau des Lehrkurses 18 2 Fehlererkennende Codes Warum fehlererkennende Codes? Einfache Paritätskontrollen Fehlererkennende Codes Unabhängige Fehler: Weißes Rauschen Wiederholung der Nachricht Einfache fehlererkennende Codes für Fehlerbursts Alphanumerische Codes: Gewichtete Codes Rückblick auf die Modul-Arithmetik ISBN-Buchnummern 33 3 Fehlerkorrigierende Codes! Notwendigkeit der Fehlerkorrektur Rechteckcodes Dreieckcodes, kubische Codes und n-dimensionale Codes Fehlerkorrigierende Hamming-Codes Äquivalente Codes Geometrische Methoden 45
3 X Inhalt 3.7 Einzelfehlerkorrigierende und doppelfehlererkennende Codes Hamming-Codes mit Codeworten Anwendungen Zusammenfassung 51 4 Codes mit veränderlicher Länge: Huffman-Codes Einführung Eindeutige Decodierung Unmittelbare Codes Aufbau unmittelbarer Codes Kraftsche Ungleichung Verkürzte Blockcodes McMillansche Ungleichung Huffman-Codes Spezialfälle der Huffmann-Codierung Codeerweiterungen Huffman-Codes mit Radix r Schwankungen der Wahrscheinlichkeiten bei der Huffman-Codierung : Anwendung von Huffman-Codes Hamming-Huffman-Codierung 79 5 Verschiedene Codes Einführung Markowsche Prozesse Ergodische Markowsche Prozesse Effiziente Kodierung beim ergodischen Markowschen Prozeß Erweiterungen Markowscher Prozesse Prädiktive Codierung von Symbolfolgen Prädiktive Codierer Decodierer Länge von Zeichenfolgen Prädiktive Codierung, Zusammenfassung Hashing Behandlung von Mehrdeutigkeiten Löschung eines Namens in der Tabelle Zusammenfassung Gray-Code, Zweck Gray-Code, Aufbau Gray-Code, Decodierung Anti-Gray-Code Delta-Modulation Weitere Codes 104
4 Inhalt XI 6 Entropie und Erstes Shannonsches Theorem Einführung Information Entropie Mathematische Eigenschaften der Entropiefunktion Entropie und Codierung Shannon-Fano-Codierung Nachteile der Shannon-Fano-Codierung Codeerweiterungen Beispiele für Codeerweiterungen Entropie beim Markowschen Prozeß Beispiel für Markowsche Prozesse Adjungierte Systeme Entropieverhalten bei Änderungen der Wahrscheinlichkeitsverteilung Zusammenfassung Kanalinformation Einführung Der Informationskanal Kanalgleichungen ' Beispiel für einen binären symmetrischen Kanal Systementropien Kanalinformation Kanalkapazität Definition der Kanalkapazität Kanal mit gleichbleibendem Mittelwert Input mit gleichbleibendem Mittelwert Fehlerkorrigierende Codes Kapazität des binären symmetrischen Kanals Bedingte Kanalinformation Einige mathematische Voraussetzungen Einführung Stirlingsche Näherung für n! i Methode der Binomialkoeffizienten " Gamma-Funktion T(n) n-dimensionaler Euklidischer Raum Ein Paradoxon Tschebyschowsche Ungleichung und Varianz Gesetz der großen Zahlen Andere Metriken 193
5 XII Inhalt 10 Shannons Haupttheorem Einführung Entscheidungsregeln Binärer symmetrischer Kanal Zufällige Kodierung Mittlerer Zufallskode Allgemeiner Fall Fano-Schranke Umkehrung des Shannonschen Theorems Algebraische Codierungstheorie Einführung Fehlererkennende Paritätscodes unter neuen Gesichtspunkten Hamming-Codes in neuer Betrachtung Doppelfehler erkennender Code in neuer Betrachtung Polynome im Vergleich mit Vektoren Primpolynome Primitive Wurzeln Spezialfall Schieberegister zur Codierung Decodierung von Einzelfehler korrigierenden Codes Ein Doppelfehler korrigierender Code Decodierung-von Mehrfachfehler korrigierenden Codes Zusammenfassung 240 Anhang A Bandbreite und Abtasttheorem 243 A. 1 Einführung 243 A.2 Fourier-Integral 244 A.3 Abtasttheorem 246 A.4 Bandbreite bei schneller Änderung 248 A.5 Signalübertragung bei Amplitudenmodulation 248 A.6 Signal Übertragung bei Frequenzmodulation 250 A.7 Impulsübertragung 251 A.8 Allgemeines zur Bandbreite 252 A.9 Kontinuierliche Signale 253 Anhang B Tabellen zur Berechnung der Entropie \ Literatur 261 Lösungen der Aufgaben 263 Register 265
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 1. Das Problem 1.1. Kanalcodierung und Fehlerkorrektur. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder 1 übertragen kann, schicken.
Definition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 ist definiert als I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung
Technische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Darstellung von Zeichen und
Dirk W. Hoffmann. Einführung. in die Informations. und Codierungstheorie. ^ Springer Vieweg
Dirk W. Hoffmann Einführung und Codierungstheorie in die Informations ^ Springer Vieweg Inhaltsverzeichnis 1 Geschichte der Nachrichtentechnik 13 1.1 Von Fackeln und Feuern der Antike 15 1.1.1 Fackelpost
(Prüfungs-)Aufgaben zur Codierungstheorie
(Prüfungs-)Aufgaben zur Codierungstheorie 1) Gegeben sei die folgende CCITT2-Codierung der Dezimalziffern: Dezimal CCITT2 0 0 1 1 0 1 1 1 1 1 0 1 2 1 1 0 0 1 3 1 0 0 0 0 4 0 1 0 1 0 5 0 0 0 0 1 6 1 0 1
Einführung in die Codierungstheorie
Einführung in die Codierungstheorie Monika König 11.12.2007 Inhaltsverzeichnis 1 Einführung und Definitionen 2 2 Fehlererkennende Codes 3 2.1 Paritycheck - Code............................... 3 2.2 Prüfziffersysteme................................
3 Codierung diskreter Quellen. Quelle Quellcodierer Kanalcodierer reduziert die benötigte Datenmenge. fügt Daten zur Fehlerkorrektur ein.
3 Codierung diskreter Quellen 3 Einführung 32 Ungleichmäßige Codierung 33 Präfix-Codes 34 Grenzen der Code-Effizienz 35 Optimal-Codierung 3 Zusammenfassung < 24 / 228 > 3 Codierung diskreter Quellen Quelle
Kapitel 7: Optimalcodierung und Huffman Coding
Kapitel 7: codierung und Huffman Coding Ziele des Kapitels Auftreten von Fehlern bei zu starker Kompression Konstruktion optimaler Codes Huffman Coding 2 Bisher Theorem (Shannon I): Die mittlere Codewortlänge
Klausur Informationstheorie und Codierung
Klausur Informationstheorie und Codierung WS 2013/2014 23.01.2014 Name: Vorname: Matr.Nr: Ich fühle mich gesundheitlich in der Lage, die Klausur zu schreiben Unterschrift: Aufgabe A1 A2 A3 Summe Max. Punkte
16 - Kompressionsverfahren für Texte
16 - Kompressionsverfahren für Texte Prof. Dr. S. Albers Kompressionsverfahren für Texte Verlustfreie Kompression Original kann perfekt rekonstruiert werden Beispiele: Huffman Code, Lauflängencodierung,
Einführung in die Informations- und Codierungstheorie
Einführung in die Informations- und Codierungstheorie Von Prof. Dr. Hermann Rohling Technische Universität Braunschweig unter Mitarbeit von Dipl.-Ing. Thomas Müller Technische Universität Braunschweig
Otto Mildenberger. Ioformatioostheorie uod Codierung
Otto Mildenberger Ioformatioostheorie uod Codierung Aus dem Programm Technische Informatik Datenstruktoren und Speichertechniken, von O. Lange und G. Stegemann Datenstruktoren und Datenbanken, von G. Schafer
Informationstheorie und Codierung
Informationstheorie und Codierung Organisation / Einleitung Vorlesung: Do 17:00 Uhr, Sr K 2002B Seminar: Mi (G) 15:00 Uhr, Sr H 1510 Abschluss: mdl. Prüfung Kontakt - Vorlesung Dr.-Ing. Maik Debes Fakultät
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression
Einführung in die Informatik II Aus der Informationstheorie: Datenkompression Prof. Bernd Brügge, Ph.D Institut für Informatik Technische Universität München Sommersemester 2 2. Juli 2 Copyright 2 Bernd
Kompressionsverfahren für Texte
Kompressionsverfahren für Texte Prof. Dr. S. Albers Prof. Dr. Th. Ottmann 1 Zeichenkettenverarbeitung Suche in Texten, Textindizes Mustererkennung (Pattern-Matching) Verschlüsseln Komprimiern Analysieren
Diskrete Mathematik II
Diskrete Mathematik II Alexander May Fakultät für Mathematik Ruhr-Universität Bochum Sommersemester 2008 DiMA II - Vorlesung 01-07.04.2008 Einführung in die Codierungstheorie, Definition Codes 1 / 36 Organisatorisches
Einführung in die Codierungstheorie
11. Dezember 2007 Ausblick Einführung und Definitionen 1 Einführung und Definitionen 2 3 Einführung und Definitionen Code: eindeutige Zuordnung von x i X = {x 1,.., x k } und y j Y = {y 1,..., y n } Sender
Grundbegrie der Codierungstheorie
Grundbegrie der Codierungstheorie Pia Lackamp 12. Juni 2017 Inhaltsverzeichnis 1 Einleitung 2 2 Hauptteil 3 2.1 Blockcodes............................ 3 2.1.1 Beispiele.......................... 3 2.2
Übungsblatt 5 - Musterlösung
Universität Mannheim Lehrstuhl für Praktische Informatik IV Prof. Dr. W. Effelsberg Christoph Kuhmünch, Gerald Kühne Praktische Informatik II SS 2000 Übungsblatt 5 - Musterlösung Aufgabe 1: Huffman-Codierung
4.0.2 Beispiel (Einfacher Wiederholungscode). Im einfachsten Fall wird die Nachricht einfach wiederholt. D.h. man verwendet die Generatorabbildung
Wir beschäftigen uns mit dem Problem, Nachrichten über einen störungsanfälligen Kanal (z.b. Internet, Satelliten, Schall, Speichermedium) zu übertragen. Wichtigste Aufgabe in diesem Zusammenhang ist es,
Seminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung
Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft
Formelsammlung Kanalcodierung
Formelsammlung Kanalcodierung Allgemeines Codewortlänge: N Anzahl der Informationsstellen: K Coderate: R = K/N Hamming-Distanz: D( x i, x j ) = w( x i xj ) Codedistanz: d = min D( x i, x j ); i j Fehlerkorrektur:
3. Woche Information, Entropie. 3. Woche: Information, Entropie 45/ 238
3 Woche Information, Entropie 3 Woche: Information, Entropie 45/ 238 Informationsgehalt einer Nachricht Intuitiv: Je kleiner die Quellws, desto wichtiger oder strukturierter die Information, bzw höher
Die Mathematik in der CD
Lehrstuhl D für Mathematik RWTH Aachen Lehrstuhl D für Mathematik RWTH Aachen St.-Michael-Gymnasium Monschau 14. 09. 2006 Codes: Definition und Aufgaben Ein Code ist eine künstliche Sprache zum Speichern
Lösungsvorschlag 3. Übung Technische Grundlagen der Informatik II Sommersemester 2009
Fachgebiet Rechnerarchitektur Fachbereich Informatik Lösungsvorschlag 3. Übung Technische Grundlagen der Informatik II Sommersemester 2009 Aufgabe 3.1: Codierungen a) Vervollständigen Sie folge Tabelle,
Ralph-Hardo Schulz. Codiemngstheorie
Ralph-Hardo Schulz Codiemngstheorie --Aus dem Programm Mathematik Albrecht Beutelspacher Kryptologie Gerd Fischer Lineare Algebra Gerhard Frey Elementare Zahlentheorie Manfred Knebusch und Claus Scheiderer
Modul Diskrete Mathematik WiSe 2011/12
Modul Diskrete Mathematik WiSe / Ergänzungsskript zum Kapitel 3.4. Hinweis: Dieses Manuskript ist nur verständlich und von Nutzen für Personen, die regelmäßig und aktiv die zugehörige Vorlesung besuchen
Codierungstheorie Teil 1: Fehlererkennung und -behebung
Codierungstheorie Teil 1: Fehlererkennung und -behebung von Manuel Sprock 1 Einleitung Eine Codierung ist eine injektive Abbildung von Wortmengen aus einem Alphabet A in über einem Alphabet B. Jedem Wort
Definition Information I(p)
Definition Information I(p) Definition I(p) Die Information I(p) eines Symbols mit Quellws p > 0 beträgt I(p) = log 1 p. Die Einheit der Information bezeichnet man als Bit. DiMa II - Vorlesung 03-05.05.2009
Grundlagen der Informationstheorie. Hanna Rademaker und Fynn Feldpausch
Grundlagen der Informationstheorie Hanna Rademaker und Fynn Feldpausch . Thema Informationstheorie geht zurück auf Claude Shannon The Mathematical Theory of Communication beschäftigt sich mit Information
Die Hamming-Distanz definiert eine Metrik.
Die Hamming-Distanz definiert eine Metrik. Satz Metrik Hamming-Distanz Die Hamming-Distanz ist eine Metrik auf {0, 1} n, d.h. für alle x, y, z {0, 1} n gilt: 1 Positivität: d(x, y) 0, Gleichheit gdw x
Grundlagen der digitalen Kommunikationstechnik
Carsten Roppel Grundlagen der digitalen Kommunikationstechnik Übertragungstechnik - Signalverarbeitung - Netze mit 368 Bildern, 42 Tabellen und 62 Beispielen Fachbuchverlag Leipzig im Carl Hanser Verlag
Informations- und Kodierungstheorie
Informations- und Kodierungstheorie Dagmar Schönfeld Herbert Klimant Rudi Piotraschke Informations- und Kodierungstheorie 4. Auflage Dr. Dagmar Schönfeld TU Dresden Deutschland Dr. Herbert Klimant TU Dresden
Fehlererkennung und Fehlerkorrektur in Codes
Fehlererkennung und Fehlerkorrektur in Codes Blockcodes und Hamming Abstand Untersuchungen zu Codierungen von Informationen, die über einen Nachrichtenkanal übertragen werden sollen, konzentrieren sich
Entropie. Um der Begriff der Entropie zu erläutern brauchen wir erst mal einige Definitionen, z.b.
Entropie Grundlegend für das Verständnis des Begriffes der Komprimierung ist der Begriff der Entropie. In der Physik ist die Entropie ein Maß für die Unordnung eines Systems. In der Informationstheorie
Praktikum Fehlerreduktionssysteme / Codierungstheorie
Fakultät Elektrotechnik und Informationstechnik Institut für Nachrichtentechnik Lehrstuhl Theoretische Nachrichtentechnik Prof. Eduard Jorswieck, Anne Wolf Praktikum Fehlerreduktionssysteme / Codierungstheorie
Informationsgehalt einer Nachricht
Informationsgehalt einer Nachricht Betrachten folgendes Spiel Gegeben: Quelle Q mit unbekannten Symbolen {a 1, a 2 } und p 1 = 0.9, p 2 = 0.1. Zwei Spieler erhalten rundenweise je ein Symbol. Gewinner
Kodierung und Sicherheit
Skript zur Vorlesung: Kodierung und Sicherheit 0000 00000 000 0000 0000 000 00 000 Wintersemester 2004-2005 Dr. Andreas Jakoby Institut für Theoretische Informatik Universität zu Lübeck Inhaltsverzeichnis
Informationstheorie und Codierung
Informationstheorie und Codierung 3. Codierung diskreter Quellen Gleichmäßiger Code Ungleichmäßiger Code Fano-, Huffman-Codierung Optimalcodierung von Markoff-Quellen Lauflängencodes nach Golomb und Rice
Kompression. Tim Kilian
Kompression Tim Kilian Seminar Effiziente Programmierung Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität Hamburg
Codierung zur Fehlerkorrektur und Fehlererkennung
Codierung zur Fehlerkorrektur und Fehlererkennung von Dr.-techn. Joachim Swoboda Mit 39 Bildern und 24 Tafeln R. OLDENBOURG VERLAG MÜNCHEN WIEN 1973 Inhalt Vorwort 9 1. Einführung 11 1.1 Redundante Codierung
Grundlagen der Nachrichtentechnik
Universität Bremen Arbeitsbereich Nachrichtentechnik Prof. Dr.-Ing. A. Dekorsy Schriftliche Prüfung im Fach Grundlagen der Nachrichtentechnik Name: Vorname: Mat.-Nr.: BSc./Dipl.: Zeit: Ort: Umfang: 07.
Informationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006
Informationstheorie und Codierung Schriftliche Prüfung am 8. Mai 2006 Institut für Nachrichtentechnik und Hochfrequenztechnik Bitte beachten Sie: Sie dürfen das Vorlesungsskriptum, einen Taschenrechner
Algebraische Codierungstheorie
Algebraische Codierungstheorie Grundeigenschaften der Codes und ihre wichtigsten Parameterschranken Iryna Feurstein Inhaltsverzeichnis 1 Gegenstand und Aufgabe der Codierungstheorie 1 2 Blockcode 1 2.1
Vorlesung Theoretische Grundlagen Fehlerkorrigierende Codes Jörn Müller-Quade 29. Januar 2013
Vorlesung Theoretische Grundlagen Fehlerkorrigierende Jörn Müller-Quade 29. Januar 2013 I NSTITUT FÜR K RYPTOGRAPHIE UND S ICHERHEIT KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
Informations- und Kodierungstheorie
Information Informations- und Kodierungstheorie Ziel: Sichere und effiziente Speicherung und Übertragung von Informationen: Gesendete Information soll unverfälscht beim Empfänger ankommen (räumlich, von
Grundlagen der digitalen und analogen Nachrichtenübertragungssysteme
Hans Dieter Luke Signalübertragung Grundlagen der digitalen und analogen Nachrichtenübertragungssysteme Sechste, neubearbeitete und erweiterte Auflage mit 221 Abbildungen, 6 Tabellen und 185 Aufgaben mit
Übungsblatt Nr. 7. Lösungsvorschlag
Institut für Kryptographie und Sicherheit Prof. Dr. Jörn Müller-Quade Nico Döttling Dirk Achenbach Tobias Nilges Vorlesung Theoretische Grundlagen der Informatik Übungsblatt Nr. 7 svorschlag Aufgabe (K)
Übung zur Vorlesung. Informationstheorie und Codierung
Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.
Verschlüsselungs- und Codierungstheorie PD Dr. Thomas Timmermann Westfälische Wilhelms-Universität Münster Sommersemester 2017
Verschlüsselungs- und Codierungstheorie PD Dr. Thomas Timmermann Westfälische Wilhelms-Universität Münster Sommersemester 2017 Lineare Codes (Ausarbeitung von Benjamin Demes) 1) Was sind lineare Codes
Proseminar Datenkompression Suchstrategien und Präfixcodes
Proseminar Datenkompression Suchstrategien und Präfixcodes Patrick Sonntag Mittwoch, den 05.02.2003 I. Einführung - Suche elementares Problem in Informatik - hierbei Beschränkung auf binäre Tests nur 2
Begriffe aus der Informatik Nachrichten
Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung
Rechnernetze Übung 5. Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai Wo sind wir?
Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2012 Wo sind wir? Quelle Nachricht Senke Sender Signal Übertragungsmedium Empfänger Quelle Nachricht Senke Primäres
Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1
Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)
Arithmetisches Codieren
Arithmetisches Codieren 1. Motivation: Als Alternative zum arithmetischen Codieren bot sich damals als effizientester Algorithmus das Huffmann-Coding an. Dieses jedoch hatte einen entscheidenden Nachteil:
Grundlagen der Technischen Informatik. 2. Übung
Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit 2. Übungsblatt Themen Aufgabe 1: Aufgabe 2: Aufgabe 3: Aufgabe 4: Hamming-Distanz Fehlererkennung
Inhaltsverzeichnis Einleitung Darstellung von Signalen und Spektren Aufbau und Signale eines Software Defined Radio -Systems
Inhaltsverzeichnis 1 Einleitung.................................. 1 1.1 Software Defined Radio-Systeme.................... 1 1.1.1 Verarbeitung imdigitalteil................... 2 1.1.2 Hardware und Software
ChaosSeminar - Informationstheorie
[email protected] [email protected] 18. November 2005 Motivation schnelle Übertragung von Daten über gestörten Kanal Shannon48 Was ist Information? Information ist Abnahme von Unsicherheit
2.7 Der Shannon-Fano-Elias Code
2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.
Elementare Stochastik
Mathematik Primarstufe und Sekundarstufe I + II Elementare Stochastik Mathematische Grundlagen und didaktische Konzepte Bearbeitet von Herbert Kütting, Martin J. Sauer, Friedhelm Padberg 3. Aufl. 2011.
2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
Codierung. Codierung. EAN Europäische Artikelnummer Ziffern 1 und 2 codieren das Hersteller-Land. Ziffer 2 bis 12 codieren Händler und Ware
Codierung Codierung Haydn: Streichquartett op 54.3 aus Largo, Violine I 1 2 Ziffern 1 und 2 codieren das Hersteller-Land Ziffer 2 bis 12 codieren Händler und Ware Die letzte Ziffer ist eine Prüfziffer
Algebraische Grundlagen der Informatik
Kurt-Ulrich Witt Algebraische Grundlagen der Informatik Zahlen - Strukturen - Codierung - Verschlüsselung vieweg Vorwort Abbildungssverzeichnis V VII XIII I Grundlagen 1 1 Mengen und Einführung in die
Labor für Kommunikationssysteme
Labor für Kommunikationssysteme Leitung: Prof. Dr.-Ing. Diederich Wermser Versuch: Kanalcodierung Sommersemester 2017 Gruppe: Datum: Teilnehmer: Name: Matr.-Nr.: Name: Matr.-Nr.: Name: Matr.-Nr.: Laborumdruck
Optimalcodierung. Thema: Optimalcodierung. Ziele
Optimalcodierung Ziele Diese rechnerischen und experimentellen Übungen dienen der Vertiefung der Kenntnisse im Bereich der Optimalcodierung, mit der die Zeichen diskreter Quellen codiert werden können.
Gegeben ist ein systematischer (7,3)-Cod. Die drei seiner Codewörter lauten:
Prof. Dr.-Ing. H.G. Musmann INSTITUT FÜR THEORETISCHE NACHRICHTENTECHNIK UND INFORMATIONSVERARBEITUNG UNIVERSITÄT HANNOVER Appelstraße 9A 67 Hannover Gegeben ist ein systematischer (7,)-Cod. Die drei seiner
Untersuchungen an Cyclic Redundancy Checks (CRC)
Untersuchungen an Cyclic Redundancy Checks (CRC) Autor: Luca Costa, HTW Chur, [email protected] Dozent: Bruno Wenk, HTW Chur, [email protected] Inhaltsverzeichnis 1 Cyclic Redundancy Checks
Algebra für Informatiker
Rolf Socher Algebra für Informatiker Mit Anwendungen in der Kryptografie und Codierungstheorie Rolf Socher Algebra für Informatiker Rolf Socher Algebra für Informatiker Mit Anwendungen in der Kryptografie
5. Woche Perfekte und Optimale Codes, Schranken. 5. Woche: Perfekte und Optimale Codes, Schranken 88/ 142
5 Woche Perfekte und Optimale Codes, Schranken 5 Woche: Perfekte und Optimale Codes, Schranken 88/ 142 Packradius eines Codes (Wiederholung) Definition Packradius eines Codes Sei C ein (n, M, d)-code Der
Basiswissen der Elektro-, Digital- und Informationstechnik
Herbert Schneider-Obermann Basiswissen der Elektro-, Digital- und Informationstechnik Für Informatiker, Elektrotechniker und Maschinenbauer herausgegeben von Otto Mildenberger Mit 104 Abbildungen und 16
Theoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Informationstheorie Vorlesungen vom 30. Januar und 1. Februar 2018 INSTITUT FÜR THEORETISCHE 0 30.01.2018 Dorothea Wagner - Theoretische Grundlagen der Informatik
Digitale Signalverarbeitung
Daniel Ch. von Grünigen Digitale Signalverarbeitung mit einer Einführung in die kontinuierlichen Signale und Systeme 4. Auflage Mit 222 Bildern, 91 Beispielen, 80 Aufgaben sowie einer CD-ROM mit Lösungen
, 2016W Übungstermin: Fr.,
VU Technische Grundlagen der Informatik Übung 2: Numerik, Codierungstheorie 183.579, 2016W Übungstermin: Fr., 28.10.2016 Allgemeine Hinweise: Versuchen Sie beim Lösen der Beispiele keine elektronischen
Einführung in die Kodierungstheorie
Anton Malevich Einführung in die Kodierungstheorie Skript zu einer im Februar 2013 gehaltenen Kurzvorlesung Fakultät für Mechanik und Mathematik Belorussische Staatliche Universität Institut für Algebra
