Binär-Codes. Informationen zu Grundlagen digitaler Systeme (GDS) 1 Codes. 2 Binärcodes Bit-Codes Bit-Codes (Tetradencodes)

Größe: px
Ab Seite anzeigen:

Download "Binär-Codes. Informationen zu Grundlagen digitaler Systeme (GDS) 1 Codes. 2 Binärcodes 2.1 1-Bit-Codes. 2.2 4-Bit-Codes (Tetradencodes)"

Transkript

1 (GDS) Lothar Müller Beuth Hochschule Berlin Codes Als Code bezeichnet man allgemein die Zuordnung der Zeichen eines Zeichenvorrats zu Werten eines Wertebereichs oder -vorrats. Beispiele für Codes sind die Ziffern, die wir den Zahlen in einem gegebenen Zahlensystem zuordnen oder die Buchstaben des Alphabets, die bestimmten Lauten zugeordnet sind. Dabei ist die Auswahl der verwendeten Codes grundsätzlich frei wählbar; sie muss nur eindeutig festgelegt sein, um eine fehlerfreie Interpretierung zu gewährleisten (s. Kasten). In digitalen Systemen bzw. Rechenanlagen verwenden wir das Binärsystem. Deshalb benötigen wir Codes, um die Daten, mit denen wir arbeiten wollen, als binäre Zahlenwerte darzustellen. Denn nur diese kann ein binär arbeitender Digitalrechner verarbeiten. Da eine einzelne Binärziffer nur 2 Werte annehmen kann, werden in der Regel mehrere Binärziffern zusammengefasst, um den Wertevorrat zu vergrößern. Eine solche Kombination mehrerer Ziffern heißt allgemein Codewort; bei Binärziffern sprechen wir auch vom Binärwort. Die Regel, nach der die Binärworte gebildet werden, heißt Binärcode; allerdings verwendet man in der Praxis den Begriff (Binär-)Code oft auch für das einzelne (Binär-)Codewort. Im folgenden werden gebräuchliche Binärcodes vorgestellt. 2 Binärcodes 2. -Bit-Codes Mit einer Binärziffer ( Bit) können nur zwei Zustände dargestellt werden. Damit eignet sich ein -Bit- Code nur für die Darstellung einer logischen ( booleschen ) Variablen, also die Aussage wahr/falsch oder ja/nein Bit-Codes (Tetradencodes) Die Zuordnung Zeichen Wert (die Kodierung) ist grundsätzlich frei wählbar, solange alle Beteiligten über die Kodierregeln informiert sind. So verwenden wir für den dezimalen Wert fünf das Zeichen (die Ziffer) 5, während die antiken Römer denselben Wert mit V kennzeichneten. Man hätte dafür aber auch jedes beliebige andere Zeichen auswählen können. Da die Werte nur erkannt (interpretiert) werden können, wenn der Code bekannt ist, werden schon seit dem Altertum Methoden der Kodierung verwendet, um den Inhalt einer Nachricht zu verschleiern. Schon die simple Regel, jedes normale Zeichen um zu erhöhen, führt zu einem für nicht Informierte unleserlichen Text: GDS ist super HET jtu tvqfs Mit einem Umfang von 4 Binärziffern können 2 4 = 6 verschiedene Werte kodiert werden. Da eine Einheit von 4 Ziffern auch als Tetrade (gr. tetra: vier) bezeichnet wird, nennt man 4-Bit-Codes auch Tetradencodes. Es ist eine Vielzahl von Tetradencodes definiert, von denen aber nur wenige wirklich bedeutend sind BCD-Codes Tetradendarstellung Stellenwert dez. Ziffer BCD-Codes (engl. BCD: binary coded decimal) kodieren die dezimalen Ziffern {...9} binär, wozu 4 Bit benötigt werden. Es gibt verschiedene BCD-Codes; der meist verwendete setzt die dezimalen Ziffern...9 in ihre binäre Darstellung um und ist nebenstehend abgebildet. Die binären Codeworte... werden nicht verwendet; sie werden als Pseudotetraden bezeichnet. Der angegebene BCD-Code ist ein bewertbarer (oder auch wägbarer) Code, weil jeder Stelle ein bestimmter Wert zugeordnet ist: die rechte Binärziffer hat die Wertigkeit 2, die links folgenden sind mit 2, 2 2 und 2 3 bewertet. Deshalb heißt dieser Code exakt (Pseudotetraden) File: Binaercodes.Doc Seite von 2 Date:.4.29 Lothar Müller

2 BCD-Code, auch wenn wir ihn im technischen Sprachgebrauch allgemein nur als BCD-Code bezeichnen. Neben dem BCD-Code sind weitere BCD-Codes in Gebrauch, von denen die folgende Tabelle einige zeigt: Der Aiken-Code (auch: Tetradendarstellung -BCD-Code) ist ein symmetrischer Bezeichnung Aiken-Code Exzess-3-Code dezimaler Gray-Code und bewertbarer Stellenwert dez. Ziffer Code; er verwendet jeweils die 5 ersten und 5 letzten der insgesamt 2 6 möglichen Binär- 3 codeworte Der Exzess-3-Code ist ebenfalls 7 symmetrisch, aber nicht bewertbar. Er entsteht aus 8 9 dem BCD-Code durch Verschieben um 3; er nutzt die mittleren der 6 möglichen Binärcodeworte. Dies bedingt, dass die Worte und nicht verwendet werden, was bei der seriellen Übertragung von Daten vorteilhaft sein kann. Der dezimale Gray-Code zeichnet sich dadurch aus, dass sich bei jeder Änderung der Ziffer um ± nur ein Bit ändert (das gilt auch für den Übergang zwischen 9 und ). Er verwendet eine Teilmenge des unten beschriebenen binären Gray-Codes Bit-Dual-Code Der 4-Bit-Dual-Code enthält im Gegensatz zu den oben beschriebenen BCD-Codes keine Pseudotetraden, sondern nutzt alle verfügbaren Möglichkeiten der Kodierung. Er setzt die Dezimalzahlen...5 in die entsprechenden Dualzahlen um. Die nebenstehende Tabelle zeigt dies im Detail. Allgemein ist der Dual-Code nicht auf 4 Bit beschränkt. Er kann durch Einführung weiterer Spalten mit jeweils verdoppelten Stellenwerten und Erweiterung der Tabelle am unteren Rand durch Hochzählen auf beliebige Codewortlängen erweitert werden Binärer Gray-Code Der binäre Gray-Code enthält ebenfalls keine Pseudotetraden, sondern nutzt alle verfügbaren Möglichkeiten der Kodierung. Der 4- Bit-Gray-Code ist nebenstehend abgebildet. Man kann erkennen, dass sich bei allen Änderungen der Ziffern um ± nur ein Bit ändert, und dass das auch für den Übergang zwischen und 5 gilt. Ein solcher Code heißt einschrittig. Der Gray-Code ist nicht bewertbar. Anwendung findet der Gray-Code insbesondere bei inkrementalen Messsystemen, die z.b. über eine fotoelektrische Abtastung verfügen. Wegen der Einschrittigkeit kann es beim Übergang von einer Position zur nächsten keine zwischenzeitlichen Fehlcodes geben, da sich im kritischen Bereich des Übergangs nur ein Bit ändert. Dagegen gäbe es beim Einsatz des Dual-Codes eine Vielzahl von Übergängen, an denen sich mehrere Bits gleichzeitig ändern (z.b. Tetradendarstellung Stellenwert dez. Ziffer Tetradendarstellung dez. Ziffer ändern sich beim Übergang von Position 7 ( 2 ) auf Position 8 ( 2 ) alle vier Bits). Da in realen Systemen keine vollständige Präzision herstellbar ist, würden bei einem solchen Übergang kurzzeitig File: Binaercodes.Doc Seite 2 von 2 Date:.4.29 Lothar Müller

3 Zwischencodes auftreten, deren Auswertung zwangsläufig zu Fehlern führen müsste, deren Korrektur einen erheblichen Aufwand erfordern würde. Der binäre Gray-Code ist nicht auf 4 Bit beschränkt. Er kann durch Einführung einer weiteren Spalte und Spiegeln der Tabelle um deren unteren Rand um Bit erweitert werden. Durch fortwährende Wiederholung dieses Vorgangs können beliebige Codelängen erreicht werden. In der Praxis verwenden Messsysteme mit Gray-Code Codewortlängen von 8...2, in Einzelfällen auch mehr als 2 Bit (7-)Bit-Codes Um mehr als 6 verschiedene Informationswerte kodieren zu können, werden mehr als 4 Bit benötigt. Solche Codes mit größeren Codewortlängen werden insbesondere bei Textanwendungen verwendet, wo Buchstaben, Zahlen und Sonderzeichen kodiert werden müssen. Dazu wurden verschiedene Codes entwickelt, deren wichtigste im Folgenden vorgestellt werden: Bit-ASCII-Code Der ASCII-Code (American Standard Code for Information Interchange) verwendet 7 Bit, um insgesamt 2 7 = 28 verschiedene Zeichen zu kodieren. * A B C D E F Er wurde Ende der NUL SOH STX ETX EOT ENQ ACK BEL BS TAB LF VT FF CR SO SI 95er Jahre entwickelt, DLE DC DC2 DC3 DC4 NAK SYN ETB CAN EM SUB ESC FS GS RS US 968 genormt 2! " # $ % & ' ( ) * +, -. / und ist bis heute : ; < = >? Grundlage der meisten Textkodierungen. A B C D E F G H I J K L M N O Die nebenstehende 5 P Q R S T U V W X Y Z [ \ ] ^ _ Tabelle zeigt den 6 ` a b c d e f g h i j k l m n o ASCII-Code im Überblick: 7 p q r s t u v w x y z { } ~ - jede Zeile hat 6 (=2 4 ) Einträge; die Position eines Eintrags ist innerhalb der Zeile durch den in der Kopfzeile angegebenen hexadezimalen Code (...F) charakterisiert. - jede Spalte hat 8 (=2 3 ) Einträge; die Position eines Eintrags ist innerhalb der Spalte durch den in der linken Randspalte angegebenen hexadezimalen Code (...7) charakterisiert. - damit kann die Position jedes Feldes in hexadezimaler Notation direkt aus der Kombination Zeile/Spalte angegeben werden. z.b. ist die Position des Feldes mit dem großen A durch die HEX- Zahl 4 (Zeile 4, Spalte ) spezifiziert: Die ASCII-Kodierung für A ist also $4. Beim Blick auf die Code-Tabelle erschließt sich die Systematik des ASCII-Codes: - die ersten beiden Zeilen (Codes $ bis $F) enthalten Steuercodes. Diese repräsentieren keine darstellbaren Zeichen, sondern sind für die Steuerung von Aktionen reserviert. - die dritte Zeile (Codes $2 bis $2F) enthält diverse Sonderzeichen. - die vierte Zeile (Codes $3 bis $3F) enthält die Dezimalziffern; die verbleibenden 6 Codes werden für weitere Sonderzeichen genutzt. - die fünfte und sechste Zeile (Codes $4 bis $5F) enthalten die 26 großen Buchstaben des lateinischen Alphabets; die verbleibenden 6 Codes werden für weitere Sonderzeichen genutzt. - die letzten beiden Zeilen (Codes $6 bis $7F) enthalten die 26 kleinen Buchstaben des lateinischen Alphabets; die verbleibenden 6 Codes werden wieder für Sonderzeichen genutzt. Zum Zeitpunkt der Entwicklung des 7-Bit-ASCII-Codes waren Ressourcen wie Speicherplatz oder Übertragungskapazitäten knapp und teuer. Man entschied sich deshalb dafür, nur 7 Bit zu verwenden, um das achte Bit für die Fehlerkontrolle (Parity-Bit) verwenden zu können. Beim Gebrauch des ASCII-Codes in den europäischen Ländern tauchte schnell das Problem auf, dass bestimmte nationale Zeichen im ASCII-Code nicht definiert waren. Im deutschsprachigen Raum betrifft File: Binaercodes.Doc Seite 3 von 2 Date:.4.29 Lothar Müller

4 dies die Zeichen Ä, Ö, Ü, ä, ö, ü und ß; in anderen Ländern fehlen Zeichen wie z.b. ç, ñ, å und viele andere. Zur Lösung dieses Problems aus deutscher Sicht wurden bei der Übernahme des ASCII-Codes in die deutsche Norm DIN 663 die Sonderzeichen [, \, ], {,, } und ~ gestrichen und durch die oben genannten deutschen Buchstaben ersetzt. Andere europäische Länder gingen mit ihren Zeichen ähnlich vor. Damit waren solche Dateien jedoch nicht mehr international austauschbar. Ein anderer Ansatz der Problemlösung war, den Zeichenvorrat durch Verwendung des achten Bits zu erweitern und auf einen Parity-Check entweder zu verzichten oder dafür ein neuntes Bit anzuhängen. Da aber keine einheitliche Definition des erweiterten ASCII-Codes existierte (denn diverse Firmen bzw. Institutionen in verschiedenen Ländern erarbeiteten und benutzten eine Vielzahl von unterschiedlichen 8- Bit-ASCII-Codes), waren auch diese Dateien international nicht austauschbar Bit-ASCII-Codes Weitgehende Abhilfe schaffte hier die internationale Festlegung bzw. Normung von auf ASCII basierenden Codes mit 8 statt 7 Bit. Bedeutend sind insbesondere die beiden nachfolgend abgebildeten Erweiterungen: Der OEM Extended ASCII-Code wurde von der Firma IBM entwickelt und wird bis heute u.a. in den IBMbzw. -kompatiblen PCs verwendet, solange kein Betriebssystem gestartet wird, das einen anderen Code lädt. Der ANSI Extended ASCII-Code (American National Standards Institute) wird von Windows und vielen anderen Betriebssystemen verwendet. Er gilt damit in üblichen IBM-kompatiblen PCs, sobald das Betriebssystem Windows gestartet wurde /32-Bit-Codes Bit-Unicode Mit der Erweiterung auf 8 Bit und damit 256 Zeichen können die Varianten des lateinischen Alphabets abgedeckt werden; es bleibt jedoch kein Platz für kyrillische, griechische, hebräische, arabische sowie z.b. mathematische Zeichen. Dazu wurde zunächst der 6 Bit breite Unicode eingeführt, mit dem 2 6 = Zeichen kodiert werden können. Er umfasst im unteren Bereich als Teilmenge den ASCII-Code, daran anschließend werden die Zeichen der verschiedenen Alphabete sowie Sonderzeichen kodiert. Den überwiegenden Teil nehmen ostasiatische Schriftzeichen ein, die jedoch wegen ihrer Vielfalt nicht vollständig kodiert werden können (2-)Bit-Unicode Um wirklich alle weltweit vorkommenden Schriftzeichen unverwechselbar kodieren zu können, wurde der 6-Bit-Unicode auf 32 Bit erweitert, von denen gegenwärtig jedoch nur 2 Bit verwendet werden. Damit können 2 2 = Zeichen kodiert werden. Inzwischen ist diese Kodierung von den zu diesem Zweck gegründeten Gremien zu großen Teilen durchgeführt worden, und es steht damit erstmalig ein File: Binaercodes.Doc Seite 4 von 2 Date:.4.29 Lothar Müller

5 weltweit gültiger Code zur Verfügung, in dem (fast) alle verwendeten Schriftzeichen (fast) aller Sprachen der Welt eindeutig und unverwechselbar kodiert sind. Weitere Informationen zum Unicode unter und 3 Fehler erkennende und korrigierende Codes Bei der Speicherung und insbesondere der Übertragung von Daten kann es durch eine Vielzahl von Einflüssen zu Fehlern kommen, die sich in der willkürlichen Veränderung von einzelnen oder mehreren Datenbits äußern. Bei den bisher kennen gelernten Codes führt dies zwangsläufig zu einer Fehlinterpretation, die nicht unmittelbar erkannt werden kann. Nur bei Tetradencodes, die über Pseudotetraden verfügen, können manche (nicht alle!) Fehler erkannt werden, nämlich genau dann, wenn durch einen auftretenden Fehler ein ungültiger Code entsteht. Es wurden verschiedene Verfahren entwickelt, um auftretende Fehler in Codes erkennen und/oder korrigieren zu können. Wir unterscheiden dabei EDC Error Detecting Code (Fehler erkennenden Code) und ECC Error Correcting Code (Fehler korrigierenden Code). Grundsätzlich beruhen alle Verfahren darauf, den Code um zusätzliche Bits zu ergänzen, mit deren Hilfe eine Überprüfung des Codes auf Fehlerfreiheit erfolgen kann. Unterschiede bestehen jedoch in der Prüfmethode, der Effizienz des Verfahrens und dem erforderlichen Logik- bzw. Rechenaufwand. 3. Prüfverfahren 3.. Einführung von Pseudocodes Durch Einführung von zusätzlichen Bits und eine geschickte Codierung können Codes so gestaltet werden, dass eine Fehlererkennung und/oder -korrektur möglich wird. C B A Farbe P=Pseudocode N=Nutzcode P blau N gelb N P rot N P P grün N Im folgenden Beispiel sollen die vier Farben blau, gelb, rot und grün kodiert werden. Dazu genügen eigentlich 2 Bit, weil damit 4 verschiedene Daten (=Farben) dargestellt werden können (2 2 =4). Wir wollen jedoch 3 Bit (A, B, C) verwenden und den Code wie nebenstehend gezeigt definieren. Wie man sieht, entstehen insgesamt 8 Möglichkeiten der Kodierung, 4 Nutz- und 4 Pseudocodes. Wenn wir den (Nutz)code einer beliebigen Farbe in einem einzigen Bit verändern, entsteht in jedem Fall ein Pseudocode. Erst bei gleichzeitiger Änderung von 2 Bits kann aus einem Nutzcode ein anderer Nutzcode entstehen. Wir haben also ein Verfahren gefunden, das es uns erlaubt, auftretende -Bit- Fehler zu erkennen, denn ein solcher Fehler führt immer zu einem Pseudocode, den wir als fehlerhaft interpretieren müssen, weil ihm keine Farbe zugeordnet ist. Die Anzahl der Bits, um die sich zwei Nutzcodes voneinander unterscheiden, wird als ihre Hamming- Distanz D bezeichnet. Entsprechend wird die Anzahl der Bits, um die sich in einem Code (also in der Gesamtheit der Einzelcodes) alle Nutzcodes mindestens voneinander unterscheiden, als Mindest- Hamming-Distanz D min bezeichnet. Allgemein gilt für die Erkennbarkeit von auftretenden Bitfehlern: F = D min - mit F = Anzahl der Bitfehler D min = Mindest-Hamming-Distanz. In unserem Beispiel ist die Mindest-Hamming-Distanz = 2, d.h. alle -Bit-Fehler können erkannt werden. Für die Ermittlung der Mindest-Hamming-Distanz gibt es keine allgemein gültige Formel; vielmehr muss jeder Nutzcode mit jedem anderen Nutzcode verglichen werden. Bei größeren Codes bieten sich hierfür rechnergestützte Verfahren an; bei kleinen Codes können grafische Methoden hilfreich sein. File: Binaercodes.Doc Seite 5 von 2 Date:.4.29 Lothar Müller

6 Nebenstehendes Venn-Diagramm stellt die o.a. Farbcodierung dar: Jeder Kreis entspricht einer Eingangsvariablen, also einem unserer drei Bits A, B A und C. Innerhalb des Kreises ist das Bit, außerhalb des Kreises. Insgesamt entstehen 8 Teilflächen, von denen jede eine Zeile der Wahrheitsta- blau belle repräsentiert. Codes, die sich nur um Bit unterscheiden, erscheinen im Venn-Diagramm als nebeneinander liegende Flächen. In unserem Fall zeigt das Diagramm, dass keiner der 4 Nutzcodes unmittelbar an einen anderen grenzt, d.h. für alle 4 Nutzcodes gilt D min >. B Eine andere wichtige Eigenschaft von Fehler erkennenden bzw. korrigierenden Codes ist ihre Redundanz. Sie gibt das Verhältnis von Gesamtbits zu Nutzbits an: R = (n + p) / n mit R = Redundanz n = Anzahl der Nutzbits p = Anzahl der Prüfbits. Je größer die Redundanz, desto uneffizienter der Code. Im oben angeführten Beispielcode für die Kodierung von 4 Farben beträgt die Redundanz R = (2+)/2 =.5, d.h. der zu übertragende bzw. zu speichernde Umfang des Codes steigt gegenüber dem reinen Nutzcode um 5% an Einführung von Prüfbits (Parity) Überblick Die Parität (Parity) ist ein sehr häufig benutztes Verfahren zur Fehlererkennung, weil es einfach zu realisieren ist und dabei eine relativ große Sicherheit bietet. Grundlage dieser Methode ist es, über definierte Teile des Codes (meist pro Codewort) ein Parity-Bit zu ermitteln, das eine Information über die Anzahl der darin enthaltenen Einsen enthält. Der Erzeuger bzw. Sender eines Codes generiert das Parity-Bit entsprechend einem zuvor vereinbarten Verfahren, der Benutzer bzw. Empfänger des Codes kontrolliert das Parity-Bit auf seinen korrekten Wert. Bei allen Parity-Verfahren wird zwischen gerader und ungerader Parität (even bzw. odd parity) unterschieden: Parity gerade (even) ungerade (odd) Anzahl der Einsen gerade ungerade Die gerade Parität wird ermittelt, indem die Anzahl der Einsen auf einen insgesamt (also inklusive Parity- Bit) geraden Wert ergänzt wird: Enthält der Code bereits eine geradzahlige Anzahl von Einsen, wird als Parity-Bit eine Null ergänzt; enthält er eine ungeradzahlige Anzahl von Einsen, wird als Parity-Bit eine Eins ergänzt. Die Bildung der ungeraden Parität erfolgt entsprechend mit dem Unterschied, dass die Gesamtzahl der Einsen stets auf einen ungeradzahligen Wert gebracht wird. Es werden verschiedene Bildungsverfahren unterschieden, die im Folgenden vorgestellt werden. Für die meisten Verfahren sind mehrere Begriffe definiert, wobei die Namensgebung mitunter etwas verwirrend erscheint Einfache Parität (Querpatität) Die einfache oder Querparität ist die verbreitetste Form der Parität. Sie wird bevorzugt dort angewendet, wo der vorhandene Code aus einzelnen Codewörtern einheitlicher Länge (meist 8 Bit) besteht. Für jedes dieser Codewörter wird ein Parity-Bit gebildet (je nach Vereinbarung even oder odd) und dem jeweiligen Codewort beigefügt. Der Benutzer oder Empfänger kann dann für jedes Codewort diese Parity-Bildung nachvollziehen und das mitgelieferte Parity-Bit auf Korrektheit überprüfen. Wenn sich eines der Datenbits gn gelb rot C File: Binaercodes.Doc Seite 6 von 2 Date:.4.29 Lothar Müller

7 oder das Parity-Bit selbst durch einen Datenfehler verändert hat, stimmt das überprüfte Parity-Bit nicht mehr mit seinem Sollzustand überein. Dies bedeutet, dass ein Fehler vorliegt. Soll beispielsweise eine Textdatei im (8-Bit-)ASCII-Format übertragen werden, wird für jedes Codewort (also für jedes Zeichen) das zugehörige Parity-Bit ermittelt und dem jeweiligen Codewort hinzugefügt. Der Datenempfänger überprüft die Parity-Bits und kann (mit einer gewissen Sicherheit) davon ausgehen, eventuell auftretende Datenfehler zu erkennen. Die Querparität erlaubt keine Aussage darüber, welches Bit falsch ist; vielmehr ist lediglich die qualitative Aussage möglich, dass irgendein Bit falsch sein muss. Damit kann ein solcher Fehler nur erkannt, nicht aber selbsttätig korrigiert werden. Die Querparität gehört also zur Gruppe der Error Detecting Codes (EDC). Gravierender Nachteil der Querparität ist, dass sie 2-Bit-Fehler nicht erkennen kann, da sich zwei falsche Bits in ihrer Wirkung auf das Parity-Bit gegenseitig aufheben. Allgemein kann die Querparität nur ungeradzahlige Bitfehler (also, 3, 5... falsche Bits) erkennen; geradzahlige Fehler bleiben ihr verborgen. In einem mit einfacher Parität versehenen Code unterscheiden sich alle gültigen Codewörter an mindestens zwei Positionen. Ihre Mindest-Hamming-Distanz ist also D min = 2 woraus folgt, dass alle -Bit-Fehler erkannt, jedoch keine Fehler korrigiert werden können. Die Redundanz der Querparität hängt von der Länge der Codewörter ab. Bei einer Wortlänge von 8 Bit beträgt die Redundanz R = (8+)/8 =.25 Der Umfang des Code nimmt also um 2.5% zu. Bei einer Wortlänge von 6 Bit verringert sich die Redundanz entsprechend auf R = (6+)/6 =.625, d.h. der Code-Umfang steigt nur um 6.25% an. Allerdings ist die Wahrscheinlichkeit eines (nicht erkennbaren) 2-Bit-Fehlers bei doppelter Wortlänge größer. Die Querparität wird auch als vertikale Parität oder VRC (vertical redundancy check) bezeichnet; eine unglückliche Wortwahl, denn wir ordnen die Codeworte, über die wir die Quer(!)parität bilden, gewöhnlich horizontal an! Längsparität (Blockparität) Beispiel einer mittels Querparität (even) gesicherten Textdatei (8-Bit-ASCII): Text: Pause! Datei: (Z = Zeichen, hex = Hexadezimal-Code, D n = Datenbits, P = Parity-Bit) Z hex D 7 D 6 D 5 D 4 D 3 D 2 D D P P 5 a 6 u 75 s 73 e 65! 2 Die Redundanz beträgt R = (8+)/8 =.25 Der Code-Umfang steigt um 2.5%! Eine andere Form der Paritätsbildung ist die stellenrichtige Betrachtung mehrerer Codewörter; sie heißt Längs- oder Blockparität. Dazu wird die Parität nicht über die einzelnen Codewörter gebildet, sondern über die gleichnamigen Bits aller Codewörter eines Blocks; die Codewörter müssen dazu eine einheitliche Länge haben. Der Vorteil dieses Verfahrens liegt darin, dass die Redundanz in weiten Grenzen gewählt werden kann, weil es den Benutzern des Verfahrens überlassen bleibt, wie viele Codewörter sie zu jeweils einem Block zusammenfassen. Bei einer Wortbreite von 8 Bit kann die Redundanz im Vergleich zur Verwendung der Querparität wahlweise verkleinert (mit Blocklänge > 8) oder vergrößert (mit Blocklänge < 8) werden. Nebenstehend ist der Beispieltext Pause! mit Längsparität dar- Beispiel einer mittels Längsparität (even) gesicherten Textdatei (8-Bit-ASCII): Text: Pause! Datei: (Z = Zeichen, hex = Hexadezimal-Code, D n = Datenbits, P = Parity-Bit) Z hex D 7 D 6 D 5 D 4 D 3 D 2 D D P 5 a 6 u 75 s 73 e 65! 2 P Die Redundanz beträgt R = (6+)/6 =.67 Der Code-Umfang steigt um 6.7%! File: Binaercodes.Doc Seite 7 von 2 Date:.4.29 Lothar Müller

8 gestellt. Da der Text 6 Codewörter umfasst, über deren gleichnamige Bits jeweils die Parität gebildet wird, beträgt die Redundanz R = (6+)/6 =.67 Der Umfang des Code nimmt also um 6.7% zu. Die Redundanz ist damit größer als im zuvor dargestellten Beispiel mit Querparität. Allerdings ist die Wahrscheinlichkeit eines (nicht erkennbaren) 2-Bit-Fehlers geringer, weil über weniger Bits geprüft wird. Die Längs- oder Blockparität wird auch als longitudinale Parität oder LRC (longitudinal redundancy check) bezeichnet Blockprüfung (Kreuzsicherung) Die Blockprüfung oder Kreuzsicherung ist die Kombination von Quer- und Längsparität. Im nebenstehend wiedergegebenen Beispiel sind rechts die Parity-Bits der Quer- und unten die Parity-Bits der Längsparität angeordnet. Auch über die beiden aus den Parity-Bits gebildeten Paritätswörter wird jeweils die Parität gebildet; dieses Parity-Bit steht ganz unten rechts. Wie leicht nachvollzogen werden kann, wirkt sich die Änderung eines beliebigen Datenbits immer auf 2 Parity-Bits aus, nämlich je ein Quer- und ein Längsparitäts-Bit. Daraus folgt, dass über die Blockprüfung -Bit-Fehler nicht nur erkannt, sondern auch korrigiert werden können, denn das gesuchte falsche Datenbit liegt genau im Schnittpunkt von Zeile und Spalte mit den falschen Parity-Bits; es liegt als ein ECC vor. Auch ein falsches Parity-Bit kann eindeutig lokalisiert werden, weil es als ein falsches Bit erscheint, bei einem Datenbit-Fehler aber immer zwei falsche Parity-Bits auftreten müssen. Offensichtlich ist bei der Blockprüfung die Mindest-Hamming-Distanz D min = 3, d.h. alle denkbaren gültigen Nutzcodes unterscheiden sich mindestens in 3 Bits voneinander. Damit können -Bit- Fehler korrigiert werden (s. nächster Abschnitt) Hamming-Code Um Fehler von mehr als Bit erkennen oder -Bit-Fehler korrigieren zu können, muss D min > 2 sein. Dies lässt sich durch die Einführung weiterer Prüfbits erreichen. Die für die Anzahl der sicher erkennbaren Bitfehler geltende Formel wurde oben angegeben. Für die Korrigierbarkeit von auftretenden Bitfehlern gilt: F = (D min - ) / 2 mit F = Anzahl der Bitfehler D min = Mindest-Hamming-Distanz. Um -Bit-Fehler korrigieren zu können, muss D min also 3 sein. Dies bedeutet gleichzeitig, dass dann 2- Bit-Fehler erkannt (aber nicht korrigiert) werden können. Das folgende Beispiel zeigt ein 4-Bit-Datum mit den Datenbits d 3, d 2, d und d. Diese werden ergänzt durch 3 Prüf- oder Parity-Bits p 2, p und p. Die A C d 3 d 2 d d p 2 - x x x p x x - x p x x x - Prüfbits werden gebildet durch Addition der ihnen zugeordneten Datenbits unter Vernachlässigung auftretender Überträge (dies entspricht der Bildung der even parity). Das Schema links zeigt die Zuordnung Datenbits zu Prüfbits; rechts ist derselbe Sachverhalt als Venn-Diagramm wiedergegeben. Beispiel einer mittels Blockprüfung (even) gesicherten Textdatei (8-Bit-ASCII): Text: Pause! Datei: (Z = Zeichen, hex = Hexadezimal-Code, D n = Datenbits, P = Parity-Bit) Z hex D 7 D 6 D 5 D 4 D 3 D 2 D D P P 5 a 6 u 75 s 73 e 65! 2 P Die Redundanz beträgt R = (48+5)/48 =.325 Der Code-Umfang steigt um 3.25%! p d 3 B d d 2 p d p 2 File: Binaercodes.Doc Seite 8 von 2 Date:.4.29 Lothar Müller

9 Wenn die vier Datenbits d 3.. z.b. sind, können diese Werte an Stelle von d 3.. in die Tabelle oder in das Venn-Diagramm eingetragen werden. Anschließend werden die zugehörigen Prüfbits ermittelt und ebenfalls eingetragen. Das daraus resultierende Venn-Diagramm ist links abgebildet: Die Datenbits sind A C in schwarz eingetragen, die Prüfbits in blau. Jedes Prüfbit wird aus den Datenbits, die im selben Kreis liegen, nach folgender Regel gebildet (gerade Parität, even parity): - Prüfbit ist, wenn die Anzahl der Datenbits = gerade ist. - Prüfbit ist, wenn die Anzahl der Datenbits = ungerade ist Wenn jetzt ein beliebiges (Daten- oder Prüf-)Bit verändert wird, führt das zu einer Unstimmigkeit. Wird beispielsweise durch einen Übertragungsfehler d 3 von auf geändert, stimmen die beiden Prüfbits p und p nicht mehr mit B ihren Sollwerten überein. Die einzige Möglichkeit, Übereinstimmung herzustellen, ist die Änderung von d 3 von auf. Dies ist jedoch gleichbedeutend mit der Korrektur des Fehlers! Man kann durch Vergleich aller möglichen Codes miteinander zeigen, dass bei dem vorgestellten Beispiel die Mindest-Hamming-Distanz D min = 3 ist. Damit können bei diesem Code alle -Bit-Fehler korrigiert oder alle 2-Bit-Fehler erkannt werden. Allerdings geht diese vorteilhafte Eigenschaft zu Lasten der Redundanz. In unserem ersten Beispielcode (die 4 Farben) betrug die Redundanz R = (2+)/2 =.5; Im zweiten Beispiel beträgt die Redundanz R = (4+3)/4 =.75, d.h. der Codeumfang steigt durch Einführung der Prüfbits sogar um 75% (wobei allerdings die Fehlererkennung verbessert oder die Möglichkeit einer Fehlerkorrektur erlangt wird). Die Redundanz verbessert sich jedoch in der Regel bei größeren Codelängen. Das folgende Beispiel zeigt einen Hamming-Code für 6 Nutzbits, der mit 5 zusätzlichen Prüfbits auskommt. Die Redundanz beträgt damit nur noch R = (6+5)/6 =.325, d.h. der Codeumfang steigt gegenüber dem reinen Nutzcode um ca. 3% an p p d p 2 d d 2 d 3 p 3 d 4 d 5 d 6 d 7 d 8 d 9 d p 4 d d 2 d 3 d 4 d 5 p x p x p 2 x p 3 x p 4 x Beispiel : Datum ok Parity ok? Beispiel 2: Datum nicht ok Parity ok? f f f f x = Parity-Bit + = geht in die Berechnung des Parity-Bits ein = geht in die Berechnung des Parity-Bits nicht ein Die einzelnen Bits sind mit bis 2 durchnummeriert. An allen Stellen, an denen diese Nummer eine Potenz zu 2 ist, steht ein Prüfbit p n ; alle anderen Positionen werden von Nutzbits d n eingenommen. Bei insgesamt 2 Stellen ergeben sich damit 5 Prüfbits, die an den Positionen, 2, 4, 8 und 6 stehen. File: Binaercodes.Doc Seite 9 von 2 Date:.4.29 Lothar Müller

10 Die Bildung der Prüfbits erfolgt durch Parity-Bildung über die im Schema jeweils mit einem + gekennzeichneten Bits. Jedes Bit trägt zur Bildung genau derjenigen Prüfbits bei, deren Index in der binären Kodierung seiner Position enthalten ist. Beispielsweise geht das Bit Nr. 9 (d 4 ) in die Bildung der Parity- Bits p und p 3 ein, weil deren Indizes (, 3) in binärer Kodierung die Position 9 beschreiben (9 = 2 ; oder: = 9). Bei einer Datenübertragung wird das 6 Bit breite Nutzwort vom Sender entsprechend dem Schema mit 5 Prüfbits versehen, die an den angegebenen Stellen zwischen den Nutzdaten platziert werden. Das daraus resultierende 2 Bit breite Datenwort wird dann übertragen. Der Empfänger ermittelt aus den in den empfangenen Daten enthaltenen Nutzdaten ebenfalls die Prüfbits (d.h. ihre Sollwerte) und vergleicht sie mit den empfangenen. Falls dabei Abweichungen entdeckt werden, kann aus der Kombination der falschen Prüfbits direkt auf das fehlerhaft übertragene Bit geschlossen werden, indem die Positionen der als falsch erkannten Prüfbits addiert werden. Die Summe ergibt direkt die Position des falschen Datenbits. Dabei spielt es keine Rolle, ob das falsche Bit ein Nutz- oder ein Prüfbit ist. Allerdings gilt dies nur dann, solange wir uns auf -Bit-Fehler beschränken. Sofern wir auch 2-Bit-Fehler zulassen bzw. als möglich annehmen, können wir diese zwar erkennen (wegen D min = 3), müssen jedoch auf eine Fehlerkorrektur generell verzichten, weil die Korrektur eines 2-Bit-Fehlers zu falschen Ergebnissen führen würde. Im unteren Teil des oben wiedergegebenen Schemas sind zwei Beispiele für Datenworte angegeben: Das erste Beispiel zeigt einen fehlerfreien Code. Zur Ermittlung bzw. Überprüfung der Parity-Bits addieren wir für jedes Parity-Bit genau die Datenbits, für die in der entsprechenden Zeile ein + steht. Bei einer geradzahligen Anzahl von Einsen wird das Parity-Bit, bei einer ungeradzahligen Anzahl wird es. Ein für korrekt befundenes Parity-Bit haken wir ab, ein als falsch erkanntes kennzeichnen wir mit einem f. Da die Überprüfung der Parity-Bits keine Abweichungen gegenüber den Sollwerten ergibt, ist der Code korrekt, sofern wir ausschließlich -Bit- oder 2-Bit-Fehler zulassen. Das zweite Beispiel zeigt einen fehlerhaften Code. Hier führt die Überprüfung der Parity-Bits bei den Bits p, p 2 und p 3 zu Fehlern, während bei den Parity-Bits p und p 4 keine Fehler festgestellt werden können. Entsprechend haken wir diese Bits ab und kennzeichnen die als fehlerhaft erkannten mit einem f. Die Summe der Positionsnummern der als falsch erkannten Parity-Bits ergibt direkt die Position des falschen Datenbits, sofern wir ausschließlich -Bit-Fehler zulassen. In unserem Beispiel ist also das Bit (2+4+8) = 4 (d 9 ) falsch. Zur Korrektur muss es durch sein Komplement ersetzt werden, hier also durch eine. Sofern wir auch 2-Bit-Fehler zulassen, können diese nur qualitativ erkannt, jedoch nicht lokalisiert (und damit auch nicht korrigiert) werden Checksumme Ein einfaches und insbesondere bei etwas größeren Datenmengen und geringer Störungswahrscheinlichkeit geeignetes Verfahren zur Fehlererkennung ist die Checksummen-Bildung. Dabei werden alle erfassten Datenwörter laufend addiert, auftretende Überträge werden vernachlässigt. Die nach der letzten Addition entstandene Summe heißt Checksumme und wird zusätzlich gespeichert bzw. übertragen. Der Nutzer oder Empfänger bildet seinerseits die Checksumme und vergleicht sie mit der vorhandenen. Bei Gleichheit gelten die Daten als korrekt. Ungleichheit zeigt einen aufgetretenen Fehler an mit der Konsequenz, dass die gesamte Datenübertragung wiederholt werden muss. Vorteil dieses Verfahrens ist neben seiner einfachen Realisierbarkeit die geringe Redundanz. Beispielsweise können Bit-Worte mit einer einzigen, ebenfalls 8 Bit breiten Checksumme abgesichert werden, was eine Redundanz von R = (256+)/256 =.4 File: Binaercodes.Doc Seite von 2 Date:.4.29 Lothar Müller

Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2

Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2 Codierung und Fehlerkorrektur Kapitel 4.2 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916)

Mehr

Grundlagen der Technischen Informatik. 2. Übung

Grundlagen der Technischen Informatik. 2. Übung Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit Organisatorisches Übungsblätter zuhause vorbereiten! In der Übung an der Tafel vorrechnen! Bei

Mehr

Empfänger. Sender. Fehlererkennung und ggf. Fehlerkorrektur durch redundante Informationen. Längssicherung durch Paritätsbildung (Blockweise)

Empfänger. Sender. Fehlererkennung und ggf. Fehlerkorrektur durch redundante Informationen. Längssicherung durch Paritätsbildung (Blockweise) Datensicherung Bei der digitalen Signalübertragung kann es durch verschiedene Einflüsse, wie induktive und kapazitive Einkopplung oder wechselnde Potentialdifferenzen zwischen Sender und Empfänger zu einer

Mehr

Informatikgrundlagen I Grundlagen der Informatik I

Informatikgrundlagen I Grundlagen der Informatik I Informatikgrundlagen I Grundlagen der Informatik I Dipl.-Inf. Michael Wilhelm Hochschule Harz FB Automatisierung und Informatik mwilhelm@hs-harz.de Raum 2.202 Tel. 03943 / 659 338 Fachbereich Automatisierung

Mehr

DIGITALTECHNIK 04 ZAHLEN CODES

DIGITALTECHNIK 04 ZAHLEN CODES Seite 1 von 22 DIGITALTECHNIK 04 ZAHLEN CODES Inhalt Seite 2 von 22 1 CODIERUNG... 3 1.1 NUMERISCHE CODES... 4 1.2 WORTCODES... 4 1.3 DER DUALCODE... 5 1.4 DER GRAY-CODE... 5 1.5 ZIFFERNCODES (BCD-CODES)...

Mehr

9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1

9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1 9 Codes 9.1 Charakterisierung und Klassifizierung Definition: Das Ergebnis einer eindeutigen Zuordnung zweier Zeichen- bzw. Zahlenmengen wird Code genannt. Die Zuordnung erfolgt über eine arithmetische

Mehr

Grundlagen Digitaler Systeme (GDS)

Grundlagen Digitaler Systeme (GDS) Grundlagen Digitaler Systeme (GDS) Prof. Dr. Sven-Hendrik Voß Sommersemester 2015 Technische Informatik (Bachelor), Semester 1 Termin 10, Donnerstag, 18.06.2015 Seite 2 Binär-Codes Grundlagen digitaler

Mehr

Grundlagen der Informatik 1

Grundlagen der Informatik 1 Grundlagen der Informatik 1 Prof. Dr. J. Schmidt Fakultät für Informatik GDI1 WS 2013/14 Kodierung, Kompression, Verschlüsselung Kodierung Überblick Vorlesung Kapitel 1: Einführung in die Informatik Kapitel

Mehr

Rechnerstrukturen WS 2012/13

Rechnerstrukturen WS 2012/13 Rechnerstrukturen WS 2012/13 Repräsentation von Daten Repräsentation natürlicher Zahlen (Wiederholung) Repräsentation von Texten Repräsentation ganzer Zahlen Repräsentation rationaler Zahlen Repräsentation

Mehr

Formelsammlung. Wahrscheinlichkeit und Information

Formelsammlung. Wahrscheinlichkeit und Information Formelsammlung Wahrscheinlichkeit und Information Ein Ereignis x trete mit der Wahrscheinlichkeit p(x) auf, dann ist das Auftreten dieses Ereignisses verbunden mit der Information I( x): mit log 2 (z)

Mehr

Repräsentation von Daten Binärcodierung von rationalen Zahlen und Zeichen

Repräsentation von Daten Binärcodierung von rationalen Zahlen und Zeichen Kapitel 4: Repräsentation von Daten Binärcodierung von rationalen Zahlen und Zeichen Einführung in die Informatik Wintersemester 2007/08 Prof. Bernhard Jung Übersicht Codierung von rationalen Zahlen Konvertierung

Mehr

Codes (1) Beispiele für die Bedeutung eines n-bit-wortes:

Codes (1) Beispiele für die Bedeutung eines n-bit-wortes: Codes () Beispiele für die Bedeutung eines n-bit-wortes: Befehl (instruction) Zahl (number) Zeichen (character) Bildelement (pixel) Vorlesung Rechnerarchitektur und Rechnertechnik SS 24 Codes (2) ASCII

Mehr

Grundzüge Wirtschaftsinformatik KE 1 Ausgabe 25.09.2012 Seite 28 von 178

Grundzüge Wirtschaftsinformatik KE 1 Ausgabe 25.09.2012 Seite 28 von 178 Grundzüge Wirtschaftsinformatik KE 1 Ausgabe 25.09.2012 Seite 28 von 178 Zeichendarstellung Vergleichbar mit der Definition, wie Fest- oder Gleitkommazahlen repräsentiert werden, muss auch für die Darstellung

Mehr

X = {x 1,x 2,...} sei ein Symbolalphabet eines Kodes. In diesem Kode sind card(x) = X Sachverhalte darstellbar

X = {x 1,x 2,...} sei ein Symbolalphabet eines Kodes. In diesem Kode sind card(x) = X Sachverhalte darstellbar 3. Kodierung Wir wollen Kodierung nicht als Verschlüsselung zum Zwecke der Geheimhaltung auffassen, sondern als Mittel zur Darstellung von Sachverhalten so, daß eine Rechner mit diesen Sachverhalten umgehen

Mehr

Advanced Encryption Standard. Copyright Stefan Dahler 20. Februar 2010 Version 2.0

Advanced Encryption Standard. Copyright Stefan Dahler 20. Februar 2010 Version 2.0 Advanced Encryption Standard Copyright Stefan Dahler 20. Februar 2010 Version 2.0 Vorwort Diese Präsentation erläutert den Algorithmus AES auf einfachste Art. Mit Hilfe des Wissenschaftlichen Rechners

Mehr

Code-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg

Code-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem

Mehr

Anzahl Pseudotedraden: Redundanz: Weitere Eigenschaften?

Anzahl Pseudotedraden: Redundanz: Weitere Eigenschaften? 1. Aufgabe: Aiken-Code Erstellen Sie die Codetabelle für einen Aiken-Code. Dieser Code hat die Wertigkeit 2-4-2-1. Tipp:Es gibt hier mehrere Lösungen, wenn nicht die Bedingung Aiken-Code gegeben wäre.

Mehr

3. Codierung. 3.1 Einführung in die Codierung

3. Codierung. 3.1 Einführung in die Codierung 3. Codierung... 2 3. Einführung in die Codierung... 2 3.2 Zahlencodes... 3 3.2. BCD-Code (Binary Coded Decimal Code)... 6 3.2.2 Aiken-Code... 8 3.2.3 3-Exzess-Code... 9 3.2.4 Gray-Code... 3.2.5 Zusammenfassung...

Mehr

3 Codierung ... 3.3 Code-Sicherung. 3.3.1 Stellendistanz und Hamming-Distanz. 60 3 Codierung

3 Codierung ... 3.3 Code-Sicherung. 3.3.1 Stellendistanz und Hamming-Distanz. 60 3 Codierung 60 3 Codierung 3 Codierung... 3.3 Code-Sicherung Oft wählt man absichtlich eine redundante Codierung, so dass sich die Code-Wörter zweier Zeichen (Nutzwörter) durch möglichst viele binäre Stellen von allen

Mehr

1. Grundlagen der Informatik Zahlensysteme und interne Informationsdarstellung

1. Grundlagen der Informatik Zahlensysteme und interne Informationsdarstellung 1. Grundlagen der Informatik Zahlensysteme und interne Informationsdarstellung Inhalt Grundlagen digitaler Systeme Boolesche Algebra / Aussagenlogik Organisation und Architektur von Rechnern Algorithmen,

Mehr

Single Parity check Codes (1)

Single Parity check Codes (1) Single Parity check Codes (1) Der Single Parity check Code (SPC) fügt zu dem Informationsblock u = (u 1, u 2,..., u k ) ein Prüfbit (englisch: Parity) p hinzu: Die Grafik zeigt drei Beispiele solcher Codes

Mehr

Darstellung von Informationen

Darstellung von Informationen Darstellung von Informationen Bit, Byte, Speicherzelle und rbeitsspeicher Boolesche Operationen, Gatter, Schaltkreis Bit Speicher (Flipflop) Binär- Hexadezimal und Dezimalzahlensystem, Umrechnungen Zweierkomplement

Mehr

Übungsaufgaben für "Grundlagen der Informationsverarbeitung" (mit Lösungen)

Übungsaufgaben für Grundlagen der Informationsverarbeitung (mit Lösungen) Übungsaufgaben für "Grundlagen der Informationsverarbeitung" (mit Lösungen). Erläutern Sie die Begriffe Bit, Byte und Wort bezogen auf einen 6 Bit Digitalrechner. Bit: Ein Bit ist die kleinste, atomare,

Mehr

11/2/05. Darstellung von Text. ASCII-Code. American Standard Code for Information Interchange. Parity-Bit. 7 Bit pro Zeichen genügen (2 7 = 128)

11/2/05. Darstellung von Text. ASCII-Code. American Standard Code for Information Interchange. Parity-Bit. 7 Bit pro Zeichen genügen (2 7 = 128) Darstellung von Text ASCII-Code 7 Bit pro Zeichen genügen (2 7 = 128) 26 Kleinbuchstaben 26 Großbuchstaben 10 Ziffern Sonderzeichen wie '&', '!', ''' nicht druckbare Steuerzeichen, z.b. - CR (carriage

Mehr

Grundlagen der Informatik 2 Grundlagen der Digitaltechnik. 1. Zahlensysteme

Grundlagen der Informatik 2 Grundlagen der Digitaltechnik. 1. Zahlensysteme Grundlagen der Informatik 2 Grundlagen der Digitaltechnik 1. Zahlensysteme Prof. Dr.-Ing. Jürgen Teich Dr.-Ing. Christian Haubelt Lehrstuhl für Hardware-Software Software-Co-Design Grundlagen der Digitaltechnik

Mehr

Leseprobe. Taschenbuch Mikroprozessortechnik. Herausgegeben von Thomas Beierlein, Olaf Hagenbruch ISBN: 978-3-446-42331-2

Leseprobe. Taschenbuch Mikroprozessortechnik. Herausgegeben von Thomas Beierlein, Olaf Hagenbruch ISBN: 978-3-446-42331-2 Leseprobe Taschenbuch Mikroprozessortechnik Herausgegeben von Thomas Beierlein, Olaf Hagenbruch ISBN: 978-3-446-4331- Weitere Informationen oder Bestellungen unter http://www.hanser.de/978-3-446-4331-

Mehr

Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011

Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011 Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011 Ziel: Nachrichten fehlerfrei übertragen und ökonomisch (wenig Redundanz) übertragen Was ist der Hamming-Abstand?

Mehr

Angewandte Informationstechnik

Angewandte Informationstechnik Angewandte Informationstechnik im Bachelorstudiengang Angewandte Medienwissenschaft (AMW) Fehlererkennung und -korrektur Dr.-Ing. Alexander Ihlow Fakultät für Elektrotechnik und Informationstechnik FG

Mehr

2.1 Einführung... 1. 2.2 Grundlegende Begriffe und Definitionen... 4. 2.3 Numerische Codes... 12. 2.4 ASCII - Code... 21

2.1 Einführung... 1. 2.2 Grundlegende Begriffe und Definitionen... 4. 2.3 Numerische Codes... 12. 2.4 ASCII - Code... 21 2 Codierung 2.1 Einführung... 1 2.2 Grundlegende Begriffe und Definitionen... 4 2.3 Numerische Codes... 12 2.4 ASCII - Code... 21 2.5 Fehlererkennung, Fehlerkorrektur, Übertragungssicherung.. 23 2.6 Informationstheorie

Mehr

Informatik Kl.8. Name: Herr Schlaefendorf frank@schlaefendorf.de. Webseite: http://www.schlaefendorf.de/schule/

Informatik Kl.8. Name: Herr Schlaefendorf frank@schlaefendorf.de. Webseite: http://www.schlaefendorf.de/schule/ Informatik Kl.8 Name: Herr Schlaefendorf frank@schlaefendorf.de Webseite: http://www.schlaefendorf.de/schule/ Arbeitsmaterial: Schreibzeug, Hefter A4 kleinkariert Sitzplan: Fachraumbelehrung: Bewertung

Mehr

Allgemeine Beschreibung (1)

Allgemeine Beschreibung (1) Allgemeine Beschreibung (1) Zunächst soll erklärt werden, wozu ein ISDN Primärmultiplexanschluss gebraucht wird. Dieser wird nur als Anlagenanschluss (Punkt zu Punkt) angeboten. Diese Anschlussart besagt,

Mehr

Wort: Folge von zusammengehörigen Zeichen, die in einem bestimmten Zusammenhang als Einheit betrachtet werden.

Wort: Folge von zusammengehörigen Zeichen, die in einem bestimmten Zusammenhang als Einheit betrachtet werden. 7.7. Codes 7.7.. Einleitung Die Umsetzung einer Nachricht in eine geeignete Darstellung oder die physikalische Repräsentation wird als Codierung bezeichnet. Eine Nachricht wird codiert, damit die enthaltene

Mehr

EIN NEUES KAPITEL: SPEICHERUNG UND INTERPRETATION VON INFORMATION

EIN NEUES KAPITEL: SPEICHERUNG UND INTERPRETATION VON INFORMATION Auf diesem Computerschirm sieht man verschiedene Arten von Information dargestellt. Wie wird sie eigentlich im Computer abgespeichert. Was man sieht, ist nur eine Graphik! EIN NEUES KAPITEL EIN NEUES KAPITEL:

Mehr

BinärCode. Codealphabet: 0 ; 1 Codeworte : Dualzahlen

BinärCode. Codealphabet: 0 ; 1 Codeworte : Dualzahlen Codes Vorschrift für die eindeutige Zuordnung (= Codierung) der Zeichen eine Zeichenvorrats (Objektmenge) zu den Zeichen eines anderen Zeichenvorrats (Bildmenge). Zweck der Codierung: Anpassung der Nachricht

Mehr

3. Informationsdarstellung

3. Informationsdarstellung Fakultät Informatik Institut Systemarchitektur Professur Datenschutz und Datensicherheit WS 204/205 3. Informationsdarstellung Dr.-Ing. Elke Franz Elke.Franz@tu-dresden.de 3 Informationsdarstellung Bitfolgen

Mehr

Kapitel 1. Programmierkurs. 1.2 Allgemeiner Aufbau des Computers. 1.1 Hallo, Computer...?

Kapitel 1. Programmierkurs. 1.2 Allgemeiner Aufbau des Computers. 1.1 Hallo, Computer...? Kapitel 1 Programmierkurs Birgit Engels, Anna Schulze ZAIK Universität zu Köln Einführung Hallo, Computer...? Aufbau eines Computers Was ist eine Programmiersprache? Der Programmierprozess Warum Java?

Mehr

Zahlensysteme. Digitale Rechner speichern Daten im Dualsystem 435 dez = 1100110011 binär

Zahlensysteme. Digitale Rechner speichern Daten im Dualsystem 435 dez = 1100110011 binär Zahlensysteme Menschen nutzen zur Angabe von Werten und zum Rechnen vorzugsweise das Dezimalsystem Beispiel 435 Fische aus dem Teich gefischt, d.h. 4 10 2 + 3 10 1 +5 10 0 Digitale Rechner speichern Daten

Mehr

Informationsdarstellung im Rechner

Informationsdarstellung im Rechner 1 Informationsdarstellung im Rechner Wintersemester 12/13 1 Informationsdarstellung 2 Was muss dargestellt werden? Zeichen (Buchstaben, Zahlen, Interpunktionszeichen, Steuerzeichen, grafische Symbole,

Mehr

Codierung. H.-G. Hopf

Codierung. H.-G. Hopf Codierung H.-G. Hopf Inhalt Informationsübermittlung Codierung von Zeichen GDI: Codierung / 2 Inhalt Informationsübermittlung Codierung von Zeichen GDI: Codierung / 3 Ideale Kommunikation Übertragungskanal

Mehr

FH Darmstadt FB Informatik Klausurensammlung Rechnergrundlagen Prof. Komar

FH Darmstadt FB Informatik Klausurensammlung Rechnergrundlagen Prof. Komar Matr.Nr.: Name: Leistungsnachweis Rechnergrundlagen SS 2006 Skripte, Umdrucke, Kopien, handschriftliche Aufzeichnungen und Taschenrechner sind zugelassen. Die Lösungs-Ergebnisse sind ausschließlich auf

Mehr

BSZ für Elektrotechnik Dresden. Zahlenformate. Dr.-Ing. Uwe Heiner Leichsenring www.leichsenring-homepage.de

BSZ für Elektrotechnik Dresden. Zahlenformate. Dr.-Ing. Uwe Heiner Leichsenring www.leichsenring-homepage.de BSZ für Elektrotechnik Dresden Zahlenformate Dr.-Ing. Uwe Heiner Leichsenring www.leichsenring-homepage.de Gliederung 1 Überblick 2 Grundaufbau der Zahlensysteme 2.1 Dezimalzahlen 2.2 Binärzahlen = Dualzahlen

Mehr

Einführung in die Kodierungstheorie

Einführung in die Kodierungstheorie Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht

Mehr

Zahlendarstellungen und Rechnerarithmetik*

Zahlendarstellungen und Rechnerarithmetik* Zahlendarstellungen und Rechnerarithmetik* 1. Darstellung positiver ganzer Zahlen 2. Darstellung negativer ganzer Zahlen 3. Brüche und Festkommazahlen 4. binäre Addition 5. binäre Subtraktion *Die Folien

Mehr

Prof. Dr. Oliver Haase Karl Martin Kern Achim Bitzer. Programmiertechnik Zahlensysteme und Datendarstellung

Prof. Dr. Oliver Haase Karl Martin Kern Achim Bitzer. Programmiertechnik Zahlensysteme und Datendarstellung Prof. Dr. Oliver Haase Karl Martin Kern Achim Bitzer Programmiertechnik Zahlensysteme und Datendarstellung Zahlensysteme Problem: Wie stellt man (große) Zahlen einfach, platzsparend und rechnergeeignet

Mehr

Informationsdarstellung im Rechner

Informationsdarstellung im Rechner Informationsdarstellung im Rechner Dr. Christian Herta 15. Oktober 2005 Einführung in die Informatik - Darstellung von Information im Computer Dr. Christian Herta Darstellung von Information im Computer

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

D A T E N... 1 Daten Micheuz Peter

D A T E N... 1 Daten Micheuz Peter D A T E N.....! Symbole, Alphabete, Codierung! Universalität binärcodierter Daten! Elementare Datentypen! Speicherung binärcodierter Daten! Befehle und Programme! Form und Bedeutung 1 Daten Micheuz Peter

Mehr

Ein polyadisches Zahlensystem mit der Basis B ist ein Zahlensystem, in dem eine Zahl x nach Potenzen von B zerlegt wird.

Ein polyadisches Zahlensystem mit der Basis B ist ein Zahlensystem, in dem eine Zahl x nach Potenzen von B zerlegt wird. Zahlensysteme Definition: Ein polyadisches Zahlensystem mit der Basis B ist ein Zahlensystem, in dem eine Zahl x nach Potenzen von B zerlegt wird. In der Informatik spricht man auch von Stellenwertsystem,

Mehr

Voyager 9520/40 Voyager GS9590 Eclipse 5145 Kurzanleitung

Voyager 9520/40 Voyager GS9590 Eclipse 5145 Kurzanleitung Voyager 9520/40 Voyager GS9590 Eclipse 5145 Kurzanleitung VG-ECL-DE-QS Rev C 6/12 Erste Schritte Schalten Sie den Computer aus, bevor Sie den Scanner anschließen. Starten Sie den Computer neu, nachdem

Mehr

bereits in A,3 und A.4: Betrachtung von Addierschaltungen als Beispiele für Schaltnetze und Schaltwerke

bereits in A,3 und A.4: Betrachtung von Addierschaltungen als Beispiele für Schaltnetze und Schaltwerke Rechnerarithmetik Rechnerarithmetik 22 Prof. Dr. Rainer Manthey Informatik II Übersicht bereits in A,3 und A.4: Betrachtung von Addierschaltungen als Beispiele für Schaltnetze und Schaltwerke in diesem

Mehr

Herzlich Willkommen zur Informatik I. Bits und Bytes. Zahlensystem zur Basis 10 (Dezimalzahlen) Warum Zahlensysteme betrachten?

Herzlich Willkommen zur Informatik I. Bits und Bytes. Zahlensystem zur Basis 10 (Dezimalzahlen) Warum Zahlensysteme betrachten? Herzlich Willkommen zur Informatik I Bits und Bytes Zahlen im Computer: Binärzahlen, Hexadezimalzahlen Text im Computer: ASCII-Code und Unicode Quelle: http://www.schulphysik.de/rgb.html Bit: eine binäre

Mehr

Einführung in die Programmierung

Einführung in die Programmierung Technische Universität Carolo Wilhelmina zu Brauschweig Institut für rechnergestützte Modellierung im Bauingenierwesen Prof. Dr.-Ing. habil. Manfred Krafczyk Pockelsstraße 3, 38106 Braunschweig http://www.irmb.tu-bs.de

Mehr

Daten, Informationen, Kodierung. Binärkodierung

Daten, Informationen, Kodierung. Binärkodierung Binärkodierung Besondere Bedeutung der Binärkodierung in der Informatik Abbildung auf Alphabet mit zwei Zeichen, in der Regel B = {0, 1} Entspricht den zwei möglichen Schaltzuständen in der Elektronik:

Mehr

Binärcode. Glossar Binärcode

Binärcode. Glossar Binärcode Binärcode Glossar Binärcode 1 Index Binärcode Aiken-Code BCD-Code BCDIC-Code Binär Binärcode Binärsystem Biquinärcode Bit, binary digit Byte Code Dibit Dualsystem Exzess-3-Code Gray-Code Halbbyte Hexadezimalsystem

Mehr

Kapitel 0: Zeichencodierung

Kapitel 0: Zeichencodierung Kapitel 0: Zeichencodierung Technische Grundlagen der Informatik 2 SS 2009 R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt Inhalt Kap 0. Zeichencodierung 0-2 0.1 Zeichen, Alphabete,

Mehr

Der Huffman Algorithmus

Der Huffman Algorithmus Der Huffman Algorithmus Für das Folgende setzen wir voraus, dass die Quellensymbole q ν einem Alphabet {q μ } = {A, B, C,...} mit dem Symbolumfang M entstammen und statistisch voneinander unabhängig seien.

Mehr

Die allerwichtigsten Raid Systeme

Die allerwichtigsten Raid Systeme Die allerwichtigsten Raid Systeme Michael Dienert 4. Mai 2009 Vorbemerkung Dieser Artikel gibt eine knappe Übersicht über die wichtigsten RAID Systeme. Inhaltsverzeichnis 1 Die Abkürzung RAID 2 1.1 Fehlerraten

Mehr

Zahlensysteme. Zahl 0 0 0 0 0 5 5. Stellenwert Zahl 0 0 0 0 0 50 5. Zahl = 55 +50 +5

Zahlensysteme. Zahl 0 0 0 0 0 5 5. Stellenwert Zahl 0 0 0 0 0 50 5. Zahl = 55 +50 +5 Personal Computer in Betrieb nehmen 1/6 Weltweit setzen die Menschen alltäglich das Zehnersystem für Zählen und Rechnen ein. Die ursprüngliche Orientierung stammt vom Zählen mit unseren 10 Fingern. Für

Mehr

Thema: Hamming-Codes. Titelblatt anonymisiert

Thema: Hamming-Codes. Titelblatt anonymisiert Thema: Hamming-Codes Titelblatt anonymisiert Hamming-Codes.Einführung in die Kodierungstheorie... 3. Grundlegendes über Codewörter... 3. Matrizen... 4.3 Die maßgebliche Stelle... 5.Grundlegende Ideen...5

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Binär Codierte Dezimalzahlen (BCD-Code)

Binär Codierte Dezimalzahlen (BCD-Code) http://www.reiner-tolksdorf.de/tab/bcd_code.html Hier geht es zur Startseite der Homepage Binär Codierte Dezimalzahlen (BCD-) zum 8-4-2-1- zum Aiken- zum Exeß-3- zum Gray- zum 2-4-2-1- 57 zum 2-4-2-1-

Mehr

Interface Definitionen zu E-LAB ICP-V24 Portable

Interface Definitionen zu E-LAB ICP-V24 Portable Serielles Interface PC ICP-V24 18.03.2003 Seite 1/5 Interface Definitionen zu E-LAB ICP-V24 Portable Das Interface zwischen PC und ICP-V24 besteht aus dem Hardware Teil und dem Software Teil. Hardware

Mehr

4 Binäres Zahlensystem

4 Binäres Zahlensystem Netzwerktechnik achen, den 08.05.03 Stephan Zielinski Dipl.Ing Elektrotechnik Horbacher Str. 116c 52072 achen Tel.: 0241 / 174173 zielinski@fh-aachen.de zielinski.isdrin.de 4 inäres Zahlensystem 4.1 Codieren

Mehr

0 Im folgenden sei die Wortlänge gleich 8 (d. h.: es wird mit Bytes gearbeitet).

0 Im folgenden sei die Wortlänge gleich 8 (d. h.: es wird mit Bytes gearbeitet). Aufgabe 0 Im folgenden sei die Wortlänge gleich 8 (d. h.: es wird mit Bytes gearbeitet). 1. i) Wie ist die Darstellung von 50 im Zweier =Komplement? ii) Wie ist die Darstellung von 62 im Einer =Komplement?

Mehr

KANALCODIERUNG AUFGABEN. Aufgabe 1. Aufgabe 2

KANALCODIERUNG AUFGABEN. Aufgabe 1. Aufgabe 2 AUFGABEN KANALCODIERUNG Aufgabe Wir betrachten den Hamming-Code mit m = 5 Prüfbits. a) Wie gross ist die Blocklänge n dieses Codes? b) Wie viele gültige Codewörter umfasst dieser Code? c) Leiten Sie die

Mehr

Gliederung. Was ist der Unicode? Warum gibt es den Unicode? Wie funktioniert er? Wo ist mein Schriftzeichen? Kritische Stimmen

Gliederung. Was ist der Unicode? Warum gibt es den Unicode? Wie funktioniert er? Wo ist mein Schriftzeichen? Kritische Stimmen Unicode Gliederung Was ist der Unicode? Warum gibt es den Unicode? Wie funktioniert er? Wo ist mein Schriftzeichen? Kritische Stimmen Was ist der Unicode? ein Datensatz von Schriftzeichen wie viele andere

Mehr

Repräsentation von Daten Binärcodierung ganzer Zahlen

Repräsentation von Daten Binärcodierung ganzer Zahlen Kapitel 3: Repräsentation von Daten Binärcodierung ganzer Zahlen Einführung in die Informatik Wintersemester 2007/08 Prof. Bernhard Jung Übersicht Repräsentation von Daten im Computer (dieses und nächstes

Mehr

Digitale Übertragung im Basisband

Digitale Übertragung im Basisband Digitale Übertragung im Basisband ASCII-Code RS-232-Schnittstelle Digitale Basisbandübertragung Leitungscodierung Störung durch Rauschen Tiefpasskanal Nyquist-Bandbreite Kanalkapazität Digitaler Teilnehmeranschluss

Mehr

Mit Änderungen beim SPE670 Frequenz, Drehzahl, Durchfluß und Ereignis

Mit Änderungen beim SPE670 Frequenz, Drehzahl, Durchfluß und Ereignis Mit Änderungen beim SPE670 Frequenz, Drehzahl, Durchfluß und Ereignis Nach dem Einschalten erscheint zunächst für ca. 2 Sekunden die Anzeige 0. Bei fehlender Uhr oder leerer Uhrenbatterie für 2 Sekunden

Mehr

Einführung in die Informatik I

Einführung in die Informatik I Einführung in die Informatik I Das Rechnen in Zahlensystemen zur Basis b=2, 8, 10 und 16 Prof. Dr. Nikolaus Wulff Zahlensysteme Neben dem üblichen dezimalen Zahlensystem zur Basis 10 sind in der Informatik

Mehr

21.10.2013. Vorlesung Programmieren. Agenda. Dezimalsystem. Zahlendarstellung. Zahlendarstellung. Oder: wie rechnen Computer?

21.10.2013. Vorlesung Programmieren. Agenda. Dezimalsystem. Zahlendarstellung. Zahlendarstellung. Oder: wie rechnen Computer? Vorlesung Programmieren Zahlendarstellung Prof. Dr. Stefan Fischer Institut für Telematik, Universität zu Lübeck http://www.itm.uni-luebeck.de/people/pfisterer Agenda Zahlendarstellung Oder: wie rechnen

Mehr

DIGITALTECHNIK 02 ZAHLENSYSTEME

DIGITALTECHNIK 02 ZAHLENSYSTEME Seite 1 von 15 DIGITALTECHNIK 02 ZAHLENSYSTEME Inhalt Seite 2 von 15 1 ALLGEMEINES ZU ZAHLENSYSTEMEN... 3 1.1 ZAHLENSYSTEME... 3 1.2 KENNZEICHEN VON ZAHLENSYSTEMEN... 4 1.3 BILDUNGSGESETZE... 4 1.4 STELLENWERTSYSTEM...

Mehr

Die Umwandlung einer Dualzahl in eine Dezimalzahl ist ein sehr einfacher Vorgang.

Die Umwandlung einer Dualzahl in eine Dezimalzahl ist ein sehr einfacher Vorgang. 2. Zahlensysteme und Codes 2.1 Dualzahlen Bereits in den Anfängen der Datenverarbeitung hat es sich gezeigt, daß das im Alltagsleben verwendete Zahlensystem auf der Basis der Zahl 10 (Dezimalsystem) für

Mehr

Prinzip 8 der von-neumann Architektur: (8) Alle Daten werden binär kodiert

Prinzip 8 der von-neumann Architektur: (8) Alle Daten werden binär kodiert Binäre Repräsentation von Information Bits und Bytes Binärzahlen ASCII Ganze Zahlen Rationale Zahlen Gleitkommazahlen Motivation Prinzip 8 der von-neumann Architektur: (8) Alle Daten werden binär kodiert

Mehr

Informatik I WS 07/08 Tutorium 24

Informatik I WS 07/08 Tutorium 24 Info I Tutorium 24 Informatik I WS 07/08 Tutorium 24 15.11.07 Bastian Molkenthin E-Mail: infotut@sunshine2k.de Web: http://infotut.sunshine2k.de Review / Organisatorisches o Probleme bei Foliendownload?

Mehr

BITte ein BIT. Vom Bit zum Binärsystem. A Bit Of Magic. 1. Welche Werte kann ein Bit annehmen? 2. Wie viele Zustände können Sie mit 2 Bit darstellen?

BITte ein BIT. Vom Bit zum Binärsystem. A Bit Of Magic. 1. Welche Werte kann ein Bit annehmen? 2. Wie viele Zustände können Sie mit 2 Bit darstellen? BITte ein BIT Vom Bit zum Binärsystem A Bit Of Magic 1. Welche Werte kann ein Bit annehmen? 2. Wie viele Zustände können Sie mit 2 Bit darstellen? 3. Gegeben ist der Bitstrom: 10010110 Was repräsentiert

Mehr

Codierungsverfahren SS 2011. Reed-Solomon-Codes zur Mehrblock-Bündelfehler-Korrektur

Codierungsverfahren SS 2011. Reed-Solomon-Codes zur Mehrblock-Bündelfehler-Korrektur Reed-Solomon-Codes zur Mehrblock-Bündelfehler-Korrektur Wie die zyklischen BCH-Codes zur Mehrbitfehler-Korrektur eignen sich auch die sehr verwandten Reed-Solomon-Codes (= RS-Codes) zur Mehrbitfehler-Korrektur.

Mehr

Das Maschinenmodell Datenrepräsentation

Das Maschinenmodell Datenrepräsentation Das Maschinenmodell Datenrepräsentation Darstellung von Zahlen/Zeichen in der Maschine Bit (0/1) ist die kleinste Informationseinheit Größere Einheiten durch Zusammenfassen mehrerer Bits, z.b. 8 Bit =

Mehr

Digitale Übertragung im Basisband

Digitale Übertragung im Basisband Digitale Übertragung im Basisband RS-232-Schnittstelle Sender und Empfänger Leitungscodierung Störung durch Rauschen Tiefpasskanal Nyquist-Bandbreite Kanalkapazität Digitaler Teilnehmeranschluss WS 28/9

Mehr

Ein bisschen Theorie Dezimal, hexadezimal, oktal und binär.

Ein bisschen Theorie Dezimal, hexadezimal, oktal und binär. Seite 1 von 9 Ein bisschen Theorie Dezimal, hexadezimal, oktal und binär. Wenn man als Neuling in die Digitalelektronik einsteigt, wird man am Anfang vielleicht etwas unsicher, da man viele Bezeichnungen

Mehr

Zusammenfassung Modul 114

Zusammenfassung Modul 114 JanikvonRotz Codierungs-, Kompressions- und Verschlüsselungsverfahren Copyright by Janik von Rotz Version: 01.00 Freigabe: 20.05.11 Janik von Rotz Hoheneich 4, 6064 Kerns Internet www.janikvonrotz.ch Email

Mehr

Im Original veränderbare Word-Dateien

Im Original veränderbare Word-Dateien Binärsystem Im Original veränderbare Word-Dateien Prinzipien der Datenverarbeitung Wie du weißt, führen wir normalerweise Berechnungen mit dem Dezimalsystem durch. Das Dezimalsystem verwendet die Grundzahl

Mehr

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon

Mehr

Zur Universalität der Informatik. Gott ist ein Informatiker. Die Grundordnung der Welt läßt sich mathematisch formulieren:

Zur Universalität der Informatik. Gott ist ein Informatiker. Die Grundordnung der Welt läßt sich mathematisch formulieren: Daten und ihre Codierung Seite: 1 Zur Universalität der Informatik Gott ist ein Informatiker Die Grundordnung der Welt läßt sich mathematisch formulieren: Naturgesetze, wie wir sie in der Physik, Chemie

Mehr

Technische Informatik - Eine Einführung

Technische Informatik - Eine Einführung Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Ausgabe: 2005-02-21 Abgabe: 2005-02-21 Technische Informatik - Eine

Mehr

A1.7: Entropie natürlicher Texte

A1.7: Entropie natürlicher Texte A1.7: Entropie natürlicher Texte Anfang der 1950er Jahre hat Claude E. Shannon die Entropie H der englischen Sprache mit einem bit pro Zeichen abgeschätzt. Kurz darauf kam Karl Küpfmüller bei einer empirischen

Mehr

Technische Informatik I

Technische Informatik I Technische Informatik I Vorlesung 2: Zahldarstellung Joachim Schmidt jschmidt@techfak.uni-bielefeld.de Übersicht Geschichte der Zahlen Zahlensysteme Basis / Basis-Umwandlung Zahlsysteme im Computer Binärsystem,

Mehr

3 Der Hamming-Code. Hamming-Codes

3 Der Hamming-Code. Hamming-Codes 3 Der Hamming-Code Hamming-Codes Ein binärer Code C heißt ein Hamming-Code Ha s, wenn seine Kontrollmatrix H als Spalten alle Elemente in Z 2 s je einmal hat. Die Parameter eines n-k-hamming-codes sind:

Mehr

6 Fehlerkorrigierende Codes

6 Fehlerkorrigierende Codes R. Reischuk, ITCS 35 6 Fehlerkorrigierende Codes Wir betrachten im folgenden nur Blockcodes, da sich bei diesen das Decodieren und auch die Analyse der Fehlertoleranz-Eigenschaften einfacher gestaltet.

Mehr

Inhalt: Binärsystem 7.Klasse - 1 -

Inhalt: Binärsystem 7.Klasse - 1 - Binärsystem 7.Klasse - 1 - Inhalt: Binärarithmetik... 2 Negative Zahlen... 2 Exzess-Darstellung 2 2er-Komplement-Darstellung ( two s complement number ) 2 Der Wertebereich vorzeichenbehafteter Zahlen:

Mehr

Computerwerkzeuge für die Linguistik: Probleme der Kodierung. Susanne Hackmack Karl Heinz Wagner Universität Bremen

Computerwerkzeuge für die Linguistik: Probleme der Kodierung. Susanne Hackmack Karl Heinz Wagner Universität Bremen Computerwerkzeuge für die Linguistik: Probleme der Kodierung Susanne Hackmack Karl Heinz Wagner Universität Bremen Probleme der Kodierung Damit linguistische Daten (im weitesten Sinne) mit Computerprogrammen

Mehr

Vom Taschengeld zum Haushaltsbudget

Vom Taschengeld zum Haushaltsbudget Mithilfe eines Tabellenkalkulationsprogramms kannst du Tabellen erstellen, Daten erfassen und auswerten, Kosten ermitteln, Diagramme erstellen, Notendurchschnitte errechnen usw. Die Dateien können als

Mehr

Information in einem Computer ist ein

Information in einem Computer ist ein 4 Arithmetik Die in den vorhergehenden Kapiteln vorgestellten Schaltungen haben ausschließlich einfache, Boole sche Signale verarbeitet. In diesem Kapitel wird nun erklärt, wie Prozessoren mit Zahlen umgehen.

Mehr

Informationstechnologie. Grundlagen. Thomas Joos, Michael Kuhrts, Christoph Volkmann. 6. Ausgabe, Juni 2014 ITECH

Informationstechnologie. Grundlagen. Thomas Joos, Michael Kuhrts, Christoph Volkmann. 6. Ausgabe, Juni 2014 ITECH Informationstechnologie Thomas Joos, Michael Kuhrts, Christoph Volkmann Grundlagen 6. Ausgabe, Juni 2014 ITECH 3 Informationstechnologie - Grundlagen 3 Grundbegriffe der Digitaltechnik In diesem Kapitel

Mehr

Datenaustausch. Energiewirtschaft 3. Semester. Tillman Swinke

Datenaustausch. Energiewirtschaft 3. Semester. Tillman Swinke Datenaustausch Energiewirtschaft 3. Semester Tillman Swinke Frohes neues Jahr Organisatorisches Ab nächster Vorlesung: 30 min Fragestunde (Bitte Vorbereiten) Übungsklausur in der nächsten Vorlesung Agenda

Mehr

Berührungslose Datenerfassung. easyident-usb Stickreader. Art. Nr. FS-0012

Berührungslose Datenerfassung. easyident-usb Stickreader. Art. Nr. FS-0012 Berührungslose Datenerfassung easyident-usb Stickreader Firmware Version: 0115 Art. Nr. FS-0012 easyident-usb Stickreader ist eine berührungslose Datenerfassung mit Transponder Technologie. Das Lesemodul

Mehr

Binär- und Hexadezimal-Zahl Arithmetik.

Binär- und Hexadezimal-Zahl Arithmetik. Binär- und Hexadezimal-Zahl Arithmetik. Prof. Dr. Dörte Haftendorn, MuPAD 4, http://haftendorn.uni-lueneburg.de Aug.06 Automatische Übersetzung aus MuPAD 3.11, 24.04.02 Version vom 12.10.05 Web: http://haftendorn.uni-lueneburg.de

Mehr

2 Darstellung von Zahlen und Zeichen

2 Darstellung von Zahlen und Zeichen 2.1 Analoge und digitale Darstellung von Werten 79 2 Darstellung von Zahlen und Zeichen Computer- bzw. Prozessorsysteme führen Transformationen durch, die Eingaben X auf Ausgaben Y abbilden, d.h. Y = f

Mehr

Grundlagen der Informatik III Wintersemester 2010/2011

Grundlagen der Informatik III Wintersemester 2010/2011 Grundlagen der Informatik III Winteremeter 2010/2011 Wolfgang Heene, Patrik Schmittat 8. Aufgabenblatt mit Löungvorchlag 10.01.2011 Hinwei: Der Schnelltet und die Aufgaben ollen in den Übunggruppen bearbeitet

Mehr

Programmierung mit NQC: Kommunikation zwischen zwei RCX

Programmierung mit NQC: Kommunikation zwischen zwei RCX Programmierung mit NQC: Kommunikation zwischen zwei RCX Teil : Grundlagen Martin Schmidt 7. Februar 24 Teil : Grundlagen Zahlensysteme : Binärsystem Ziffern: und Bit = binary digit (Binärziffer) Einfach

Mehr