Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar. Rechnergrundlagen

Größe: px
Ab Seite anzeigen:

Download "Rechnergrundlagen Teil 1-1 - Prof.Dipl.-Ing. Komar. Rechnergrundlagen"

Transkript

1 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar Rechnergrundlagen Inhaltsverzeichnis Teil 1 1 Einführung und Überblick Das Werden der Informatik - Rechnergenerationen Einteilung der Informatik - Themen der Informatik 2 Grundbegriffe : Information Nachricht Signal Zeichen Code Digitalisieren A/D-Wandlung 3 Grundlagen der lnformations-theorie Elementarvorrat E, Informationsgehalt h, Entropie H, mittl. Wortlänge L, Redundanz R 4 Codierung Quell- und Kanalcodierung - Optimal-Codes, (Huffmann, FANO), Codesicherungsverfahren ( m-aus n- Code, Blocksicherung, Hamming-Code) 5 Zahlensysteme Polyadisches Bildungsgesetz für Zahlen Dual Dezimal Hexadezimal Umwandlung von Dezimalzahlen in Dual - / Hexadezimal-Zahlen mittels Horner-Schema Arithmetik im Dualsystem Darstellung negativer Zahlen Einerkomplement Zweierkomplement Zahlendarstellung im Rechner - Festkomma Gleitkomma BCD-Darstellung Teil 2 6 Funktionsweise digitaler Rechenanlagen Funktionseinheiten eines Computers: CPU, Bus, I/O-Peripherie, Speicher, Programme Aufbau eines Mikroprozessors Bauformen und Einsatz von Mikrocomputern Personalcomputer und INTEL 80x86-Prozessoren Der PC als Mikrocomputer -Versuchs- und Übungssystem 7 Maschinenorientierte Programmierung Programmiermodell des Maschinenbefehle des 8086 Assemblerprogrammierung mit DEBUG und EDIT DEBUG Monitor BIOS- und DOS- Funktionen des Betriebssystems Asynchrone, serielle Datenübertragung nach RS232C/V24 Terminalemulation Anhang: Gleitkommarechnung mit der Floating-Point-Unit FPU Literatur [ 1 ] Blieberger, Klasek, Informatik Redlein, Schildt Springers Lehrbücher der Informatik Springer Verlag Wien NewYork [ 2 ] Rechenberg, Pomberger Informatik-Handbuch Carl Hanser Verlag München Wien [ 3 ] P. Rechenberg Was ist Informatik? Eine allgemeinverständliche Einführung Carl Hanser Verlag München Wien [ 4 ]G. Küveler, D. Schwoch Informatik für Ingenieure Vieweg [ 5 ] Otto Mildenberger Informationstechnik kompakt Vieweg

2 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar 1. Einführung und Überblick Informatik (Computer Science) ist die Wissenschaft von der systematischen Verarbeitung von Informationen insbesondere deren automatische Verarbeitung mit Hilfe von Digitalrechnern. Symbolisch: Informatik = Information + Automatik ( auch + Mathematik ) Die Informatik ist auf das engste mit dem Computer ( Rechner, Datenverarbeitungsanlage) verknüpft. Der Computer als elektronische Rechenmaschine entstand in den vierziger Jahren und begründete die Informatik. Seine Vorläufer waren die elektromechanischen Rechenmaschinen und die Lochkartentechnik. Der Computer (vom lateinischen computare -> computus entspricht Kirchenrechnung/Kalenderrechnung) ist eine universelle, elektronische digitale Rechenanlage zur Lösung von Problemen, die zuvor als Algorithmen formuliert wurden. In früheren Zeiten wurde immer wieder versucht, mechanische Rechenmaschinen für die vier Grundrechenarten zu konstruieren. Diese Konstruktionsversuche hatten ihre Ursache darin, daß es sich bei den Grundrechenarten um mechanisch ausführbare Rechenverfahren handelt. ( mechanisch bedeutet hier ohne Nachdenken ohne Verstehen ). Dieser Begriff des mechanisch ausführbaren Rechenverfahrens wird als Algorithmus bezeichnet. Algorithmen sind beschreibbare und Schritt für Schritt nachvollziehbare Verfahren zur Lösung vorgegebener Probleme. Sie bestehen aus mehreren nacheinander auszuführenden Schritten, die solange nacheinander ausgeführt bzw wiederholt durchlaufen werden, bis ein Ergebnis gefunden ist (endliche Lösungsverfahren ). Erst das Werkzeug Computer erlaubte, Algorithmen mit Millionen von Schritten auszuführen. Mechanischen Rechenmaschinen waren noch keine Computer, denn sie konnten zwar die Algorithmen für die vier Grundrechenarten ausführen, aber eben keine anderen. Diese Eigenschaft des Computers, die verschiedensten und komplexesten Algorithmen auszuführen, wird durch seine freie Programmierbarkeit ermöglicht und machte den Computer zu einem universalen Instrument. Freie Programmierbarkeit heißt, der Computer hat einen Programmspeicher, in dem man beliebige Programme speichern kann, die der Computer dann ausführt. Ein Programm ist demnach ein mit Hilfe eindeutiger Regeln formulierter Algorithmus, der in dieser Form von einem bestimmten Rechner übernommen und ausgeführt werden kann ( im Computer gespeichert und vom Computer ausgeführt werden kann ). Drei Eigenschaften unterscheiden den heutigen Computer von seinen Vorläufern und begründen seinen Erfolg: - die hochintegrierte Elektronik anstelle der Mechanik oder Elektromechanik - die Benutzung von zweiwertigen (binären) Zuständen anstelle von zehnwertigen - das gespeicherte Programm (v. Neumann-Rechner mit Daten und Programm im gemeinsamen Arbeitsspeicher) Die Informatik gründet auf Daten und Algorithmen Daten, das sind die Dinge die verarbeitet werden Algorithmen, das sind die Handlungen (Verfahrensschritte), die verarbeiten. Heutzutage werden mit dem Computer längst nicht mehr nur Zahlen verarbeitet, sondern alles was zähl- und meßbar ist wie Zahlen, Texte, Sprache, Musik, Bilder und viele andere physikalische Größen mit ihren zeitlichen Verläufen werden von Computern verarbeitet. Um diese vielfältigen Informationen verarbeiten zu können, müssen diese zuerst in eine für den Computer gemäße Form umgewandelt werden, nämlich in digitale, binärcodierte Daten ( Digitalisierung ). Zusammengefaßt:. Alles was zähl- und meßbar ist, kann codiert werden. Alles was codiert werden kann, kann ein Computer verarbeiten. Die Codierung im Computer ist immer binär, d.h. geschieht mit den Werten 0 und 1

3 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar 1.1 Das Werden der Informatik 1700 v. Chr. Papyrus Rhind, Ägypten, älteste schriftliche Rechenaufgaben. 300 v.chr. Euklidischer Algorithmus ( größter gemeinsamer Teiler zweier natürlichen Zahlen ) 5. Jh. n.chr. Erfindung des Dezimalsystems in Indien. 820 n.chr. Al-Chowarizmi (etwa ), persischer Mathematiker und Astronom, schreibt ein Buch über Algebra. (von ihm leitet sich der Begriff Algorithmus ab ) 1202 Leonardo von Pisa, genannt Fibonacci (etwa ), italienischer Mathematiker, verfaßt den liber abaci, die erste systematische Einführung in das dezimale Zahlenrechnen Adam Riese ( ) veröffentlicht ein Rechenbuch, in dem er die Rechengesetze des Dezimalsystems beschreibt. Seit dieser Zeit setzt sich das Dezimalsystem in Europa durch Wilhelm Schickard ( ) konstruiert eine Maschine, die die vier Grundrechenarten ausführen kann. Sie bleibt unbeachtet Blaise Pascal ( ) konstruiert eine Maschine, die sechsstellige Zahlen addiert G. W. Leibniz ( ) konstruiert eine Rechenmaschine mit Staffelwalzen für die vier Grundrechenarten. Er befaßt sich auch mit dem dualen Zahlensystem P. M. Hahn ( ) entwickelt erste zuverlässige mechanische Rechenmaschine. Ab 1818 Rechenmaschinen nach dem Vorbild der Leibnizschen Maschine werden serienmäßig hergestellt und dabei ständig weiterentwickelt Joseph-Marie Jaquard Ablauf-Steuerung von Webstühle mit Lochplatten aus Holz 1822 Charles Babbage ( ) plant seine Analytical Engine, mit 3 wesentlichen Baugruppen: Speicher-, Rechen- und Leitwerk, Steuerung des Progammablaufes durch Lochkarten 1886 Hermann Hollerith ( ) erfindet die Lochkarte. Lochkartenmaschine zum Abtasten von Lochkarten und Auslösen elektrischer Schrittschaltwerke für die Volkszählung 1890 in USA. Heute noch verwendete Lochkarte mit 80 Spalten und 12 Zeilen. Mechanische Rechenwerke (der Algorithmus für die Grundrechenarten fest eingebaut ) 1934 Konrad Zuse (geb. 1910) beginnt mit der Planung einer programmgesteuerten Rechenmaschine Z1. Duales Zahlensystem und Gleitkomma-Zahlendarstellung, Relaisrechner mit fest eingebauter Steuerung ( festverdrahtetes Programm ) 1941 Die elektromechanische Anlage Z3 von Zuse ist fertig. Erster funktionsfähiger programmgesteuerte Rechenautomat, Programmeingabe über gelochte Filmstreifen (extern, gesteuerter Programmablauf), Unterprogramme in Form von Lochstreifenschleifen realisiert, 3000 Relais 1944 H. H. Aiken ( ) erbaut Mark 1. Additionszeit 1/3 sec, Multiplikationszeit 6 sec. Zusammenschaltung von Lochkartenmaschinen ( Mark I ) ohne externe Programmsteuerung Länge 16m, Gewicht 35t, Weiterentwicklungen zu Relaisrechner (Mark II), Dezimalsystem Elektromechanische Rechenwerke, benutzen langsame äußere Speicher (Lochkarten, Lochstreifen) (verschiedene Algorithmen durch äußeren Programmspeicher verarbeitbar )

4 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar 1946 J. P. Eckert und J. W. Mauchly erbauen ENIAC (Electronic Numerical Integrator and Calculator). Erster voll elektronische Rechner (18000 Elektronenröhren, Gewicht 30t, Leistungsaufnahme 175 kw). Multiplikationszeit 3 ms, Programmsteuerung durch Stecktafeln John von Neumann schlägt das im Rechner gespeicherte Programm vor, eine sogn. speicherprogrammierte Rechenanlage 1949 M. V. Wilkes baut EDVAC. (Electronic Discrete Variable Automatic Calculator ) Erster universeller Digitalrechner mit binärer Codierung und einheitlichem internen Programm und Datenspeicher (erster von Neumann Rechner ) Ab 1950 Industrielle Rechnerproduktion. Die weitere Entwicklung wird in Rechner-Generationen anhand der Technologie der elektronischen Schalter ( Röhre, Transistor, integrierte Schaltkreise, hochintegrierte Schaltkreise, usw. ) dargestellt. Generation Charakterisierung 1 Bis Ende der fünfziger Jahre. Elektronenröhren als Schaltelemente; zentrale Speicher von wenigen hundert Maschinenwörtem, typ. Additionszeiten µsec, Speicherkapazität <100 Zahlen, Programmiert wurde umständlich mit Zahlenkolonnen, keine Software vorhanden 2 Bis Ende der sechziger Jahre. Transistorschaltkreise; Ferritkern-, Band-, Trommel-, Plattenspeicher, typ. Additionszeiten 1 10 µsec, Speicherkapazität einige 1000 Zahlen, Assemblerprogrammierung, maschinenunabhängige Programmiersprachen wie Fortran und Cobol, erste Betriebssysteme für bessere Ausnutzung 3 Seit Mitte der sechziger Jahre. Teilweise integrierte Schaltkreise, Rechnerfamilien wie IBM 360 UNIVAC 9000, Siemens 4004 in Stufen ausbaubar und damit fertige Programme weiterverwendbar (Kompatibilität), Timesharing (Multiuser-Betrieb), mit Bildschirmen beginnt die graphische Datenverarbeitung, Lochkartenstapel-Arbeitsweise 4 Seit Anfang der siebziger Jahre. Überwiegend hochintegrierte Schaltkreise; Mikroprozessor = Rechnerkern CPU auf einem Chip; 8-Bit-Architektur, der Mikrocomputer führt mit Home- und Personal-Computer PC zu einer drastischen Dezentralisierung und eröffnet neue Dimensionen in der Mensch-Maschine-Kommunikation, Betriebssysteme CP/M, MS-DOS und UNIX 5 Seit Anfang der achtziger Jahre. Hochintegrierte Schaltkreise; Mikrocomputer auf einem Chip, mehrere Prozessoren auf einem Chip; 16- und 32-Bit-Architekturen; Mikrocomputer-Netzwerke, lokale und globale Netze, Neuronale Netze und parallele Multiprozessorsysteme, Multimedia Abkehr von der vorherrschenden von-neumann-architektur Elektronische Rechenanlagen ( Algorithmen im inneren Programmspeicher )

5 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar 1.2 Einteilung der Informatik Technische Praktische Theoretische Angewandte Informatik Informatik Informatik Informatik Hardwarekomponenten Algorithmen Automatentheorie Informationssysteme Datenstrukturen Schaltnetze Programmiermethoden Theorie der Computergrafik Schaltwerke Formalen Sprachen Prozessoren Programmiersprachen Künstliche Intelligenz und Compiler Theorie der Mikroprogrammierung Berechenbarkeit Digitale Signalverarbeitung Betriebssyteme Rechnerorganisation Komplexitätstheorie Simulation und und architektur Softwaretechnik Modellierung Algorithmenanalyse Schnittstellentechnik Mensch-Maschine- Textverarbeitung und Rechnernetze Kommunikation und Büro-Automation Theorie der Programmierung Automatische Programmsynthese Formale Semantik Spezifische Anwendungen Wirtschaft Verwaltung Ingenieurwissenschaften Naturwissenschaften Medizin Kunst Theoretische Informatik befaßt sich mit Grundlagenfragen und abstrahiert dabei von den technischen Gegebenheiten realer Computer. Sie bedient sich in starkem Maße mathematischer Begriffe und Methoden Technische Informatik behandelt die Bestandtteile, den Aufbau und die Zusammenarbeit von Computern, also die Hardware ( Schaltkreise, Schaltnetze, Schaltwerke ) Praktische Informatik behandelt Algorithmen, Datenstrukturen, Programmiersprachen und Programmierungstechniken, Betriebssysteme, Compilerbau, Softwaretechnik (Kern der Informatik ) Angewandte Informatik hat ebenfalls die Programmierung im Mittelpunkt. Der Computer wird hier dagegen als Werkzeug zur Lösung von Aufgaben eingesetzt, die außerhalb der eigenen Weiterentwicklung liegen, also für Anwendungen in allen anderen Bereichen. Das Arbeitsgebiet der Informatik kann man letztlich auch als eine Ingenieursdisziplin betrachten.

6 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar 1.3 Themen der Informatik Theoretische Grundlagen Einführung Boolsche Algebra Informationstheorie Algorithmen Codierungstheorie Zahlendarstellung Optimale Codierung Logische Schaltungen Mikroprocessor Hardware Computersysteme Betriebssysteme Assemblersprachen Betriebssysteme und Systemsoftware Höhere Sprachen

7 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar 2. Grundbegriffe: Information, Nachricht, Codierung, Digitalisierung Information ist neben Energie und Materie der dritte fundamentale Begriff in Wissenschaft und Technik Information ist aber ein sehr vielschichtiger Begriff, der mathematisch nicht fassbar ist. Information: Der Begriff Information ist formal nicht definiert und eigentlich subjektiv. Eine Information ist die Bedeutung, die durch eine Nachricht übermittelt wird, und ist abhängig von vorhergegangenen Vereinbarungen. Information ist Gewinn an Wissen bzw beseitigt Ungewissheit oder Information ist beseitigte Unsicherheit Information wird durch eine Zuordnung ( Interpretation ) aus der Nachricht extrahiert und ist damit der semantische Gehalt einer Nachricht Die abstrakte Information wird durch die konkrete Nachricht mitgeteilt, d.h. die Information wird über eine Interpretationsvorschrift (Abbildungsvorschrift) aus der Nachricht abstrahiert bzw aus ihr herausgelesen. Bei gegebener Information kann es verschiedene Nachrichten geben, welche diese Information wiedergeben, z.b. kann die gleiche Information durch Nachrichten in verschiedenen Sprachen übermittelt werden. In der Kryptologie soll niemand Unbefugtes (ohne Schlüssel) der Nachricht die Information entnehmen können. Andererseits ist die Information einer Nachricht, bzw. deren Interpretation nicht unbedingt eindeutig z.b. die Bedeutung des Wortes "Erblasser" - Person die vererbt oder - Person die erbleicht Information kann man - mitteilen oder übertragen (über räumliche Distanz transportieren) - aufbewahren oder speichern (über zeitliche Distanz transportieren ) - verändern oder verarbeiten Erhalten u. Übertragen von Information ist an Erhalten u. Übertragen von Nachrichten gebunden und dies an die Übermittlung von Signalen oder Zeichen Nachricht: Gebilde aus Zeichen oder kontinuierlichen Funktionen, die aufgrund bekannter oder unterstellter Abmachung Informationen darstellen und die vorrangig zum Zweck der Weitergabe als zusammengehörig angesehen und deshalb als Einheit betrachtet werden. (DIN Teil 2) Als Sonderfall wird der Begriff Daten aufgefaßt, der sich nur durch die Zweckbestimmung von der Nachricht unterscheidet ( Informatik arbeitet mit Daten ) Daten (Datum /Datenelement) : Gebilde aus Zeichen oder kontinuierlichen Funktionen, die aufgrund bekannter oder unterstellter Abmachung Information darstellen, vorrangig zum Zweck der Verarbeitung oder als deren Ergebnis. Weitere Definitionen: Nachricht ist eine begrenzte Folge diskreter, einzelner Zeichen oder Zustände, die zur Übertragung von Information dienen Die Nachricht läßt sich als Folge von Zeichen auffassen, die von einem Sender (Quelle) ausgehend, in irgendeiner Form einem Empfänger (Senke) übermittelt wird. Während der Übermittlung ist auch immer die Möglichkeit eine Störung der Nachricht gegeben. Nachricht ist eine räumliche oder zeitliche Anordnung von Signalen, die zwischen Sender und Empfänger ausgetauscht werden. Quelle Übertragungsmedium Senke Störung Sender Nachrichtenkanal Empfänger

8 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar Signale sind die Darstellung von Nachrichten oder Daten mit physikalischen Mitteln, sie sind die Träger einer Nachricht. Signale sind die systematische Veränderung von Parametern einer physikalischen Größe in Raum oder Zeit nach vereinbarten Regeln. Ein Signalparameter ist diejenige Kenngröße des Signals, deren Wert oder Werteverlauf die Nachricht oder die Daten darstellt, z.b. die Amplitude einer amplitudenmodulierten Wechselspannung. Beispiele für physikalische Größen als Träger von Nachrichten: Physikalische Größe Veränderbare Parameter Spannung, Strom Feldstärke Reflexionsfähigkeit Durchlässigkeit Amplitude, Kurvenform,Frequenz Betrag, Richtung Reflexionsfaktor Transmissionsfaktor Ein analoges Signal ist ein Signal, dessen Signalparameter analoge Nachrichten oder Daten kontinuierlich abbildet (kontinuierliches Signal, stetiger Wertebereich). Es hat unendlich viele Signalwerte innerhalb des nutzbaren Signalbereiches analog = > entsprechend Darstellung einer Größe durch eine entsprechend andere z.b. Uhrzeit dargestellt durch den sehr anschaulichen Winkel der Uhrzeiger. Die Darstellung ist damit ein direktes Abbild der darzustellenden Größe Ein digitales Signal ist ein Signal, dessen Signalparameter eine Nachricht oder Daten darstellt, die nur aus Zeichen besteht bzw. bestehen (diskretes Signal). Bei einem digitalen Signal kann der Signalparameter nur endlich viele Werte annehmen. ( griechisch digitus = Finger ) Die Darstellung ist damit eine symbolische Beschreibung der darzustellenden Größe. Bei den in der Technik üblichen digitalen, binären Signalen sind es zwei Werte oder Wertebereiche ( 0 und 1, L und H oder true und false ). Binäre Signale sind technisch besonders einfach und kostengünstig zu realisieren. Wenn in der Technik allgemein von digital gesprochen wird, ist immer digital binär gemeint. Schnittstelle zwischen Elektrotechnik und Informatik: In der Natur fast nur analoge Signale- (Ausnahme Quantenphysik) In der Informatik die Verarbeitung digitaler, binärer Signale Eine digitale Nachricht ist eine aus den Zeichen eines Alphabets gebildete Zeichenfolge, also z:b. dieser schriftliche Text Zeichen oder Symbol: Element aus einer endlichen Menge von Objekten ( Zeichenvorrat, Alphabet), die zur Darstellung von Information vereinbart wurde. Ein Zeichen ( Symbol) ist ein Element eines Codes und wird durch eine bestimmte Anzahl von Signalen ( Code-Elemente ) dargestellt. Alphabet: Ein in vereinbarter Reihenfolge geordneter Zeichenvorrat Für die Informatik von großem Interesse ist das kleinste Alphabet mit einem binären Zeichenvorrat, der nur aus zwei Zeichen besteht, den Symbolen 0 und 1, auch Binärzeichen oder Bit ( binary digit = Binärziffer ) genannt. ( 0,1,2,3,4,5,6,7,8,9 ) Alphabet der Dezimalziffern ( a,b,c,...a,b,c,... ) Alphabet der Buchstaben ( rot, gelb, grün ) Alphabet der Verkehrsampelsignale

9 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar Code ist eine Vorschrift für die eindeutige Zuordnung (Codierung) der Zeichen eines Zeichenvorrates ( Urmenge, Quellalphabet ) zu denjenigen eines anderen Zeichenvorrates ( Bildmenge, Zielalphabet ). Auch die Bildmenge einer solchen Abbildung wird als Code bezeichnet Die Übersetzung aus der Urbildmenge in die Bildmenge heißt Codierung ( Verschlüsselung ), der umgekehrte Vorgang Decodierung ( Entschlüsselung ) Ist das Zielalphabet einer Codierung ein binäres Alphabet, so spricht man von einem Binärcode. Binärcodierung ist die Codierung irgendeines Alphabets durch Folgen von Binärzeichen und da alle denkbaren Alphabete sich durch Folgen von Binärzeichen ausdrücken lassen, ist es möglich, im Computer nur die Binärzeichen 0 und 1 zu benutzen und aus ihnen die ganze Vielfalt der zu verarbeitenden Daten aufzubauen. Codewort ist die aus der Codierung eines einzelnen Zeichens hervorgehende binäre Zeichenfolge. Beispiele: a) Die folgende Codetabelle zeigt eine von vielen Möglichkeiten, das Alphabet der zehn Dezimalziffern durch Gruppen von vier Binärziffern (Codewörter) zu codieren: Binär Dezimal b) Im 2-aus-5-Code wird die Dezimalziffer 4 eindeutig-umkehrbar durch die fünfstellige binäre Zeichenfolge abgebildet. Eine Zeichenfolge von 8 Binärziffern wird zusammengefaßt zu einem Byte: 1 Byte = 8 Bit Größere Zahlen von Bits oder Bytes kürzt man mit folgenden Größenfaktoren ab: Kilo 1 K = 2 10 = Kbit = 1024 Bit bzw 1Kbyte = 1024 Byte Mega 1 M = 2 20 = Mbyte = Byte Giga 1 G = 2 30 = Tera 1 T = 2 40 = Die binärcodierte Darstellung von Daten hat folgende Vorteile: Genauigkeit. Die digitale Darstellung kann durch Hinzufügen weiterer Binärziffern (Bits) beliebig genau gemacht werden. Geringe Störempfindlichkeit. Da binäre Symbole durch zweiwertige, physikalische Größen dargestellt werden, bleiben Störungen ohne Auswirkung, sofern sie eine bestimmte Größe nicht überschreiten. Speicherbarkeit. Bedingt durch die Zweiwertigkeit lassen sich binäre Werte hervorragend speichern. Verarbeitung digitale Funktionen für die Verarbeitung binärer Signale lassen sich technisch leichter miniaturisieren, integrieren und sehr viel kostengünstiger herstellen als analoge Funktionen, bei denen Streu-, Rausch-, Linearitäts- und Reproduzierbarkeits-Probleme auftreten.

10 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar 2.1 Digitalisieren Heutzutage werden mit dem Computer längst nicht mehr nur Zahlen verarbeitet, sondern alles was zähl- und meßbar ist wie Zahlen, Texte, Sprache, Musik, Bilder und viele andere physikalische Größen mit ihrem zeitlichen Verläufen werden von Computern verarbeitet. Um diese vielfältigen Informationen verarbeiten zu können, müssen diese zuerst in eine für den Computer gemäße Form umgewandelt werden, nämlich in digitale, binärcodierte Daten. Bei Informationen, die bereits in digitaler (diskreter) Form vorliegen, wie z.b. Zahlen und Texte erfordert dies nur noch eine entsprechende Binärcodierung, bei analogen physikalischen Größen ist diese Digitalisierung über eine Analog-Digital-Wandlung zu erzielen. A/D-Wandlung bedeutet, man rastert die stetige (kontinuierliche) physikalische Größe und die stetige Zeit und durch diese Diskretisierung ersetzt man einen unendlichen durch einen endlichen Wertevorrat. Die erhaltenen diskreten (digitalen) Daten werden danach nur noch binärcodiert. Diskretisierung Digitalisierung analoge Darstellung (durch eine geometrische oder physikalische Größe ) diskretisierte wertkontinuierliche (analoge ) Darstellung (diskret bezüglich Zeit und/oder Ort, unendlicher Wertevorrat ) digitale Darstellung durch Zahlen ( mehrwertiger, aber endlicher Wertevorrat ) (diskret bezüglich Zeit /Ort und Amplitude ) Codierung binäre, digitale Darstellung für Rechnerverarbeitung ( zweiwertige parallele oder serielle Darstellung ) Zusammenhang der Begriffe analog, diskretisiert, digital und binär Eine Temperaturkurve, ihre Diskretisierung und Digitalisierung Ein Bild, seine diskretisierte und seine digitalisierte Darstellung

11 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar 2.2 A/D-Wandlung Erzeugung der binärcodierten Darstellung ( Digitalisierung ) einer physikalischen Größe mit stetigem Wertebereich am abstrahierten Beispiel einer Analog-Digital-Wandlung U Analogsignal Signal kontinuierlich in Zeit und Wert Signal ->Spannung U Signalparameter -> Amplitude der Spannung Nachricht : Spannungsverlauf über der Zeit Information : Temperaturverlauf über der Zeit Interpretationsvorschrift : Temp = f ( U ) t U Abtastung (Entnahme kurzer Amplitudenproben zu äquidistanten Zeitpunkten) Signal diskret in Zeit, kontinuierlich im Wert Abtasttheorem (Shannon) Kein Informationsverlust wenn gilt: t Fabtast > 2 Fsignal_max U Quantisierung (Unterteilung des Wertebereiches in eine endliche Anzahl Intervalle) Signal diskret in Zeit und Wert digitales Signal (durch Zahlen darstellbar) Quantisierungsfehler durch Verfeinerung der Amplitudenstufung verringerbar t U Codierung (Wertestufen ersetzen durch binäres Codewort ) digitales, binäres Signal störunempfindlich durch nur noch zwei gültige Werteintervalle t Serielle (Übertragung) oder parallele (Verarbeitung) Realisierung möglich hier: serieller Zeichenstrom

12 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar 3. Informationstheorie Die von Shannon 1948 entwickelte Informationstheorie untersucht Darstellung, Speicherung und Austausch von Information mit Methoden aus der Wahrscheinlichkeitsrechnung und der mathematischen Statistik. Sie versucht ein Maß zu finden für den Informationsgehalt einer diskreten Nachricht. In Abgrenzung von dem sehr weit gefassten intuitiven Begriff "Information " befasst man sich in dem hier betrachteten speziellen Fall mit der mathematisch fassbaren Entscheidungsinformation, die ihrem Wesen nach statistischen Charakter trägt und nicht nach der semantischen Bedeutung oder dem Zweck einer Information fragt. 3.1 Informationsgehalt Mit dem Informationsgehalt möchte man ein Maß dafür finden, wieviel Information ein Zeichen trägt, um einen möglichst quantitativen Vergleich mit anderen zu haben und es im Hinblick auf seinen technischen Darstellungsaufwand bewerten zu können. Es gibt kein Instrument zur Messung des Informationsgehaltes, er kann nur berechnet werden. Eine diskrete Quelle erzeugt eine endliche Menge diskreter Symbole (Zeichen ). Für die Auftrittswahr - scheinlichkeit p(i) der voneinander unabhängigen Zeichen eines Alphabets ( Symbole einer diskreten Quelle ) gilt: E 0 p (i) 1 p(i) = 1 i= 1 p = 0 : völlige Ungewissheit ( Zeichen tritt nicht auf ) p = 1 : Gewißheit (nur dieses eine Zeichen, keine Information ) Statistisch unabhängige Zeichen liegen dann vor, wenn aus der Kenntnis eines Zeichens nicht auf das folgende Zeichen geschlossen werden kann. An die mathematische Beschreibung des statistischen Informationsgehaltes h(i) eines Zeichens i, das in einer Nachricht mit der Auftrittswahrscheinlichkeit p (i) vorkommt, stellt man nun folgende Forderungen: 1. Je seltener ein bestimmtes Zeichen i auftritt, d.h. je kleiner seine Auftrittswahrscheinlichkeit p (i) ist, desto größer soll der Informationsgehalt h (i) dieses Zeichens sein. Häufig auftretende Zeichen sollen also einen niedrigen Informationsgehalt haben, selten auftretende einen hohen, denn Information ist das Unerwartete und seltenere Zeichen bedeuten eine größere Überraschung beim Empfänger, übermitteln also mehr Information. Der Informationsgehalt h (i) muß demnach umgekehrt proportional der Wahrscheinlichkeit p(i) sein und streng monoton wachsen. h (i) ~ f ( 1 / p i ) 1 / p(i) = Überraschungswert 2. Die Gesamtinformation einer Zeichenfolge aus mehreren unabhängigen Zeichen soll gleich der Summe der Informationsgehalte der einzelnen Zeichen sein. Wobei die Auftrittswahrscheinlichkeit dieser Zeichenfolge gleich ist dem Produkt der Einzelwahrschein - lichkeiten p i der die Nachricht bildenden Zeichen. p (i 1 i 2 i 3 ) = p (i 1 ) * p (i 2 ) * p ( i 3 ) und es muß gelten h ( i 1 i 2 i 3 ) = h (i 1 ) + h ( i 2 ) + h ( i 3 ) Beispiel: p (e) = 0,3 ; p (h) = 0,1 Zeichenfolge e h e p (ehe) = p(e) * p(h) * p(e) = 0.3 * 0,1 * 0,3 = 0,009 und h ( e h e ) = h (e) + h (h) + h (e) 3. Weiter soll ein Zeichen i, das mit Sicherheit auftritt p (i ) = 1, keinen Informationsgehalt haben h (i ) = 0 denn es erscheint nur immer dieses eine gleiche Zeichen und das vermittelt keine Information. Die einfachste Funktion, welche diese Forderungen erfüllt, ist der Logarithmus log (x y ) = log x + log y log ( 1 ) = 0

13 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar Mit diesen Grundannahmen hat Shannon den Informationsgehalt h eines einzelnen Zeichens wie folgt definiert: h ( i ) = log b 1/p(i) = - log b p(i) Die Basis b des Logarithmus bestimmt lediglich den Maßstab, mit dem man Information messen möchte. Man kann die Basis b, die auch als Entscheidungsgrad bezeichnet wird, als die Anzahl der Zustände interpretieren, die in der Nachrichtenquelle angenommen werden können. In der Technik werden die Werte b= 2, b = 10 und b = e verwendet b = 2 h in [bit] mit log 2 = ld = Logarithmus dualis mit ld N = lg N b = 10 h in [dit /Hartley] mit log 10 = lg dekadischer Logarithmus b = e = [nit / nepit ] mit log e = ln natürlicher Logarithmus Da die meisten Taschenrechner die ld-funktion nicht aufweisen, kann man den ld Wert auch mit Hilfe des Dekadischen Logarithmus bestimmen: ld N = log 2 N = lg N / lg 2 = 3,322 * lg N Im Falle b = 2 entsprechen die beiden Zustände ( 0 und 1 ) einer computergemäßen binären Darstellung und der Informationsgehalt h(i) gibt die Anzahl der als Elementarentscheidungen bezeichneten Alternativ - entscheidungen an, die nötig sind um ein Zeichen eindeutig identifizieren zu können. Wichtig ist damit der Informationsgehalt speziell im binären : h(i) = ld 1/p(i) [bit] Die Einheit des Informationsgehaltes in Binärsystemen heißt bit ( basis information unit ). Nicht zu verwechseln mit der Einheit für die Darstellung von Daten durch binäre Zeichen Bit ( binary digit ). bit : abstrakt, kontinuierlich Bit: konkret, diskret (nur ganzzahlig ) Bit bit Informationsgehalt / Entropie Maßeinheit für Daten in binärer Darstellung Beispiel: In einem deutschsprachigen Text tritt der Buchstabe b mit der Wahrscheinlichkeit auf. Wie groß ist der Informationsgehalt dieses Zeichens? h (b) = ld (1/0.016) = 1/lg (2) * lg (1/0.016) = lg 6.25 = * = 5.97 bit Empfängt man eine Nachricht in Form eines Binärwortes, so ist für jedes der empfangenen Zeichen nacheinander die Elementarentscheidung zu treffen, ob es sich um das Zeichen 0 oder 1 handelt. Die Anzahl der Entscheidungen, also der Informationsgehalt des Zeichens, ist hier notwendigerweise mit der Anzahl der binären Stellen des Zeichens identisch. Einen derartigen Entscheidungsprozess kann man in Form eines Binärbaumes veranschaulichen. Der Sender (diskrete Quelle ) verfügt über ein Nachrichtenalphabet mit dem Elementarvorrat E, der Zahl der Zeichen des Quell-Alphabets. Dieses Quell-Alphabet wird auf ein Ziel-Alphabet ( Kanal-Alphabet, binär ) abgebildet und übertragen der Empfänger kehrt die Abbildung des Senders um und rekonstruiert die ursprüngliche Nachricht durch eine Anzahl von Binärentscheidungen (Alternativentscheidungen, Ja-Nein-Entscheidungen )

14 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar Sender Übertragungskanal Empfänger Zuordnung (Codierung) binär Zuordnung (Decodierung) Alphabet 1 Alphabet 2 Alphabet 2 Alphabet 1 A A B B C C D D E E F F G G H H Codetabelle Codetabelle Ein Alphabet mit der einheitlichen Stellenzahl n je Zeichen und mit B-Werten je Stelle hat den Elementarvorrat E = B n, das Alphabet besteht also aus E Zeichen Alphabet 1 : n = 1 B = 8 -> E = 8 Alphabet 2: n = 3 B = 2 -> E = 2 3 = 8 Beim Auswahlvorgang im Empfänger ( Decodieren ) wird ein Codebaum durchlaufen, indem die Stellen des empfangenen Zeichens durch Binärentscheidungen abgefragt werden. Codebaum (Binärbaum) des Auswahlvorgangs beim Empfänger durch Binärentscheidungen Empfangen: 100 -> 3 Binärentscheidungen -> E Alphabet 2 Alphabet A B C E F G H Damit kann man sich nun den Informationsgehalt eines Zeichens innerhalb eines Zeichenvorrates vorstellen als die Anzahl der Binärentscheidungen, die der Empfänger fällen muß, um dieses Zeichen zu ermitteln. Da in obigem Beispiel durch die Annahme von gleichwahrscheinlichen Elementen des Alphabets 1 alle Zeichen mit der gleichen Stellenzahl von 3 Bit binär codiert wurden, ist der Informationsgehalt und auch die Anzahl der Binärentscheidungen für jedes Zeichen gleich. Wenn die Auftrittswahrscheinlichkeit der Quellsymbole nicht mehr gleich ist (praktisch der Normalfall), so kann der Informationsgehalt h eines Quellsymbols angesehen werden als der für dieses Symbol erforderliche minimale binäre Codierungsaufwand in bit / Symbol, wobei eine nicht ganzzahlige binäre Stellenzahl [bit] natürlich nur als aufgerundeter ganzzahliger Wert [Bit] realisierbar ist.

15 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar 3.2 Entropie oder mittlerer Informationsgehalt Eine Nachricht setzt sich im allgemeinen aus Zeichen bzw. aus zu Worten verbundenen Zeichen zusammen, die mit unterschiedlicher Häufigkeit auftreten und damit einen unterschiedlichen Informationsgehalt tragen. Wenn nun die Zeichen eines Alphabetes mit unterschiedlicher Wahrscheinlichkeit auftreten, dann ist jetzt der durchschnittliche Informationsgehalt eines einzelnen Zeichens in einer langen Zeichenfolge von Interesse. Dies ist der sogn. Erwartungswert oder auch der Mittelwert der Informationsgehalte aller Zeichen. Wenn man in diesem Fall den Informationsgehalt h (i) für alle E Quellensymbole mit der zugehörigen Wahrscheinlichkeit p(i) gewichtete und aufsummiert, dann erhält man den Mittelwert der Information, den diese Quelle pro Symbol abgibt. Sei h(i) der Informationsgehalt des i-ten Zeichens und p(i) die Wahrscheinlichkeit, mit der dieses Zeichen auftritt, so ist der mittlere Informationsgehalt H, auch Entropie H genannt, gegeben durch E H = i= 1 p(i) h(i) E = i= 1 p(i) ld 1/p(i) E = - i= 1 p(i) ld p(i) [bit] H wird auch als mittlerer Entscheidungsgehalt pro Zeichen oder als Entropie der Nachrichtenquelle bezeichnet und gibt auch für die Codierung das Minimum der mittleren Binärstellenzahl an. Mit Hilfe der Variationsrechnung kann man zeigen, daß H dann maximal wird, wenn alle Zeichen des Alphabets ( Elementarvorrat E ) gleich wahrscheinlich sind mit p( i ) = 1 / E => H 0 = H max = = E i 1 E p(i) ld 1/p(i) = = i 1 (1 / E ) ld E = E *1 / E * ld E = ld E H 0 wird als Entscheidungsgehalt bezeichnet und ist in der Informationstheorie die maximale Information, die eine Quelle pro Symbol abgeben kann. D.h. jede Quelle, deren Symbole nicht gleichverteilt sind, sendet nicht die maximale Information pro Symbol und dies ist im allgemeinen bei realen Nachrichtenquellen der Fall. Damit verringert jede Abweichung von der Gleichverteilung den Informationsgehalt, d.h. die Quelle nützt dann die Möglichkeiten des Zeichenvorrates ( Elementarvorrat E ) nicht aus. Die Differenz zwischen dem Entscheidungsgehalt H 0 und dem mittleren Informationsgehalt H der Quelle wurde von Shannon als Redundanz der Quelle bezeichnet: R = H 0 H [ bit ] Quellen-Redundanz Diese Redundanz im informationstheoretischen Sinne wird auch als Redundanz vor der Codierung bezeichnet. Das bedeutet, eine Quelle enthält umso mehr Redundanz, je geringer ihr mittlerer Informationsgehalt H gegenüber dem Entscheidungsgehalt H 0 ist. Als Entropie des deutschen Alphabets hat man für 30 Buchstaben (Großbuchstaben und Leerzeichen ) unter der Annahme unabhängiger Zeichen einen Wert von H = 4,11 bit ermittelt. Bei der Berücksichtigung von Abhängigkeiten ergibt sich von Silben ( Silbenlänge = 3,03 Buchstaben, H = 2,8 bit ) über Wörter ( Wortlänge = 5,53 Buchstaben, H = 2,0 bit ) bis zur Statistik von Sätzen ( H = 1,6 bit ) ein sich immer weiter reduzierender mittlerer Informationsgehalt des deutschen Alphabets. Der errechnete Wert der Entropie H = 1,6 bit für die deutsche Schriftsprache besagt, daß man für die Codierung langer deutschsprachiger Texte nur 2 1,6 = 3 Symbole benötigen würde, die in den Codewörtern gleichhäufig auftreten müßten. Solche Texte wären natürlich völlig unverständlich bzw bei dem kleinsten Fehler von nur einem Symbol könnten sie vollständig unlesbar werden. Aber man könnte so die Quellenredundanz von R = H 0 H = ld 30 1,6 = 4,9 1,6 = 3,3 bit beseitigen.

16 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar 3.3 Mittlere Wortlänge und Codierungs-Redundanz Im allgemeinen Fall sind die Zeichen einer Nachricht nicht gleichwahrscheinlich. D.h. die einzelnen Zeichen des zugrundeliegenden Alphabets werden mit unterschiedlicher Häufigkeit in der Nachricht auftreten. Es ist naheliegend, die Codierung so zu wählen, daß für häufiger auftretende Zeichen des Quellalphabets kürzere Zeichen im binären Zielalphabet gewählt werden um insgesamt die Anzahl der Binärentscheidungen beim Empfang einer Zeichenfolge zu minimieren bzw. die mittlere Anzahl der Binärentscheidungen pro Zeichen zu minimieren (Codierung mit variabler Wortlänge ). Codewörter für Zeichen mit geringer Wahrscheinlichkeit enthalten demnach bei optimaler Codierung mehr Binärstellen als jene mit größerer Wahrscheinlichkeit. Mehr Binärstellen bedeuten mehr Binärentscheidungen und mehr Binärentscheidungen bedeutet mehr Informationsgehalt. Informationstheoretisch ausgedrückt: Es ist eine (binäre) Ersatzquelle durch Umcodieren so zu schaffen, daß die Auftrittswahrscheinlichkeit ihrer Symbole möglichst eine Gleichverteilung ergibt und die Ersatzquelle damit pro (binärem) Symbol ein Maximum an Information abgibt. Dieses Umcodieren ist möglich bei einem vermindertem Symbolvorrat (z.b. binär 0 und 1 ) der Ersatzquelle. Beispiel: Alphabet mit den vier Zeichen a, b, c, d Wahrscheinlichkeiten für deren Auftreten p(a) = ½, p(b) = ¼, p(c) = 1/8, p(d) = 1/8 Summe aller Wahrscheinlichkeiten = 1 Quelle bekannte Wahr- Überraschungs- Binärstellen- Informations- Ziel scheinlichkeit wert zahl gehalt Alphabet 1 p 1/p l = ld 1/p h = ld 1/p Alphabet 2 a ½ b ¼ c 1/ d 1/ Bei diesem Beispiel wurde jedes Zeichen mit seiner minimalen Binärstellenzahl l codiert und damit benötigt der Empfänger für die Decodierung jedes Zeichens eine andere Anzahl von Binärentscheidungen, als wenn man z.b. einheitlich mit der Binärstellenzahl 2 codiert hätte. H = p(a) ld 1/p(a) + p(b) ld 1/p(b) + p(c) ld 1/p(c) + p(d) ld 1/p(d) = H = 0.5 * * * * 3 = 1.75 bit Die Entropie H = 1.75 bit zeigt, daß die gewählte Codierung im Mittel weniger Binärentscheidungen bei der Auswahl eines Zeichens zur Folge hat, als bei Codierung aller vier Zeichen mit gleicher Binärstellenzahl von l = 2, was dem H max = H 0 = ld E = 2 bit entsprechen würde. Unter der mittleren Wortlänge L eines Codes versteht man die mit den Auftrittswahrscheinlichkeiten p(i ) gewichtete Summe der Längen l(i) der, den einzelnen Zeichen entsprechenden Codewörtern. E L = i= 1 p(i) l(i) [ bit ] Wobei l(i) für die Länge oder Stellenzahl des dem i-ten Zeichen entsprechenden Codewortes steht. Da in obigem Beispiel die Länge jedes Binärwortes l(i) gleich dem Informationsgehalt h(i) gewählt werden konnte (ganzzahlig, denn die Wahrscheinlichkeiten sind Zweierpotenzen), ist die mittlere Wortlänge L des Codes auch gleich dem mittleren Informationsgehalt H L = H = 1.75 bit

17 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar Shannonsches Codierungstheorem 1. Es gilt stets H < L 2. Jede Nachrichtenquelle kann so codiert werden, daß die Differenz L - H beliebig klein wird, wenn man sich nicht auf die Codierung von einzelnen Zeichen beschränkt, sondern Gruppen von Zeichen zusammenfasst, die möglichst übereinstimmende Auftrittswahrscheinlichkeiten haben. (aber L - H = 0 nur möglich, wenn die Wahrscheinlichkeiten p(i) reziproke Potenzen von 2 sind ) Die mittlere Wortlänge L eines Codes ist immer größer oder bestenfalls gleich dem mittleren Informationsgehalt H der Zeichen des Codes. Die Differenz zwischen mittlerer Wortlänge L und mittlerem Informationsgehalt H wird mit Redundanz R des Codes bezeichnet ( auch als Redundanz nach der Codierung ) R = L H [bit] mit R > 0 Codierungs-Redundanz Bezieht man die Redundanz R auf die mittlere Wortlänge L so erhält man die relative Redundanz r r = R / L manchmal auch in [%] In obigem Beispiel ist die mittlere Wortlänge L des Codes gleich dem mittleren Informationsgehalt H und damit die Redundanz nach der Codierung R = 0. Wären alle vier Zeichen des Codes mit gleicher Binärstellenzahl von 2 codiert worden, so ergäbe sich mit L = 2 die Redundanz R = L H = = 0.25 bit und r = oder r = 12.5 % Im folgenden wird für obiges Beispiel für die durch Umcodierung erzeugte binäre Ersatzquelle die Statistik ihrer beiden Binärsymbole berechnet: Eine Nachricht aus 8 Quellsymbolen besteht entsprechend der Auftrittswahrscheinlichkeiten aus 4 x a 4 x 0 2 x b 2 x 0 2 x 1 1 x c 1 x 0 2 x 1 1 x d 3 x 1 Summe 7 x 0 7 x 1 und damit weisen die beiden Binärsymbole 0 und 1 die gleiche Auftrittshäufigkeit von 50% auf. Somit wurde aus der Redundanz vor der Codierung (Quellredundanz) von R = H 0 H = 0,25 bit durch die binäre Umcodierung die Redundanz nach der Codierung (Codierungsredundanz) mit R = L H = 0 bit. Werden die 30 Zeichen des deutschen Alphabets mit 5 Bit gleichlang codiert ( H 0 = ld 30 = 4,91 bit ), so ergibt sich die Codierungs-Redundanz R bei der Annahme von unabhängigen Zeichen mit H = 4,11 bit zu R = L H = 5 4,11 = 0,89 bit r = 17,8 % ( siehe Seite 26 ) Dagegen ergibt eine Codierung anhand der Wahrscheinlichkeiten ( FANO-Codierung ) eine mittlere Wortlänge von L = 4,148 bit und damit nur noch eine Redundanz von R = 0,034 bit, r = 0,81 %. Redundanz bedeutet, daß mehr Bit übertragen werden als für die Nachrichtenübermittlung eigentlich benötigt werden und bedingt damit unausgenutzte Kapazität und erhöhte Kosten. Da in praktischen Fällen die einzelnen Zeichen fast nie gleich häufig auftreten, ist die Codierung mit fester Wortlänge meist redundand. Andererseits ermöglicht erst die Redundanz bei Übertragungsstörungen eine Fehlererkennung oder gar Fehlerkorrektur. Natürliche Sprachen weisen einen sehr hohen Grad an Redundanz auf, so daß sich zum Beispiel das Auslassen von Buchstaben oder Silben nicht unbedingt verständnismindernd auswirken muß.

18 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar Zusammenfassung Auftrittswahrscheinlichkeiten 0 p (i) 1 E i= 1 p(i) = 1 Informationsgehalt eines Zeichens h(i) = ld 1/p(i) [bit] Entropie, mittlerer Informationsgehalt E H = i= 1 p(i) h(i) E = i= 1 p(i) ld 1/p(i) E = - i= 1 p(i) ld p(i) [bit] Entscheidungsgehalt H 0 = H max = = E i 1 E p(i) ld 1/p(i) = = i 1 (1 / E ) ld E = E *1 / E * ld E = ld E Quellen-Redundanz R = H 0 H [ bit ] (vor der Codierung) mittlere Code-Wortlänge E L = i= 1 p(i) l(i) [ bit ] Codierungs-Redundanz R = L H [bit] mit R > 0 (nach der Codierung)

19 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar 3. 4 Tabelle zur Berechnung der Entropie H 2 (p) = p ld (1/p) + (1 p ) ld (1/1-p) p ld (1/p) p ld (1/p) H 2 (p) p ld (1/p) p ld (1/p) H 2 (p) 0, ,64 0, , , ,01 6, , , ,65 0, , , ,02 5, , , ,66 0, , , ,03 5, , , ,67 0, , , ,04 4, , , ,68 0, , , ,05 4, , , ,69 0, , , ,06 4, , , ,70 0, , , ,07 3, , , ,71 0, , , ,08 3, , , ,72 0, , , ,09 3, , , ,73 0, , , ,10 3, , , ,74 0, , , ,11 3, , , ,75 0, , , ,12 3, , , ,76 0, , , ,13 2, , , ,77 0, , , ,14 2, , , ,78 0, , , ,15 2, , , ,79 0, , , ,16 2, , , ,80 0, , , ,17 2, , , ,81 0, , , ,18 2, , , ,82 0, , , ,19 2, , , ,83 0, , , ,20 2, , , ,84 0, , , ,21 2, , , ,85 0, , , ,22 2, , , ,86 0, , , ,23 2, , , ,87 0, , , ,24 2, , , ,88 0, , , ,25 2, , , ,89 0, , , ,26 1, , , ,90 0, , , ,27 1, , , ,91 0, , , ,28 1, , , ,92 0, , , ,29 1, , , ,93 0, , , ,30 1, , , ,94 0, , , ,31 1, , , ,95 0, , , ,32 1, , , ,96 0, , , ,33 1, , , ,97 0, , , ,34 1, , , ,98 0, , , ,35 1, , , ,99 0, , , ,36 1, , , ,00 0, , , ,37 1, , , ,38 1, , , ,39 1, , , ,40 1, , ,97095 H 2 = Entropie einer binären Datenquelle 0,41 1, , , ,42 1, , , ,43 1, , , ,44 1, , , ,45 1, , , ,46 1, , , ,47 1, , , ,48 1, , , ,49 1, , , ,50 1, , , ,51 0, , , ,52 0, , , ,53 0, , , ,54 0, , , ,55 0, , , ,56 0, , , ,57 0, , , ,58 0, , , ,59 0, , , ,60 0, , , ,61 0, , , ,62 0, , , ,63 0, , ,95067

20 Rechnergrundlagen Teil Prof.Dipl.-Ing. Komar 4. Codierung Ein Code ist eine Zuordnungsvorschrift zwischen zwei Zeichenmengen. Den Vorgang der Zuordnung nennt man Codierung bzw Decodierung. Zweck einer Codierung ist die Umformung einer gegebenen Zeichenmenge in eine nach bestimmten Kriterien geeignetere Zeichenmenge. Diese Kriterien folgen aus den jeweiligen technischen Problemen bei der Übertragung, Verarbeitung, Speicherung und Geheimhaltung von Nachrichten bzw Daten. Die Auswahl eines geeigneten Codes ist abhängig von den Forderungen, die an die binären Daten bezüglich ihrer Speicherung, Übertragung oder Verarbeitung gestellt werden, z.b.. Codes zur effektiven Rechnung ( z.b. Dualcode ). Codes zur Datenübertragung und Speicherung ( prüfbare Codes ). Codes zur Meßwertaufnahme bzw A/D-Wandlung (Gray-Code ) Im folgenden sind einige Gesichtspunkte, die bei der Codierung von Bedeutung sind, zusammengestellt Bewertbarkeit Will man eine binär codierte Zahl in eine analoge Größe umwandeln, so ist dies besonders einfach, wenn jeder Binärstelle ein Gewicht oder eine Wertigkeit zugeordnet ist. Komplementierbarkeit Der übliche Weg, in einer Rechenanlage eine Subtraktion durchzuführen, ist die Komplement-Addition. Zum Rechnen sind deshalb Codes vorteilhaft, die das (B-1)-Komplement möglichst einfach bilden, beispielsweise durch Invertierung sämtlicher Bits. Einfache Konvertierbarkeit Binär verschlüsselte Dezimalzahlen müssen oft in Dualzahlen konvertiert werden. In diesem Fall ist es angenehm, wenn diese Konvertierung leicht möglich ist. Einfache Additionsregeln, Übertragsbildung Entsteht bei der Addition zweier Dezimalzahlen ein Übertrag zur nächsthöheren Dekade, so sollte bei der Addition der entsprechenden Codewörter ebenfalls ein Übertrag im (n+1)-ten Bit entstehen. Leichte Rundungsregeln durch leichte Unterscheidbarkeit von Zahlen, die größer und kleiner als 5 sind. Prüfbarkeit Leichte Erkennung von Verfälschungen eines Codewortes. Grundbegriffe Bewertbar heißt, jeder Binärstelle des Codewortes ist eine Wertigkeit zugeordnet. Als Gewicht eines Codeworts bezeichnet man die Anzahl der mit 1 belegten Stellen. Die Hamming-Distanz D zweier Codewörter entspricht der Anzahl der Binärstellen, die sich in diesen beiden Codewörtern ( Nutzwörtern ) unterscheiden Ein Code ist stetig, wenn die Hamming-Distanz zwischen zwei benachbarten Codewörtern über den gesamten Code hinweg konstant ist. Ein Code heißt einschrittig, wenn die Hamming-Distanz zweier benachbarter Codewörter konstant gleich eins ist. Redundanz bedeutet im Zusammenhang mit der Codierung, daß ein Code mehr Kombinationsmöglichkeiten besitzt als zur Codierung benutzt werden. R = L ld n n = Zahl der benutzten Kombinationen, Anzahl der Nutzwörter L = Wortlänge oder Anzahl der Binärstellen ( R = L - ld E E = Elementarvorrat )

Einführung in die Informatik

Einführung in die Informatik Einführung in die Informatik Geschichte und Einteilung der Informatik 01101101 01011001 11010011 10011000 00000011 00011100 01111111 11111111 00110100 00101110 11101110 01110010 10011101 00111010 2 Der

Mehr

D A T E N... 1 Daten Micheuz Peter

D A T E N... 1 Daten Micheuz Peter D A T E N.....! Symbole, Alphabete, Codierung! Universalität binärcodierter Daten! Elementare Datentypen! Speicherung binärcodierter Daten! Befehle und Programme! Form und Bedeutung 1 Daten Micheuz Peter

Mehr

Geschichte der Informatik

Geschichte der Informatik Entwicklung von Informationstechnik und Durchdringung des Alltags seit der 2. Hälfte des 20 Jahrhunderts explosionsartig Informationsgesellschaft Zunehmende Bedeutung und Wert von Informationen Schnelle

Mehr

Leseprobe. Taschenbuch Mikroprozessortechnik. Herausgegeben von Thomas Beierlein, Olaf Hagenbruch ISBN: 978-3-446-42331-2

Leseprobe. Taschenbuch Mikroprozessortechnik. Herausgegeben von Thomas Beierlein, Olaf Hagenbruch ISBN: 978-3-446-42331-2 Leseprobe Taschenbuch Mikroprozessortechnik Herausgegeben von Thomas Beierlein, Olaf Hagenbruch ISBN: 978-3-446-4331- Weitere Informationen oder Bestellungen unter http://www.hanser.de/978-3-446-4331-

Mehr

1. Entwicklung der Datenverarbeitung

1. Entwicklung der Datenverarbeitung 1. Entwicklung der Datenverarbeitung 1.1. Vom Abakus zum Pentium Schon im Altertum war man bestrebt, sich Hilfsmittel zu schaffen, die das Zählen und Rechnen erleichterten. Formulierung mechanischer Abläufe

Mehr

Grundlagen der Informatik 1

Grundlagen der Informatik 1 Grundlagen der Informatik 1 Prof. Dr. J. Schmidt Fakultät für Informatik GDI1 WS 2013/14 Kodierung, Kompression, Verschlüsselung Kodierung Überblick Vorlesung Kapitel 1: Einführung in die Informatik Kapitel

Mehr

Code-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg

Code-Arten und Code-Sicherung. Literatur: Blieberger et.al.: Informatik (Kap. 3 und 4), Springer-Verlag R.-H. Schulz: Codierungstheorie, Vieweg Codierungstheorie Code-Arten und Code-Sicherung Inhaltsübersicht und Literatur Informationstheorie Was ist eine Codierung? Arten von Codes Informationsgehalt und Entropie Shannon'sches Codierungstheorem

Mehr

Dr. Monika Meiler. Inhalt

Dr. Monika Meiler. Inhalt Inhalt 1 Vom Abakus bis zum Personal Computer... 1-2 1.1 Einleitung... 1-2 1.2 Geschichte der Informatik... 1-3 1.2.1 Rechenhilfsmittel... 1-3 1.2.2 Mechanische Rechenmaschinen... 1-3 1.2.3 0. Generation

Mehr

FHZ. K01 Geschichte des Computers. Lernziele. Hochschule Technik+Architektur Luzern. Inhalt

FHZ. K01 Geschichte des Computers. Lernziele. Hochschule Technik+Architektur Luzern. Inhalt Inhalt 1. Geschichte Folie 1 Lernziele Sie kennen die wichtigsten Punkte in der Geschichte des Computers Sie sind mit einigen Begriffen vertraut Folie 2 Seite 1 Computer als elektronische Rechenmaschine:

Mehr

Algorithmus, siehe (1)

Algorithmus, siehe (1) Der Computer als elektronische Rechenmaschine entstand in den vierziger Jahren des 20. Jahrhunderts. Die Gedankenwelt der Informatik lässt sich aber bedeutend weiter zurückverfolgen. Mit diesem Kapitel

Mehr

2. Digitale Codierung und Übertragung

2. Digitale Codierung und Übertragung 2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München Prof. Hußmann

Mehr

Codierung. H.-G. Hopf

Codierung. H.-G. Hopf Codierung H.-G. Hopf Inhalt Informationsübermittlung Codierung von Zeichen GDI: Codierung / 2 Inhalt Informationsübermittlung Codierung von Zeichen GDI: Codierung / 3 Ideale Kommunikation Übertragungskanal

Mehr

Ein polyadisches Zahlensystem mit der Basis B ist ein Zahlensystem, in dem eine Zahl x nach Potenzen von B zerlegt wird.

Ein polyadisches Zahlensystem mit der Basis B ist ein Zahlensystem, in dem eine Zahl x nach Potenzen von B zerlegt wird. Zahlensysteme Definition: Ein polyadisches Zahlensystem mit der Basis B ist ein Zahlensystem, in dem eine Zahl x nach Potenzen von B zerlegt wird. In der Informatik spricht man auch von Stellenwertsystem,

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

2 Informationstheorie

2 Informationstheorie 2 Informationstheorie Formale Grundlagen der Informatik I Herbstsemester 2012 Robert Marti Vorlesung teilweise basierend auf Unterlagen von Prof. emer. Helmut Schauer Grundbegriffe Informatik (IT: Information

Mehr

JKU Young Scientists Matheseminar

JKU Young Scientists Matheseminar JKU Young Scientists Matheseminar Matheseminar WS 2013/14 Codierung und Information Das grundlegende Problem der Kommunikation besteht darin, an einer Stelle entweder genau oder angenähert eine Nachricht

Mehr

FH Darmstadt FB Informatik Klausurensammlung Rechnergrundlagen Prof. Komar

FH Darmstadt FB Informatik Klausurensammlung Rechnergrundlagen Prof. Komar Matr.Nr.: Name: Leistungsnachweis Rechnergrundlagen SS 2006 Skripte, Umdrucke, Kopien, handschriftliche Aufzeichnungen und Taschenrechner sind zugelassen. Die Lösungs-Ergebnisse sind ausschließlich auf

Mehr

9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1

9 Codes. Hochschule für Angewandte Wissenschaften Hamburg FACHBEREICH ELEKTROTECHNIK UND INFORMATIK DIGITALTECHNIK 9-1 9 Codes 9.1 Charakterisierung und Klassifizierung Definition: Das Ergebnis einer eindeutigen Zuordnung zweier Zeichen- bzw. Zahlenmengen wird Code genannt. Die Zuordnung erfolgt über eine arithmetische

Mehr

4. Digitale Datendarstellung

4. Digitale Datendarstellung 4 Digitale Datendarstellung Daten und Codierung Textcodierung Codierung natürlicher Zahlen - Stellenwertsysteme - Konvertierung - Elementare Rechenoperationen Codierung ganzer Zahlen - Komplementdarstellung

Mehr

Übungsaufgaben für "Grundlagen der Informationsverarbeitung" (mit Lösungen)

Übungsaufgaben für Grundlagen der Informationsverarbeitung (mit Lösungen) Übungsaufgaben für "Grundlagen der Informationsverarbeitung" (mit Lösungen). Erläutern Sie die Begriffe Bit, Byte und Wort bezogen auf einen 6 Bit Digitalrechner. Bit: Ein Bit ist die kleinste, atomare,

Mehr

Informationsdarstellung im Rechner

Informationsdarstellung im Rechner Informationsdarstellung im Rechner Dr. Christian Herta 15. Oktober 2005 Einführung in die Informatik - Darstellung von Information im Computer Dr. Christian Herta Darstellung von Information im Computer

Mehr

Der Huffman Algorithmus

Der Huffman Algorithmus Der Huffman Algorithmus Für das Folgende setzen wir voraus, dass die Quellensymbole q ν einem Alphabet {q μ } = {A, B, C,...} mit dem Symbolumfang M entstammen und statistisch voneinander unabhängig seien.

Mehr

Im Original veränderbare Word-Dateien

Im Original veränderbare Word-Dateien Das Von-Neumann-Prinzip Prinzipien der Datenverarbeitung Fast alle modernen Computer funktionieren nach dem Von- Neumann-Prinzip. Der Erfinder dieses Konzeptes John von Neumann (1903-1957) war ein in den

Mehr

Zahlensysteme. Digitale Rechner speichern Daten im Dualsystem 435 dez = 1100110011 binär

Zahlensysteme. Digitale Rechner speichern Daten im Dualsystem 435 dez = 1100110011 binär Zahlensysteme Menschen nutzen zur Angabe von Werten und zum Rechnen vorzugsweise das Dezimalsystem Beispiel 435 Fische aus dem Teich gefischt, d.h. 4 10 2 + 3 10 1 +5 10 0 Digitale Rechner speichern Daten

Mehr

Zahlensysteme. Zahl 0 0 0 0 0 5 5. Stellenwert Zahl 0 0 0 0 0 50 5. Zahl = 55 +50 +5

Zahlensysteme. Zahl 0 0 0 0 0 5 5. Stellenwert Zahl 0 0 0 0 0 50 5. Zahl = 55 +50 +5 Personal Computer in Betrieb nehmen 1/6 Weltweit setzen die Menschen alltäglich das Zehnersystem für Zählen und Rechnen ein. Die ursprüngliche Orientierung stammt vom Zählen mit unseren 10 Fingern. Für

Mehr

Daten, Informationen, Kodierung. Binärkodierung

Daten, Informationen, Kodierung. Binärkodierung Binärkodierung Besondere Bedeutung der Binärkodierung in der Informatik Abbildung auf Alphabet mit zwei Zeichen, in der Regel B = {0, 1} Entspricht den zwei möglichen Schaltzuständen in der Elektronik:

Mehr

Grundlagen der Computertechnik

Grundlagen der Computertechnik Grundlagen der Computertechnik Aufbau von Computersystemen und Grundlagen des Rechnens Walter Haas PROLOG WS23 Automation Systems Group E83- Institute of Computer Aided Automation Vienna University of

Mehr

Informatik Mensch Gesellschaft. Historische Entwicklung der Informationstechnik (von Anfang bis Heute)

Informatik Mensch Gesellschaft. Historische Entwicklung der Informationstechnik (von Anfang bis Heute) Informatik Mensch Gesellschaft Historische Entwicklung der Informationstechnik (von Anfang bis Heute) Algorithmen-Automat Schritt-für-Schritt-Anleitung zum Lösen mathematischer Probleme kann immer wieder

Mehr

Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2

Grundlagen der Technischen Informatik. Codierung und Fehlerkorrektur. Kapitel 4.2 Codierung und Fehlerkorrektur Kapitel 4.2 Prof. Dr.-Ing. Jürgen Teich Lehrstuhl für Hardware-Software-Co-Design Technische Informatik - Meilensteine Informationstheorie Claude Elwood Shannon (geb. 1916)

Mehr

Grundlagen der Informatik 2 Grundlagen der Digitaltechnik. 1. Zahlensysteme

Grundlagen der Informatik 2 Grundlagen der Digitaltechnik. 1. Zahlensysteme Grundlagen der Informatik 2 Grundlagen der Digitaltechnik 1. Zahlensysteme Prof. Dr.-Ing. Jürgen Teich Dr.-Ing. Christian Haubelt Lehrstuhl für Hardware-Software Software-Co-Design Grundlagen der Digitaltechnik

Mehr

Formelsammlung. Wahrscheinlichkeit und Information

Formelsammlung. Wahrscheinlichkeit und Information Formelsammlung Wahrscheinlichkeit und Information Ein Ereignis x trete mit der Wahrscheinlichkeit p(x) auf, dann ist das Auftreten dieses Ereignisses verbunden mit der Information I( x): mit log 2 (z)

Mehr

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau

Codierung. Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Codierung Auszug aus dem Skript von Maciej Liśkiewicz und Henning Fernau Ein bisschen Informationstheorie Betrachten wir das folgende Problem: Wie lautet eine sinnvolle Definition für das quantitative

Mehr

DIGITALTECHNIK 04 ZAHLEN CODES

DIGITALTECHNIK 04 ZAHLEN CODES Seite 1 von 22 DIGITALTECHNIK 04 ZAHLEN CODES Inhalt Seite 2 von 22 1 CODIERUNG... 3 1.1 NUMERISCHE CODES... 4 1.2 WORTCODES... 4 1.3 DER DUALCODE... 5 1.4 DER GRAY-CODE... 5 1.5 ZIFFERNCODES (BCD-CODES)...

Mehr

GESCHICHTE DER COMPUTERTECHNIK

GESCHICHTE DER COMPUTERTECHNIK GESCHICHTE DER COMPUTERTECHNIK Rebekka Mönch Projekt ://reisefieber WS 2005/06 Bauhaus-Universität Weimar Ich glaube, dass es auf der Welt einen Bedarf von vielleicht fünf Computern geben wird. Künftige

Mehr

Aufbau und Funktionsweise eines Computers

Aufbau und Funktionsweise eines Computers Aufbau und Funktionsweise eines Computers Ein kurzer Überblick Informatik I 1 WS 2005/2006 Organisation der Hardware Architektur eines einfachen Computersystems mit Bus: Informatik I 2 WS 2005/2006 1 System-Architektur

Mehr

Einführung (0) Erster funktionsfähiger programmgesteuerter Rechenautomat Z3, fertiggestellt 1941 Bild: Nachbau im Deutschen Museum München

Einführung (0) Erster funktionsfähiger programmgesteuerter Rechenautomat Z3, fertiggestellt 1941 Bild: Nachbau im Deutschen Museum München Einführung (0) Erster funktionsfähiger programmgesteuerter Rechenautomat Z3, fertiggestellt 1941 Bild: Nachbau im Deutschen Museum München Einführung (1) Was ist ein Rechner? Maschine, die Probleme für

Mehr

Information in einem Computer ist ein

Information in einem Computer ist ein 4 Arithmetik Die in den vorhergehenden Kapiteln vorgestellten Schaltungen haben ausschließlich einfache, Boole sche Signale verarbeitet. In diesem Kapitel wird nun erklärt, wie Prozessoren mit Zahlen umgehen.

Mehr

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.

Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester

Mehr

Grundlagen der Technischen Informatik. 2. Übung

Grundlagen der Technischen Informatik. 2. Übung Grundlagen der Technischen Informatik 2. Übung Christian Knell Keine Garantie für Korrekt-/Vollständigkeit Organisatorisches Übungsblätter zuhause vorbereiten! In der Übung an der Tafel vorrechnen! Bei

Mehr

1. Grundlagen der Informatik Zahlensysteme und interne Informationsdarstellung

1. Grundlagen der Informatik Zahlensysteme und interne Informationsdarstellung 1. Grundlagen der Informatik Zahlensysteme und interne Informationsdarstellung Inhalt Grundlagen digitaler Systeme Boolesche Algebra / Aussagenlogik Organisation und Architektur von Rechnern Algorithmen,

Mehr

Zur Universalität der Informatik. Gott ist ein Informatiker. Die Grundordnung der Welt läßt sich mathematisch formulieren:

Zur Universalität der Informatik. Gott ist ein Informatiker. Die Grundordnung der Welt läßt sich mathematisch formulieren: Daten und ihre Codierung Seite: 1 Zur Universalität der Informatik Gott ist ein Informatiker Die Grundordnung der Welt läßt sich mathematisch formulieren: Naturgesetze, wie wir sie in der Physik, Chemie

Mehr

Kodierungsalgorithmen

Kodierungsalgorithmen Kodierungsalgorithmen Komprimierung Verschlüsselung Komprimierung Zielsetzung: Reduktion der Speicherkapazität Schnellere Übertragung Prinzipien: Wiederholungen in den Eingabedaten kompakter speichern

Mehr

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon

Mehr

Zahlendarstellungen und Rechnerarithmetik*

Zahlendarstellungen und Rechnerarithmetik* Zahlendarstellungen und Rechnerarithmetik* 1. Darstellung positiver ganzer Zahlen 2. Darstellung negativer ganzer Zahlen 3. Brüche und Festkommazahlen 4. binäre Addition 5. binäre Subtraktion *Die Folien

Mehr

Informatikgrundlagen I Grundlagen der Informatik I

Informatikgrundlagen I Grundlagen der Informatik I Informatikgrundlagen I Grundlagen der Informatik I Dipl.-Inf., Dipl.-Ing. (FH) Michael Wilhelm Hochschule Harz FB Automatisierung und Informatik mwilhelm@hs-harz.de http://mwilhelm.hs-harz.de Raum 2.202

Mehr

Repräsentation von Daten Binärcodierung ganzer Zahlen

Repräsentation von Daten Binärcodierung ganzer Zahlen Kapitel 3: Repräsentation von Daten Binärcodierung ganzer Zahlen Einführung in die Informatik Wintersemester 2007/08 Prof. Bernhard Jung Übersicht Repräsentation von Daten im Computer (dieses und nächstes

Mehr

Einführung in die Informatik I

Einführung in die Informatik I Einführung in die Informatik I Das Rechnen in Zahlensystemen zur Basis b=2, 8, 10 und 16 Prof. Dr. Nikolaus Wulff Zahlensysteme Neben dem üblichen dezimalen Zahlensystem zur Basis 10 sind in der Informatik

Mehr

Grundbegriffe der Informatik

Grundbegriffe der Informatik Grundbegriffe der 1. Begriff der Definition seit den 60er Jahren: Wissenschaft von der maschinellen Informationsverarbeitung (engl. Computer Sciences) a) Theoretische mathematisch-logische Grundlagen aller

Mehr

Lektion 1: Von Nullen und Einsen _ Die binäre Welt der Informatik

Lektion 1: Von Nullen und Einsen _ Die binäre Welt der Informatik Lektion 1: Von Nullen und Einsen _ Die binäre Welt der Informatik Helmar Burkhart Departement Informatik Universität Basel Helmar.Burkhart@unibas.ch Helmar Burkhart Werkzeuge der Informatik Lektion 1:

Mehr

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.

Mehr

15 Optimales Kodieren

15 Optimales Kodieren 15 Optimales Kodieren Es soll ein optimaler Kodierer C(T ) entworfen werden, welcher eine Information (z.b. Text T ) mit möglichst geringer Bitanzahl eindeutig überträgt. Die Anforderungen an den optimalen

Mehr

ODER I EINFÜHRUNG, GESCHICHTE, PROGRAMMIEREN. Marcel Götze

ODER I EINFÜHRUNG, GESCHICHTE, PROGRAMMIEREN. Marcel Götze GRUNDKURS INFORMATIK ODER WIE DENKEN INFORMATIKER? I EINFÜHRUNG, GESCHICHTE, PROGRAMMIEREN Marcel Götze Überblick 1. Organisatorisches 2. Themen und Ziele der Vorlesung 3. Übungen 4. Wb Web 5. Literatur

Mehr

Mathematik für Information und Kommunikation

Mathematik für Information und Kommunikation Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html

Mehr

Die Geschichte des Computers

Die Geschichte des Computers Inhaltsverzeichnis Der Vorbote des Computers... 3 Der Erfinder des ersten Computers... 3 Die Computer... 4 Der erste Computer Z1... 4 Der zweite Computer Z3... 5 Der Mark I... 6 Der ENIAC... 7 Der SSEC...

Mehr

Brückenkurs / Computer

Brückenkurs / Computer Brückenkurs / Computer Sebastian Stabinger IIS 23 September 2013 Sebastian Stabinger (IIS) Brückenkurs / Computer 23 September 2013 1 / 20 Content 1 Allgemeines zum Studium 2 Was ist ein Computer? 3 Geschichte

Mehr

BinärCode. Codealphabet: 0 ; 1 Codeworte : Dualzahlen

BinärCode. Codealphabet: 0 ; 1 Codeworte : Dualzahlen Codes Vorschrift für die eindeutige Zuordnung (= Codierung) der Zeichen eine Zeichenvorrats (Objektmenge) zu den Zeichen eines anderen Zeichenvorrats (Bildmenge). Zweck der Codierung: Anpassung der Nachricht

Mehr

4 Binäres Zahlensystem

4 Binäres Zahlensystem Netzwerktechnik achen, den 08.05.03 Stephan Zielinski Dipl.Ing Elektrotechnik Horbacher Str. 116c 52072 achen Tel.: 0241 / 174173 zielinski@fh-aachen.de zielinski.isdrin.de 4 inäres Zahlensystem 4.1 Codieren

Mehr

Codierung, Codes (variabler Länge)

Codierung, Codes (variabler Länge) Codierung, Codes (variabler Länge) A = {a, b, c,...} eine endliche Menge von Nachrichten (Quellalphabet) B = {0, 1} das Kanalalphabet Eine (binäre) Codierung ist eine injektive Abbildung Φ : A B +, falls

Mehr

DIGITALTECHNIK 02 ZAHLENSYSTEME

DIGITALTECHNIK 02 ZAHLENSYSTEME Seite 1 von 15 DIGITALTECHNIK 02 ZAHLENSYSTEME Inhalt Seite 2 von 15 1 ALLGEMEINES ZU ZAHLENSYSTEMEN... 3 1.1 ZAHLENSYSTEME... 3 1.2 KENNZEICHEN VON ZAHLENSYSTEMEN... 4 1.3 BILDUNGSGESETZE... 4 1.4 STELLENWERTSYSTEM...

Mehr

Das Rechnermodell von John von Neumann

Das Rechnermodell von John von Neumann Das Rechnermodell von John von Neumann Historisches Die ersten mechanischen Rechenmaschinen wurden im 17. Jahhundert entworfen. Zu den Pionieren dieser Entwichlung zählen Wilhelm Schickard, Blaise Pascal

Mehr

21.10.2013. Vorlesung Programmieren. Agenda. Dezimalsystem. Zahlendarstellung. Zahlendarstellung. Oder: wie rechnen Computer?

21.10.2013. Vorlesung Programmieren. Agenda. Dezimalsystem. Zahlendarstellung. Zahlendarstellung. Oder: wie rechnen Computer? Vorlesung Programmieren Zahlendarstellung Prof. Dr. Stefan Fischer Institut für Telematik, Universität zu Lübeck http://www.itm.uni-luebeck.de/people/pfisterer Agenda Zahlendarstellung Oder: wie rechnen

Mehr

IT-Consultant. Berater für Informationstechnologien

IT-Consultant. Berater für Informationstechnologien IT-Consultant Berater für Informationstechnologien Was sind Informationen? Information (lat. informare bilden, eine Form geben ) ist ein in vielen Lebensbereichen verwendeter Begriff. Als Gegenstand der

Mehr

Lineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19

Lineare Codes. Dipl.-Inform. Wolfgang Globke. Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19 Lineare Codes Dipl.-Inform. Wolfgang Globke Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 19 Codes Ein Code ist eine eindeutige Zuordnung von Zeichen

Mehr

Programmieren. Kapitel 2: Der Traum vom automatischen Rechnen ein Streifzug durch die Computergeschichte. Wintersemester 2008/2009

Programmieren. Kapitel 2: Der Traum vom automatischen Rechnen ein Streifzug durch die Computergeschichte. Wintersemester 2008/2009 Institut für Telematik Universität zu Lübeck Programmieren Kapitel 2: Der Traum vom automatischen Rechnen ein Streifzug durch die Computergeschichte Wintersemester 2008/2009 Prof. Dr. Christian Werner

Mehr

Informatik im Studiengang Allgemeiner Maschinenbau Sommersemester 2014

Informatik im Studiengang Allgemeiner Maschinenbau Sommersemester 2014 Informatik im Studiengang Allgemeiner Maschinenbau Sommersemester 2014 Prof. Dr.-Ing. habil. Peter Sobe Fakultät Informatik / Mathematik Zur Person: Prof. Dr.-Ing. habil. Peter Sobe Fakultät Informatik/Mathematik

Mehr

Algorithmen und Datenstrukturen 2

Algorithmen und Datenstrukturen 2 Algorithmen und Datenstrukturen 2 Sommersemester 2006 6. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@bioinf.uni-leipzig.de Datenkomprimierung Bei den meisten bisher betrachteten

Mehr

Grundlagen der Informatik

Grundlagen der Informatik Grundlagen der Informatik Prof. Dr. Bernhard Schiefer bernhard.schiefer@fh-kl.de http://www.fh-kl.de/~schiefer Wesentliche Inhalte Einführung Rechnergrundlagen Grundlagen der Programmierung Kern imperativer

Mehr

Kapitel 2 Grundlegende Konzepte. Xiaoyi Jiang Informatik I Grundlagen der Programmierung

Kapitel 2 Grundlegende Konzepte. Xiaoyi Jiang Informatik I Grundlagen der Programmierung Kapitel 2 Grundlegende Konzepte 1 2.1 Zahlensysteme Römisches System Grundziffern I 1 erhobener Zeigefinger V 5 Hand mit 5 Fingern X 10 steht für zwei Hände L 50 C 100 Centum heißt Hundert D 500 M 1000

Mehr

1. Geschichte des Computers

1. Geschichte des Computers 1. Geschichte des Computers Als erster Computer galt "Abakus", der vor rund 5 000 Jahren von den Chinesen erfunden wurde. Blaise Pascal (1623-1662): erfand 1643 einen Apparat, mit dem man einfache Additionen

Mehr

Im Original veränderbare Word-Dateien

Im Original veränderbare Word-Dateien Binärsystem Im Original veränderbare Word-Dateien Prinzipien der Datenverarbeitung Wie du weißt, führen wir normalerweise Berechnungen mit dem Dezimalsystem durch. Das Dezimalsystem verwendet die Grundzahl

Mehr

1. Übung - Einführung/Rechnerarchitektur

1. Übung - Einführung/Rechnerarchitektur 1. Übung - Einführung/Rechnerarchitektur Informatik I für Verkehrsingenieure Aufgaben inkl. Beispiellösungen 1. Aufgabe: Was ist Hard- bzw. Software? a Computermaus b Betriebssystem c Drucker d Internetbrowser

Mehr

Technische Informatik. Der VON NEUMANN Computer

Technische Informatik. Der VON NEUMANN Computer Technische Informatik Der VON NEUMANN Computer Inhalt! Prinzipieller Aufbau! Schaltkreise! Schaltnetze und Schaltwerke! Rechenwerk! Arbeitsspeicher! Steuerwerk - Programmausführung! Periphere Geräte! Abstraktionsstufen

Mehr

Repräsentation von Daten Binärcodierung von rationalen Zahlen und Zeichen

Repräsentation von Daten Binärcodierung von rationalen Zahlen und Zeichen Kapitel 4: Repräsentation von Daten Binärcodierung von rationalen Zahlen und Zeichen Einführung in die Informatik Wintersemester 2007/08 Prof. Bernhard Jung Übersicht Codierung von rationalen Zahlen Konvertierung

Mehr

Run Length Coding und Variable Length Coding

Run Length Coding und Variable Length Coding Fachbereich Medieninformatik Hochschule Harz Run Length Coding und Variable Length Coding Referat Matthias Zittlau 11034 Abgabe: 15.01.2007 Inhaltsverzeichnis 1. RLC...1 2.1 Einführung...1 2.2 Prinzip...1

Mehr

Elektromechanische Computer

Elektromechanische Computer Elektromechanische Computer Erfinder, ihre Biographien und Maschinen Konrad Zuse George Stibitz Howard Aiken Konrad Zuse: Biographie I Geburt: 22.06.1910 in Berlin 1928 Studium Maschinenbau (TH Berlin-Charl.),

Mehr

Technische Informatik - Eine Einführung

Technische Informatik - Eine Einführung Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Ausgabe: 2005-02-21 Abgabe: 2005-02-21 Technische Informatik - Eine

Mehr

Daten. Wichtige Informatik-Prinzipien. Informatik-Prinzipien Analoge & digitale Daten Zahlensysteme Zeichen-Codes Datensicherheit

Daten. Wichtige Informatik-Prinzipien. Informatik-Prinzipien Analoge & digitale Daten Zahlensysteme Zeichen-Codes Datensicherheit Daten Informatik-Prinzipien Analoge & digitale Daten Zahlensysteme Zeichen-Codes Datensicherheit Datenschutz www.allgemeinbildung.ch - 2.03.2009 Wichtige Informatik-Prinzipien () Digital-Prinzip Daten

Mehr

Binärcodierung Von den Trigrammen und Hexagrammen des Buchs der Wandlungen (I Ging) über Leibniz zum ASCII-Code Andreas Gramm

Binärcodierung Von den Trigrammen und Hexagrammen des Buchs der Wandlungen (I Ging) über Leibniz zum ASCII-Code Andreas Gramm FU Berlin, Institut für Informatik, WS 2001/02 Binärcodierung Von den Trigrammen und Hexagrammen des Buchs der Wandlungen (I Ging) über Leibniz zum ASCII-Code Andreas Gramm Inhalt Seite 1. Zur Bedeutung

Mehr

INFORMATION. Grundbegriffe

INFORMATION. Grundbegriffe INFORMATION Grundbegriffe Offensichtlich hat Informatik mit Information zu tun. Wir sprechen auch von Informationsverarbeitung, von Informationstechnologie *) und von Informationsgesellschaft. Was aber

Mehr

1 Vom Problem zum Programm

1 Vom Problem zum Programm 1 Vom Problem zum Programm Ein Problem besteht darin, aus einer gegebenen Menge von Informationen eine weitere (bisher unbekannte) Information zu bestimmen. 1 Vom Problem zum Programm Ein Algorithmus ist

Mehr

Technische Informatik I

Technische Informatik I Technische Informatik I Vorlesung 2: Zahldarstellung Joachim Schmidt jschmidt@techfak.uni-bielefeld.de Übersicht Geschichte der Zahlen Zahlensysteme Basis / Basis-Umwandlung Zahlsysteme im Computer Binärsystem,

Mehr

ABITURPRÜFUNG 2009 LEISTUNGSFACH INFORMATIK

ABITURPRÜFUNG 2009 LEISTUNGSFACH INFORMATIK ABITURPRÜFUNG 2009 LEISTUNGSFACH INFORMATIK (HAUPTTERMIN) Bearbeitungszeit: 270 Minuten Hilfsmittel: Wörterbuch zur deutschen Rechtschreibung Taschenrechner (nicht programmierbar, nicht grafikfähig) (Schüler,

Mehr

A1.7: Entropie natürlicher Texte

A1.7: Entropie natürlicher Texte A1.7: Entropie natürlicher Texte Anfang der 1950er Jahre hat Claude E. Shannon die Entropie H der englischen Sprache mit einem bit pro Zeichen abgeschätzt. Kurz darauf kam Karl Küpfmüller bei einer empirischen

Mehr

Prinzip 8 der von-neumann Architektur: (8) Alle Daten werden binär kodiert

Prinzip 8 der von-neumann Architektur: (8) Alle Daten werden binär kodiert Binäre Repräsentation von Information Bits und Bytes Binärzahlen ASCII Ganze Zahlen Rationale Zahlen Gleitkommazahlen Motivation Prinzip 8 der von-neumann Architektur: (8) Alle Daten werden binär kodiert

Mehr

Computergrundlagen Boolesche Logik, Zahlensysteme und Arithmetik

Computergrundlagen Boolesche Logik, Zahlensysteme und Arithmetik Computergrundlagen Boolesche Logik, Zahlensysteme und Arithmetik Institut für Computerphysik Universität Stuttgart Wintersemester 2012/13 Wie rechnet ein Computer? Ein Mikroprozessor ist ein Netz von Transistoren,

Mehr

Informatik Historie, Übersicht, Teilgebiete

Informatik Historie, Übersicht, Teilgebiete Informatik Historie, Übersicht, Teilgebiete Seite 1 Informatik als akademische Disziplin Informatik = Information + Automation (Karl Steinbuch) Informatique in Frankreich,... Computer Science in angels.

Mehr

Empfänger. Sender. Fehlererkennung und ggf. Fehlerkorrektur durch redundante Informationen. Längssicherung durch Paritätsbildung (Blockweise)

Empfänger. Sender. Fehlererkennung und ggf. Fehlerkorrektur durch redundante Informationen. Längssicherung durch Paritätsbildung (Blockweise) Datensicherung Bei der digitalen Signalübertragung kann es durch verschiedene Einflüsse, wie induktive und kapazitive Einkopplung oder wechselnde Potentialdifferenzen zwischen Sender und Empfänger zu einer

Mehr

Informatik und Informationstechnik (IT)

Informatik und Informationstechnik (IT) Informatik und Informationstechnik (IT) Abgrenzung Zusammenspiel Übersicht Informatik als akademische Disziplin Informations- und Softwaretechnik Das Berufsbild des Informatikers in der Bibliothekswelt

Mehr

Digitale Grundbegriffe

Digitale Grundbegriffe 1 Digitale Grundbegriffe Um den Begriff»digital«leichter verstehen zu können, ist es hilfreich, sich zuerst mit dem Gegenstück auseinanderzusetzen, der Analogtechnik, denn unser natürliches Umfeld verhält

Mehr

Grundlagen Digitaler Systeme (GDS)

Grundlagen Digitaler Systeme (GDS) Grundlagen Digitaler Systeme (GDS) Prof. Dr. Sven-Hendrik Voß Sommersemester 2015 Technische Informatik (Bachelor), Semester 1 Termin 10, Donnerstag, 18.06.2015 Seite 2 Binär-Codes Grundlagen digitaler

Mehr

Konzepte der Informatik

Konzepte der Informatik Konzepte der Informatik Vorkurs Informatik zum WS 2011/2012 26.09. - 30.09.2011 17.10. - 21.10.2011 Dr. Werner Struckmann / Christoph Peltz Stark angelehnt an Kapitel 1 aus "Abenteuer Informatik" von Jens

Mehr

Aufgaben zu Stellenwertsystemen

Aufgaben zu Stellenwertsystemen Aufgaben zu Stellenwertsystemen Aufgabe 1 a) Zähle im Dualsystem von 1 bis 16! b) Die Zahl 32 wird durch (100000) 2 dargestellt. Zähle im Dualsystem von 33 bis 48! Zähle schriftlich! Aufgabe 2 Wandle die

Mehr

BSZ für Elektrotechnik Dresden. Zahlenformate. Dr.-Ing. Uwe Heiner Leichsenring www.leichsenring-homepage.de

BSZ für Elektrotechnik Dresden. Zahlenformate. Dr.-Ing. Uwe Heiner Leichsenring www.leichsenring-homepage.de BSZ für Elektrotechnik Dresden Zahlenformate Dr.-Ing. Uwe Heiner Leichsenring www.leichsenring-homepage.de Gliederung 1 Überblick 2 Grundaufbau der Zahlensysteme 2.1 Dezimalzahlen 2.2 Binärzahlen = Dualzahlen

Mehr

Taschenbuch der Informatik

Taschenbuch der Informatik Taschenbuch der Informatik von Uwe Schneider 7., neu bearb. Aufl. Hanser München 01 Verlag C.H. Beck im Internet: www.beck.de ISBN 978 3 446 4638 Zu Inhaltsverzeichnis schnell und portofrei erhältlich

Mehr

2.2 Rechnerorganisation: Aufbau und Funktionsweise

2.2 Rechnerorganisation: Aufbau und Funktionsweise 2.2 Rechnerorganisation: Aufbau und Funktionsweise é Hardware, Software und Firmware é grober Aufbau eines von-neumann-rechners é Arbeitsspeicher, Speicherzelle, Bit, Byte é Prozessor é grobe Arbeitsweise

Mehr

Daten verarbeiten. Binärzahlen

Daten verarbeiten. Binärzahlen Daten verarbeiten Binärzahlen In Digitalrechnern werden (fast) ausschließlich nur Binärzahlen eingesetzt. Das Binärzahlensystem ist das Stellenwertsystem mit der geringsten Anzahl von Ziffern. Es kennt

Mehr

Leitung 1 Leitung 2 0 0 0 1 1 0 1 1

Leitung 1 Leitung 2 0 0 0 1 1 0 1 1 1 1 Vorbetrachtungen Wie könnte eine Codierung von Zeichen im Computer realisiert werden? Der Computer arbeitet mit elektrischem Strom, d. h. er kann lediglich zwischen den beiden Zuständen Strom an und

Mehr

Zahlensysteme Seite -1- Zahlensysteme

Zahlensysteme Seite -1- Zahlensysteme Zahlensysteme Seite -- Zahlensysteme Inhaltsverzeichnis Dezimalsystem... Binärsystem... Umrechnen Bin Dez...2 Umrechnung Dez Bin...2 Rechnen im Binärsystem Addition...3 Die negativen ganzen Zahlen im Binärsystem...4

Mehr

Informatikgrundlagen I Grundlagen der Informatik I

Informatikgrundlagen I Grundlagen der Informatik I Informatikgrundlagen I Grundlagen der Informatik I Dipl.-Inf. Michael Wilhelm Hochschule Harz FB Automatisierung und Informatik mwilhelm@hs-harz.de Raum 2.202 Tel. 03943 / 659 338 Fachbereich Automatisierung

Mehr

bereits in A,3 und A.4: Betrachtung von Addierschaltungen als Beispiele für Schaltnetze und Schaltwerke

bereits in A,3 und A.4: Betrachtung von Addierschaltungen als Beispiele für Schaltnetze und Schaltwerke Rechnerarithmetik Rechnerarithmetik 22 Prof. Dr. Rainer Manthey Informatik II Übersicht bereits in A,3 und A.4: Betrachtung von Addierschaltungen als Beispiele für Schaltnetze und Schaltwerke in diesem

Mehr