Werkzeuge für die körperliche Arbeit wurden in vorgeschichtlicher Zeit erfunden. Werkzeuge zur Unterstützung geistiger Arbeit... beurteile selbst!

Größe: px
Ab Seite anzeigen:

Download "Werkzeuge für die körperliche Arbeit wurden in vorgeschichtlicher Zeit erfunden. Werkzeuge zur Unterstützung geistiger Arbeit... beurteile selbst!"

Transkript

1 1 of :05 Computer und Physik, version dated :47: Einführung Etwas Geschichte Was ist ein Computer- was ein Algorithmus Realisierung Etwas Geschichte Werkzeuge für die körperliche Arbeit wurden in vorgeschichtlicher Zeit erfunden. Werkzeuge zur Unterstützung geistiger Arbeit... beurteile selbst! Ob es ein Zufall ist, dass die ersten Rechenautomaten Ende der sechzehnten Jahrhunderts, an der Türschwelle zum Zeitalter der Aufklärung, entstanden, oder ob ihre Ursache in dem entstehenden neuen Weltbild lag? Blaise Pascal und Gottfried Wilhelm Leibniz, beide Mathematiker und Philosophen ersten Ranges, erfanden die ersten mechanischen Rechenmaschinen, die Zahlen addieren und multiplizieren konnten. Die Automaten hatten keine "Speicher" und konnten daher auch nicht "programmiert" werden. Ihr Arbeitsprinzip geht im Grunde auf das des Abakus, des Rechenbretts der Antike zurück. Ihre Ururenkel waren noch in den 60-er Jahren unseres Jahrhunderts im Gebrauch; ich selbst lernte noch anlässlich einer Vorlesung über Numerik, mit einem solchen Gerät umzugehen. Es hatte einen Vorteil: es brauchte keinen Strom, sondern wurde durch Muskelkraft betätigt, nämlich durch die richtige Anzahl von Drehungen einer kleinen Kurbel. Mehr als anderthalb Jahrhunderte ist es her, dass Charles Babbage zuerst eine "Differenzen Maschine" und dann eine "Analytische Maschine" entworfen hat. Nach den Vorstellungen des Erfinders sollte sie durch Programmkarten gesteuert werden, und in der Lage sein, Schach und andere Spiele zu meistern. Die Maschine war, dem Kenntnisstand der Zeit entsprechend, voll mechanisch, mit einer Unzahl von kompliziert ineinander greifenden Zahnrädern und Schneckengängen. Zur großen Enttäuschung von Babbage fand sich niemand, der diese Maschine zu bauen bereit gewesen wäre. Dafür fand sich eine glühende Anhängerin, die seine Urheberschaft des Konzeptes einer programmierbaren Rechenmaschine der Nachwelt überlieferte: Lady Augusta Ada Lovelace, die Tochter Lord Byrons. Zum Dank dafür erinnert der Name einer Programmiersprache, ADA, an sie. Wie es weiterging, ist wohl allgemein bekannt. Um die Auswertung von Volkszählungen in den USA zu erleichtern, konstruierte Hermann Hollerith um die Jahrhundertwende (1896!) Maschinen, die Karten, in die an bestimmten Stellen Löcher gestanzt worden waren, in großer Menge "lesen" und "auswerten" konnten. Das war Anfang dieses Jahrhunderts. Er begründete 1896 die Firma Tabulating Machine Company, den Vorgänger von IBM (1911). Drei Jahrzehnte später, also etwa zur gleichen Zeit, als sich Alan Turing und John von Neumann mit dem mathematischen Konzept eines Computers zu befassen begannen, also Mitte der 30-er Jahre, begann Konrad Zuse, sich von der technischen Seite her Gedanken über die Entwicklung einer programmgesteuerten Rechenanlage zu machen; 1951 konnte der Relais-Rechner Zuse Z3 fertig gestellt werden. Vier Jahre vorher schon existierte jedoch der Electronic Numerical Integrator and Computer (elektronischer numerischer Integrator und Rechner) ENIAC. Und schon 1940 hatten John Vincent Atanasoff und sein Student Clifford Berry einen elektronischen Digitalcomputer gebaut, der lineare Gleichungen mit bis zu 29

2 2 of :05 Unbekannten lösen konnte. Der von John William Mauchly und John Presper Eckert Jr. konstruierte ENIAC war jedoch sicher der erste elektronische Vielzweck-Computer. Der Streit um die Elternschaft des ersten elektronischen Computers führte in den 70-er Jahren sogar bis vor ein amerikanisches Gericht, das Atanasoff als "Erfinder des Konzepts des automatischen Digitalcomputers" bestätigte. Der erste kommerzielle, mit Röhren ausgestattete, voll-elektronische Computer war dann die UNIVAC I (1951 ebenfalls unter der Leitung von Eckert und Mauchly fertig gestellt) und weitere, immer bessere und schnellere Computer folgten, sobald der Transistor die doch recht unsicheren Röhren ersetzte. Die ersten Prozessoren des Typs 4004 wurden von Intel 1971 auf den Markt gebracht. Die Geschichte des Personal Computers beginnt im PARC (Palo Alto Research Center, gegründet 1969) Anfang der 70er Jahre. Das PARC war damals eines der innovativsten Computerforschungszentren der USA. Der erste hier gebaute PC trug den Namen Altos; zur Vernetzung der Altos-Rechner wurde die Idee des LAN (Local Area Network) entwickelt, die dann zur Definition des Ethernet führte. 1976: Der erste "Apfel" erblickt in der Garage von Steve Jobs das Licht der Welt. 1981: Der erste PC wird von IBM vorgestellt; von Commodore ist der VC-20 Computer verfügbar, einen ersten Laptop gibt es auch schon (Osborne1). Seit Anfang der 70-er Jahre gibt es die so genannten Vektorrechner, zuerst in eher experimentellen Modellen, wie etwa die ILLIAC IV (1972) oder die STAR 100 (1974), der aber bald die kommerziell erfolgreicheren CRAY (ab 1976) und CYBER 205 (und 1987 deren Nachfolger ETA-10) Maschinen folgten.im letzten Jahrzehnt wurde die Vektorrechner-Idee auch im Design der einzelnen Prozessoren berücksichtigt und heute verwendet man Gruppen von Prozessoren in Parallelrechnern. Das können entweder Superrechner wie die Hitachi SR8000 (mit tausenden gleichzeitig arbeitender, vernetzter Knoten) sein, oder Cluster von mehreren, vernetzten Einzelrechnern. Diese Typen sind heute die schnellsten; ihre Spitzenleistungen sind die Durchführung von Millionen Millionen Gleitkomma-Operationen (Multiplikationen oder Additionen von Kommazahlen mit etwa 14 Dezimalstellen) pro Sekunde, also so genannte TeraFLOP-Rechner. FLOP steht dabei für Floating Point Operation und gilt als Einheit, um Rechenleistung zu messen. Nach einer Faustregel verdoppelt sich etwa alle zwei Jahre die Leistungsfähigkeit der elektronischen Bausteine. Vor einigen Jahren lag diese Leistungssteigerungsrate sogar bei einer Verdoppelung pro Jahr. Dieses exponentielle Wachstum kann nicht allzu lang anhalten, aber es zeigt dass wir uns in einer noch sehr stürmischen Entwicklungsphase befinden. Ein Nachteil solcher Phasen ist, dass man meist zu wenig Zeit hat, ruhig über Vorteile, Nachteile und Anwendungen nachzudenken. Oder, wie ein Physiker mir einmal gesagt hat: ``Wenn neue Computer zur Verfügung stehen, wird die Zeit damit verbraucht, die alten Programme dem neuen Computer anzupassen, oder neue, noch schnellere Programme zu schreiben. Das dauert seine Zeit. Bald danach kommt wieder ein besserer Computer und das Ganze beginnt von vorne. Wo bleibt dabei das Nachdenken über neue Physik?''.??? Antike Abakus: Rechenbrett, in der chinesischen Variante (Perlen in einem Rahmen) im fernen Osten noch heute verwendet Blaise Pascal Rechenmaschine (Staatl. Kunstsammlungen Dresden, Mathematisch-Physikalischer Salon; Rechenmaschine um 1650)

3 3 of :05 Gottfried Wilhelm Leibniz Charles Babbage Beschäftigte sich wie Pascal auch mit Rechenmaschinen. Diese hatten aber keine Speicher und waren nicht programmierbar: Sie waren Rechenhilfen Skizzierte eine "Differenzenmaschine" und eine "Analytische Maschine", die durch Programmkarten gesteuert werden sollte. Lady Augusta Ada Lovelace propagierte diese Maschine, die aber nicht gebaut wurde. Hermann Hollerith 1911 Erfand eine Lochkarten-gesteuerte Zähl- und Rechenmaschine, um die US Volkszählungen zu erleichtern Alan Turing 1936 Theoretisches Konzept des Algorithmus als Turing-Maschine John v. Neumann 193x Erste Skizze des Aufbaus eines Computers: "Von Neumann Maschine) Konrad Zuse John Vincent Atanasoff, Clifford Berry 1937 Entwurf eines Computers (1951: Relais-Rechner Z3) 1947 ENIAC (Electronic Numerical Integrator and Computer) U. S. Army Photo: Historic Computer Images

4 4 of : Die "Curta" war ein handlicher, mechanischer Rechner, mit dem man die Grundrechnungsarten mit 11 Stellen Genauigkeit ausführen konnte. (Foto aus einem Artikel des Scientific American, Jan. 2004, Cliff Stoll: "The Curious History of the First Pocket Calculator".) 1951 UNIVAC I, kommerzieller vollelektronischer Computer /elektron. Röhren) Sperry Rand, CDC,... ab 1951 Computer mit Transistortechnologie, z.b. CDC7600 (1969), später integrierte Schaltkreise ab 1972 Vektorrechner, z.b. ILLIAC IV (1972), STAR 100 (1974), Cray 1 (1976) ab 1980 Hochleistungsrechner, VLSI, z.b. Cyber 205, ETA 10, Cray XMP, Cray YMP ab ca Kleincomputer (PC) für Einzelpersonen, im kflop Bereich ab ca ab 1999 PCs für Jedermann im MFLOP Bereich Consumerelectronics Parallelrechner, hybride Systeme im GFLOP Bereich Hochleistungsrechner Parallel+Vektor, Cluster, im TFLOP Bereich Im Scientific American 285/6 (Dec. 2001) findet man einen Bericht über "Origins of Personal Computing". Der experimentelle Computer Whirlwind entstand am MIT aus einem 1944 begonnenen Projekt, in dem eigentlich ein Flugsimulator entwickelt wurde. Die Steuerung übernahm eben Whirlwind, fertiggestellt In Wien baute dann Heinz Zemanek die österreichische Variante Mailüfterl: Informationen zum österreichischen Beitrag zur Entwicklung von Transistor Rechenmaschinen. Kleincomputer (damals noch Kastengröße (die PDP 8 wog 125 kg) wurden in den 60-er und 70-er Jahren von PDP hergestellt gab es den Altair 8800 "World's First Minicomputer Kit to Rival

5 5 of :05 Commercial Models", basierend auf einem Intel 8080 Chip. Die beiden Steves (Jobs und Wozniak) hatten im April 1977 den ersten APPLE II fertig, mit Keyboard und ohne Monitor um damals 1200 USD erhätlich. Den ersten IBM PC gab es dann 1981, den Apple MActIntosh Weitere Informationsquellen sind Historic Computer Images Charles Babbage Institute Computer History Museum Vermutlich gibt es eine Web-Seite zum Abakus - Bitte um Hinweise! Ein interessantes Buch zur Debatte um Künstliche Intelligenz (AI = Articifial Intelligence), Bewusstsein und die Gesetze der Physik ist "Computerdenken" von Roger Penrose (Spektrumverlag). Im zweiten Kapitel setzt sich der Autor auch intensiv mit der Turingmaschine auseinander. Amüsant ist auch "Das Cambridge Quintett" von John L. Casti (Heyne, 2000), das ein fiktives Treffen von Haldane, Turing, Schrödinger, Snow, Wittgenstein in Cambridge inszeniert, und wo über AI diskutiert wird Was ist ein Computer - was ein Algorithmus? In diesem Abschnitt besprechen wir zunächst anhand von einfachen Beispielen die Idee eines Algorithmus und kommen dann zum mathematischen Modell: der Turing Maschine a Algorithmus Der Name stammt aus dem Arabischen (al-khuwarizmi, arabischer Mathematiker, ca. AD 825).Er bezeichnet eine Vorschrift, ein Problem auf eine eindeutige Art zu lösen. Ein Algorithmus ist so etwas wie das Konzept eines Automaten. Beispiele aus dem Alltag: Anleitung zum Zusammenbauen von Selbstbau-Möbeln Weniger gut gelungen: Bedienungsanleitung eines Walkman (lies selbst!) Vorschrift zur Berechnung der Summe der ersten n ganzen Zahlen ( n): Setze den Wert einer Variablen "Summe" auf 0 und einer Variablen "k" auf 1. Wiederhole folgende Schritte solange, bis k > n wird: Der Wert von Summe wird um k erhöht, also der neue Wert wird Summe:= Summe+k k + 1 wird der neue Wert von k, also k:=k+1 Schreibe das Ergebnis "Summe" aus. (Im letzten Beispiel haben wir das Symbol der Zuweisung ":=" verwendet, das auch durch einem Pfeil nach links ausgedrückt werden kann.) Aufgabe: Formuliere einen Algorithmus, bei dem n Zahlen eingelesen werden und dann sortiert und in sortierter Reihenfolge ausgegeben werden. Zerlege den Vorgang in kleine, einfache Teilschritte. Welche "Befehle" sind nötig? Aufgabe: Formuliere einen Algorithmus, bei dem die ganzen Zahlen eingelesen wird und dann n! ausgegeben wird (n! bezeichnet die mathematische Operation "n-fakultät oder n-faktorielle und ist das Produkt aller ganzen Zahlen von 1 bis n). Zerlege den Vorgang in kleine, einfache Teilschritte. Welche "Befehle" sind nötig? b Turing-Maschine

6 6 of :05 In den ersten Jahrzehnten unseres Jahrhunderts war eines der zentralen Probleme das, ob denn jedes Problem der Mathematik zumindest im Prinzip lösbar wäre. David Hilbert hatte für seine Kollegen eine Liste von offenen Fragen angelegt, und diese "Entscheidbarkeitsfrage" stand ungelöst im Raum. Kurt Gödel zeigte Anfang der 30-er Jahre, dass es in jedem widerspruchsfreien mathematischen System auch unbeweisbare Aussagen, also unlösbare Probleme geben muss. Um den Vorgang der Beweisführung und der "Lösung eines Problems" genauer zu definieren schlug 1936 Alan Turing ein mathematisches Modell für der Begriff "Algorithmus" (ein anderer Ausdruck für "Lösungsvorschrift und detaillierte Anleitung zur Konstruktion des Ergebnisses in jedem denkbaren Fall", vgl. A.Church and A.M. Turing (1936)) vor. Diese so genannte Turingmaschine stellt also eigentlich nur eine genaue Beschreibung eines Rechenvorgangs dar, hat aber den Vorteil, eine mathematisch saubere und praktikable Formulierung zu ermöglichen. Aus diesem Samen entwickelte sich ein neuer Zweig der Mathematik und, seit N.A. Chomsky, auch der Linguistik: die Automatentheorie und, damit in enger Verwandtschaft, die Theorie der formalen Sprachen. Eine Turingmaschine kann als das einfachste mathematische Modell eines Computers angesehen werden. In der Praxis sind auch die einfachsten Taschenrechner um vieles komplizierter, aber letztendlich könnten alle Rechenvorgänge auf einer Turingmaschine ausgeführt werden. Sie ist einfach zu beschreiben (vergl. Abbildung). Sie besteht aus einem Datenspeicher, wie zum Beispiel einem Magnetband, welches in viele kleine Abschnitte eingeteilt ist. Jeder solcher Abschnitte enthält irgendein Zeichen eines vorher vereinbarten Alphabets. Die Anordnung dieser Zeichen bestimmt dann später den Programmablauf, den Rechenvorgang. Die Turing-Maschine besteht aus Kontrolleinheit, Schreib/Lese-Kopf und einem unbeschränkt großen Speicherband. Vor diesem Speicher bewegt sich eine Kontrolleinheit mit einem Lese-Schreibkopf (LS-Kopf). Diese Kontrolleinheit kann mit Hilfe des LS-Kopfes also entweder an der Stelle des Speichers, an der sie sich gerade befindet, das entsprechende Zeichen lesen. Sie kann aber auch ein neues Zeichen dort hineinschreiben. Sie kann sich dem Speicher entlang um einen Schritt nach rechts oder nach links bewegen. Oder sie kann überhaupt nichts tun. Die Einheit hat ein einfaches inneres Gedächtnis. Es kann immer genau ein Zeichen aus einer weiteren Menge von Zeichen, dem Zustandsalphabet, enthalten, sie hat also immer einen bestimmten Zustand. Wie funktioniert dieser seltsame Apparat? Nun, die Regeln sind einfach diese: Der momentane Zustand (G) und das gelesene Zeichen (s) ergeben eine Aktion des LS-Kopfes (Zeichen schreiben (s') und bewegen (b')) und einen neuen Zustand der Kontrolleinheit (G'). Welche Aktion und welcher neue Zustand bewirkt werden, ist in einem vollständigen Regelsystem festgehalten. Die Kontrolleinheit kennt und befolgt genau diese Regeln.

7 7 of :05 Wie könnte eine solche Regel formal aussehen? Wir wollen sie wie folgt verschlüsseln: G, s -> (s',b') G' Um eine bestimmte Turingmaschine zu beschreiben, die ein bestimmtes Problem lösen soll, brauchen wir also: das Speicherband mit Daten des Problems, also Zeichen s aus einem Bandalphabet S die Kontrolleinheit mit dem Zustandsalphabet (G1, G2, usw.), und die Regeln (aus der Menge der Regeln Q), welche die Aktionen angeben; Aktionen sind das Schreiben eines Symbols und eine Bewegung nach links (b'=-), rechts (b'=+) oder keine Bewegung (b'=0). Betrachten wir ein sehr einfaches Problem: wir wollen ganze Zahlen N auf dem Speicherband durch N+1 Symbole "1" darstellen. Zum Beispiel seien auf dem Speicherband zuerst 15 Einsen, dann eine Null, und dann wieder eine Anzahl von Einsen, vielleicht 4 davon. Vorher und nachher kommen nur Nullen. Das Band sieht also so aus: Offenbar besteht unser Bandalphabet hier nur aus 0 und 1. Die beiden Reihen von Einsen entsprechen nach unserer Vereinbarung den Zahlen 14 und 3. Die Aufgabe besteht darin, diese Anzahl von Einsen als eine eine Addition 14+3=17 durchzuführen, also nach der "Rechnung" entsprechend unserer Darstellung insgesamt 18 Einser auf dem Speicherband zu finden. Ein Regelsystem, das diese Aufgabe erfüllt, ist folgendes: Zustandsalphabet={G1,G2,G3,G4,G5,G6}, dabei ist G1 der Anfangszustand und G6 der Endzustand, Bandalphabet={0,1} Regeln: G1, 1 (1,+) G1 G1, 0 (1,0) G2 G2, 1 (1,+) G2 G2, 0 (0,-) G3 G3, 1 (0,0) G4 G3, 0 kann nicht vorkommen G4, 1 kann nicht vorkommen G4, 0 (0,-) G5 G5, 1 (0,0) G6 G5, 0 kann nicht vorkommen Am Beginn des Rechenvorgangs soll der Schreib/Lese-Kopf auf dem von links ersten Zeichen "1" des Bandes stehen und die Kontrolleinheit im Zustand G1 sein. Man kann sich nun anhand dieser Regeln schrittweise die Arbeitsweise der Turingmaschine überlegen und sieht, dass tatsächlich am Ende die Zeichenfolge auf dem Speicherband auf scheint. Diese mathematische Konstruktion kann man noch weiterführen und sogar die Regeln einer Turingmaschine auf das Speicherband schreiben. Eine Maschine, die diese Regeln lesen und ihnen entsprechend eine Turingmaschine simulieren kann, sich also damit so wie eine Turingmaschine mit genau diesen Regeln verhalten kann, nennt man "universelle Turingmaschine". Man kann zeigen,

8 8 of :05 dass sich jeder digitaler Computer vom seriellen Typ (wir werden diese Einschränkung später genauer besprechen) durch solch eine universelle Turingmaschine beschreiben lässt. Hier ist ein Link zur Simulation einer Turing Maschine von Tril (a.k.a. Suzanne Britton/Skinner ). Versuche doch, dort die Regeln des Beispiels oben einzugeben und teste, ob der Algorithmus funktioniert! Es gibt auch weitere Beispiele für einfache Algorithmen auf dieser und anderen Webseiten. Weitere Links zu Turing und Turing Maschinen: The Alan Turing Internet Scrapbook The Alan Turing Homepage Kopie von Trils Applet, mit Kommentaren Nun ist das Konzept der Turing-Maschine gut für die Bedürfnisse der Mathematiker geeignet, wird aber dem Aufbau eines Computers, wie er in der Praxis vorkommt, nicht gerecht. Bald nach Turing hat jedoch John von Neumann eine "Von-Neumann-Maschine" beschrieben, die wirklich der Urtyp jedes Digitalrechners von heute ist. Die einfachsten Mikrocomputer, wie man sie auf einem einzigen Chip kaufen kann, haben im Grunde genau die Struktur dieses Modells c Von-Neumann - Maschine Eine Von-Neumann-Maschine hat folgende Teile: Speicher (auch Memory, abgekürzt M, genannt) Befehlseinheit (auch Controller oder Executor genannt, abgekürzt X) Recheneinheit (auch Accumulator, kurz A, oder auch arithmetisch-logische Einheit, ALU, genannt) Eingabe/Ausgabe Einheit (auch Input/Output Unit, kurz I/O, genannt) In der Skizze sind diese Komponenten und der Fluss der Befehle und Daten dargestellt. Man findet dort auch einen externen Speicher, der zum Beispiel eine Magnetbandstation, ein Drucker, aber auch einfach ein Bildschirmarbeitsplatz sein kann. Zwischen den vier Teilen findet ein Transfer von Befehlen und Daten statt, deren Richtung in der Skizze durch Pfeile mit unterbrochenen oder vollen Linien angedeutet wird. Die Skizze stellt die wichtigsten Elemente der Von-Neumann-Maschine dar: das Modell für die meisten Computer.

9 9 of :05 Die Befehlseinheit enthält auch einen kleinen Speicher, der die Adresse des jeweils nächsten auszuführenden Befehls im Speicher enthält, das so genannte "Adressregister". Wir wollen dabei davon ausgehen, dass alle Befehle durch entsprechende Zahlen im Speicher dargestellt werden können. Der Einfachheit halber soll der Speicher M in kleine Einheiten eingeteilt sein, die wir "Speicherworte" oder nur kurz "Worte" nennen. Daten und Befehle können so in diesen Worten in M gespeichert sein; mehr darüber werden wir später erfahren. Ein Befehl auf der Von-Neumann-Maschine wird folgend ausgeführt: X fordert und erhält vom M den nächsten Befehl entsprechend der angegebenen Befehlsadresse und erhöht das Adressregister um einen Schritt X entschlüsselt diesen Befehl Nun führt X, je nach Befehlsart, eine der nächsten vier Operationen durch: (a) Ein Operand (Daten- oder Befehlswort) wird aus M nach A gebracht; A erhält die Kontrolle, um eine Rechenoperation durchzuführen. Es kann dabei auch das Adressregister und damit die Adresse des nächsten Befehls verändert werden. (b) Ein Operand wird aus A nach M gebracht. (c) Eine Eingabe (zum Beispiel ein Datenwort) wird von I/O akzeptiert und nach M gebracht. (d) Ein Ausgabewort wird von M nach I/O gesandt. Nach diesen drei Schritten beginnt die Maschine wieder beim ersten Punkt. Da die Befehlsadresse sich inzwischen aufgrund der Befehlsausführung geändert haben kann, besteht die Möglichkeit, vorherbestimmte Befehlsfolgen, also "Programme" abzuarbeiten. Wenn man die beiden schematischen Darstellungen der Turing-Maschine und der Von-Neumann-Maschine vergleicht, so ist natürlich klar, dass auch die Von-Neumann-Maschine vom Turing Typ ist: Man kann A, X, und I/O zur Kontrolleinheit zusammenfassen. Allerdings ist die Von-Neumann-Maschine lebensnäher und kann uns als Modell für wirkliche Rechenautomaten dienen. Aufgabe A1 Aufgabe A2 Aufgabe A3 Aufgabe A4 Aufgabe A5 Weitere Hinweise: Unter folgendem Links findet man weiter Infos zu Johann von Neumann und der Von-Neumann-Maschine Lernmaterialien zur technischen Informatik Ein Beispiel für Automaten sind die so genannten "zellulären Automaten", bei denen sich Werte in "Zellen" nach bestimmten Regeln ändern. Ein sehr bekannter zellulärer Automat ist Conway's Spiel des Lebens. Man kann beweisen, dass dieser Automat (und andere ähnliche) auch eine universelle Turingmaschine sind. Link zu Spiel des Lebens Realisierung Die hier behandelten Themen sind: Die wichtigsten Komponenten Die Entwicklung der elektronischen Komponenten

10 10 of :05 Mikrocomputer, PCs, Großcomputer, Consumer Electronics a Die wichtigsten Komponenten Die Von-Neumann-Maschine ist die Vorlage für heutige Computer, wobei zwei der Bauteile (X und A) in der technischen Realisierung zu einem (dem Prozessor) zusammengefasst sind. Die wichtigsten Komponenten sind Mikroprozessor Memory Das ist die Befehls- und Recheneinheit kombiniert.diversen Leitungen verbinden den Chip mit andren Bauteilen. Der Timer ist der Taktgeber, er bestimmt die Geschwindigkeit mit der der Computer arbeitet. Skizze eines Prozessors und seiner Verbindung zu anderen Bauteilen oder zum "Rest der Welt". Datenbus und Adressbus sind parallele Leitungen zum Speicher und zu Eingabe- und Ausgabe-Schnittstellen (I/O). Besonders wichtig sind Reset- und Interrupt-Leitungen, auf denen Signal zum Neustart oder zur bestimmten Unterbrechungen (wenn etwa neue Daten einlaufen, zum Beispiel eine Taste gedrückt wurde) ankommen. Die ersten 1-Chip-Prozessoren gehörten zur "8-Bit"-Familie. Der Datenbus war 8 Bit (1 Byte) breit, der Adressbus 16 Bit (es konnte also ein Adressenbereich von 0 bis angesprochen werden) und die internen Rechenregister waren 8 oder 16 Bit breit. Beispiele dafür sind die Intel 8080 und 8085 Prozessoren, ebenso Zilog Z80, Motorola M6502 und so weiter (1970er und frühe 1980er Jahre). Typische Taktraten waren 1-8 MHz und Befehle dauerten zwischen (einfacher Befehl) bis zu 8 Takten. Die weitere Entwicklung ging zu breiteren Daten- und Adress-Busstrukturen sowie größeren Rechenregistern (16 Bit Familie: Z8000, Intel 8086, Motorola 68000; 32 Bit Familie: Intel 386,...), bis zur 64 Bit-Familie (z.b. Itanium)und sogar so genannten RISC (Reduced Instruction Set) Prozessoren mit 128 Bit Breite. Meist findet man auf demselben Chip auch einen sehr schnellen "integrierten" Speicher (derzeit zwischen 64 und 512 KB groß), den so genannten "Cache". Im Unterschied zum Hauptspeicher, wo jeder Zugriff einige Rechentakte Zeit erfordert, kann hier viel rascher auf zwischengespeicherte Daten zugegriffen werden. Eine weitere Stufe ist der second-level Cache, eine im Prinzip externer weitere Speicherbausteine, der aber auch schneller als der Hauptspeicher arbeitet und über eigene Datenleitungen vom Prozessor direkt angesprochen wird. Diese wurde zwar bei den ersten Großcomputern in Worte (zum Beispiel mit Wortlängen von 36 Bit bei der Univac) eingeteilt, inzwischen hat sich aber die Einheit Byte (1 Byte=8 Bit) durchgesetzt. Da 2^10=1024 nahe bei 1000 liegt haben sich die folgenden Abkürzungen eingebürgert:

11 11 of :05 1 KByte 1024 Byte, ungefähr 1000 Byte 1 MByte 1024*1024 Byte, ungefähr 10^6 Byte 1 GByte ungefähr 10^9 Byte 1 TByte ungefähr 10^12 Byte Das ist leider oft verwirrend: 1 KByte = 1 KB = 1024 Bytes, 1 Kb = 1 KBit = 1024 Bits. Folgende Notation scheint gebräuchlich zu sein: b für Bit und B für Byte. K steht für 1024 (2^10) (und k für 1000). Heute (2002) übliche Speicherbausteine bei PCs habe etwa 64Mb bis 512Mb Größe. Von der Technik her unterscheidet man zwischen statischem Speicher (es bleibt auch erhalten, wenn nur minimale Spannung herrscht) und dynamischem Speicher (dessen Information verloren geht, wenn sie nicht andauernd aufgefrischt wird). Keine Sorge, für die richtige Behandlung sorgt dein Computer automatisch. Einige gebräuchliche Bezeichnungen sind noch RAM ROM PROM EPROM EEPROM EAPROM Random Access Memory (der Hauptspeicher, oft der Arbeitsspeicher), meist ein dynamischer Speicher (nach obiger Klassifikation); wenn man die Stromzufuhr abschaltet, gehen die Informationen darin verloren Read Only Memory (Festwertspeicher, wird vom Hersteller mit festen Werten vorgegeben) Programmable ROM; das kannst du selbst programmieren und "einbrennen" Erasable PROM, kann auch (durch Bestrahlung mit UV-Licht) wieder gelöscht werden Electrically erasable PROM, kann auch (elektrisch) wieder gelöscht werden Erasable EPROM, bei dem man einzelne Speicherzellen ändern kann Mit den oben genannten Komponenten werden meist Speicherchips gemeint; obwohl also auch eine CD formal ein ROM (ober bei Beschreibbarkeit PROM) ist, so wird doch eigentlich nur ein Speicherchip so bezeichnet. Der Hauptspeicher, das "RAM", ist in heutigen PCs meist zwischen 32Mb und 512Mb (manchmal bis zu 2 Gb) groß. Übrigens passieren natürlich auch bei der Speicherung Fehler. Um zu vermeiden, dass du das merkst, werden mehr Bit als absolut notwendig gespeichert, also zum Beispiel 37 Bit statt 32 Bit zur Speicherung von 4 Bytes. Richard Hamming hat ein Schema von Kontrollbits entwickelt, mit deren Hilfe man feststellen kann, ob 1 oder zwei Bit dieser 32 Bit falsch sind (denke als Beispiel dafür an die Bit-Quersumme, die so genannte Parität, ob die Zahl der 1-Bit also gerade oder ungerade ist). Mit 7 Kontrollbits kann man erkennen, ob bis zu zwei der 32 Bit falsch sind, und ein falsches Bit kann man sogar korrigieren! Diese Kontrolle wird automatisch durchgeführt, auch wenn das memory "gelesen", also Bits übertragen werden. Wenn Fehler auftreten, wird die Übertragung wiederholt. Nur wenn zu viele Fehler erkannt werden, wird eine Warnung gemeldet. Eingabe/Ausgabe = Input/Ouput = I/O Dies bezeichnet die Verbindung mit allen anderen internen oder externen Komponenten, also Tastatur, Bildschirm, Harddisk (Plattenspeicher), Modem und so weiter. Die Verbindung erfolge eben über den "Bus", das sind Kontroll-, Adress- und Daten-Leitungen.

12 12 of :05 Abbildung: Busstruktur eines einfachen Mikrocomputers Die I/O Bausteine (Interfaces) dekodieren die vom Prozessor übergebenen Adressen und identifizieren sie mit bestimmten externen Geräten. Die Daten werden dann entweder auf parallelen Leitungen oder oder hintereinander (seriell, sequenziell) weitergereicht. Diese Datenkanäle müssen natürlich Normen folgen (zum Beispiel die Norm der RS232 Schnittstelle für den seriellen Kontakt zum Modem). Die Interrupt-Leitung(en) signalisieren das Eintreffen externer Signale. Aufgabe A1 Aufgabe A b Die Entwicklung der elektronischen Komponenten Der Weg ging bisher von Vakuumröhren über Transistoren, Integrierten Schaltkreisen, Chips bis zu den heute üblichen sehr dicht gepackten Chips. Wann? "Generation" Technologie Taktraten Generation Vakuumröhren 10 khz Generation Transistoren 1 MHz Generation IC (Integrated Circuit), Komponenten auf einem Chip 10 MHz Generation LSI (large scale integration) > 10^4-10^5 Komponenten pro Chip 20 MHz Generation VLSI (very large scale integration) > 10^4-10^5 Komponenten^pro Chip 100 MHz heute x. Generation 10^9 Transistoren pro Chip 2 GHz Dichtere Packung von Transistoren (und die benötigt man zur Speicherung und zum Rechnen, wie später noch besprochen wird) hat einige Vorteile: Höhere Rechen- und Speicherleistung, schnellere Schaltgeschwindigkeit und kürzere Verbindungen. Die Lichtgeschwindigkeit entspricht einer Weglänge von 30 cm in einer nsec (10^(-9) Sekunden, also 1 Takte bei einer Taktrate von 1 GHz). Da die Geschwindigkeit von Elektronen im Halbleiter zumindest eine Faktor 2 kleiner ist, können Leitungslängen beim Computer-Design schon wichtig sein Die Packungsdichte auf einem Chip bestimmt also auch seine Leistungsfähigkeit. Bei Speicherchips braucht man etwa 2 Komponenten pro abgespeichertem Bit. Gordon Moore hat 1978 eine "Gesetz" formuliert, das natürlich (ähnlich wie die berühmten "Gesetze" von Murphy) kein Naturgesetz, sondern eine aus der Erfahrung gewonnene Daumenregel ist: "Alle zwei Jahre verdoppelt sich die Zahl der Komponenten der Speicherbausteine". Das ist natürlich nicht so, wie bei den Mäusen gemeint. Sie können sich also leider nicht einfach hinsetzen, und warten, bis der Speicher Ihres Computers auf das Doppelte angewachsen ist. Was gemeint ist, ist die Rasanz der technischen Weiterentwicklung. Waren wir um 1978 bei Chips mit ungefähr Komponenten ( Bits Speicherleistung) so hat diese Verdoppelung uns im Jahr 2002 Chips mit 2 Milliarden Komponenten und einer Speicherleistung von 1 Milliarde Bits beschert. Die Erfahrung hat gezeigt, dass die Integrationsdichte der Speicherbausteine auch ein Maß

13 13 of :05 dafür ist, wie raffiniert man die Recheneinheit bauen kann. Moore's Law Folgende Information habe ich von einer (nun nicht mehr verfügbaren) Web-Seite der Firma Intel heruntergeladen: Gordon Moore made his famous observation in 1965, just four years after the first planar integrated circuit was discovered. The press called it "Moore's Law" and the name has stuck. In his original paper, Moore predicted that the number of transistors per integrated circuit would double every 18 months. He forecast that this trend would continue through Through Intel's technology, Moore's Law has been maintained for far longer, and still holds true as we enter the new century. The mission ofintel's technology development team is to continue to break down barriers to Moore's Law. Intel Prozessor Typ Jahr der Fertigstellung Anzahl der Transistoren , , , , , [tm) processor , [tm) D X processor ,180,000 processor ,100,000 Pentium II processor ,500,000 Pentium III processor ,000,000 Pentium 4 processor ,000,000

14 14 of :05 Die unten stehenden Diagramme stammen aus einem Vortrag von Horst Simon (Director des NERSC). Den vollständigen Beitrag findest du im Netz unter Horst Simon: The Future of Scientific Computing (June 2000) Hier zuerst ein Überblick und Vergleich von Prozessoren mit Memory-Chips. Diese sind in ihrer Struktur einfacher und können daher in höherer Packungsdichte erzeugt werden. Das hat natürlich auch Auswirkungen auf High Performance Computing (HPC): Die Leistungssteigerung war nur durch starke Verkleinerung der einzelnen Transistoren (Komponenten) auf den integrierten Schaltkreisen möglich. Zur Zeit sind diese ungefähr 0.2 Mikrometer groß. Das ist nahe der vermuteten technologischen Grenze.

15 15 of :05 Die Zahl der Elektronen pro Bauteil-Komponente nimmt allerdings rapide ab und stellt so prinzipielle physikalische Grenze für die weitere Miniaturisierung dar. Hier ist eine Kopie einer Seite aus dem Artikel "The first Nanochips" von G. D. Hutcheson, aus dem Scietific American (April 2004,p 48 ff):

16 16 of :05 Weitere Fotos von Prozessoren findet man bei Bernd Leitenbergers Web Site c Mikrocomputer, PCs, Großcomputer, Consumer Electronics Mikrocomputer bestehen aus nicht viel mehr, als den wichtigsten Elementen (Prozessor, Speicher, I/O Funktion) und werden meist in einfachen Fällen, wie etwa zur Regelung von Geräten eingesetzt. Personalcomputer (PCs) sind eine Erfindung der 80er Jahre und haben sich Ende des 2. Jahrtausends rasant durchgesetzt. Sie haben eine Ausstattung, die ihr alle kennt, denn viele haben so ein Gerät daheim oder am Arbeitsplatz. Die Leistungsfähigkeit heutiger PCs ist vergleichbar mit der von Großcomputern der 80er Jahre,

17 17 of :05 allerdings nur was die Rechengeschwindigkeit und den Speicher betrifft. Großcomputer dienen meist für zentrale Aufgaben wie Mail-Serving (also Mailknoten), File-Serving (Zentrale Datenbanken und Speicher), Kommunikationsknoten (Verbindung mit externen Netzwerken) und - im Falle wissenschaftlicher Rechner - wirklich großer Rechenleistung. Die Rechenleistung kann durch Verbesserung der Einzelprozessoren verbessert werden, aber davon profitieren auch PCs. Bei Großcomputern geht man meist von einer Erweiterung des Von-Neumann Konzeptes aus. Dabei gibt es folgende Varianten: SISD (kurz für Single Instruction stream to Single Data stream): eine einfache, serielle Folge von Befehlen bearbeitet eine einfache Folge von Daten. Dies ist der Prototyp der Von-Neumann-Maschine. SIMD (kurz für Single Instruction stream to Multiple Data stream): eine serielle Folge von Befehlen bearbeitet gleichzeitig oder im Pipeline-Verfahren mehrere parallele Folgen von Daten. Das verläuft wie auf einer Galeere: einer gibt die Kommandos und viele Sklaven arbeiten gleichzeitig; jeder Sklave hat zwar ein anderes Ruder, aber macht das gleiche wie seine Kollegen. Es gibt also eine Befehlseinheit, aber mehrere Recheneinheiten, die im Takt die Operationen ausführen. MIMD (kurz für Multiple Instruction stream to Multiple Data stream): eine Gruppe von unabhängig arbeitenden Kontroll- und Recheneinheiten bearbeitet Daten, die aus verschiedenen Speichern oder Teilen eines gemeinsamen Speichers kommen können. Das ist ein System von miteinander vernetzten Einzelcomputern. Bei geschickter Programmierung kann man so einen enormen Geschwindigkeitsgewinn erzielen. Diese neuen Konzepte wurden ab Mitte der 70er Jahre zuerst in den so genannten Vektorrechnern und Parallelrechnern eingesetzt. Für die meisten dieser parallelen Rechenkonzepte fehlte zuerst die notwendige Erfahrung, um sie optimal einzusetzen. Die meisten der verbreiteten Programmiersprachen erlaubten keine Parallelität. Der Fortschritt in der Entwicklung geeigneter Algorithmen ist langsam aber stetig. Die neuen Varianten von Programmiersprachen erlauben schon parallele Behandlung von Daten (wie etwa in Matrix-Vektor-Multiplikationen). Alle diese Maschinen-Typen sind also realisiert, und wir werden in später Beispiele dafür erwähnen. Wozu braucht man Großcomputer, Supercomputer, Hochleistungscomputer oder wie man eben jeweils dazu sagt? Die Antwort umfasst alle Probleme, die globales Verhalten vieler kleinen Teile behandelt: Wetter und Klima: Wie Luft, Wasser, Staub sich verhalten weiß man, aber das trickreiche Zusammenhang vieler Volumenelemente, die sich ergebenden Strömungen und Turbulenzen und vieles mehr ist nur durch äußerst aufwändige Rechnungen zu berechnen. Da man gerne jetzt wissen will, wie das Wetter morgen aussieht, und nicht erst nächste Woche, muss der Computer leistungsfähig genug sein. Die Auswirkungen auf die Landwirtschaft sind enorm und die Ernährung der Welt kann durch eine effiziente Vorhersage beeinflusst werden. Entwicklung neuer Flugzeuge und Fahrzeuge: Simulationen im Windkanal sind aufwändig, teuer und zeitraubend. Man kann kaum für jede kleinste Modifikation ein neues Modell bauen. Manche Eigenschaften sind überhaupt nicht messbar, da eine Messung die Eigenschaft selbst verändern würde (z.b. ein Temperaturfühler die Temperatur!) Computersimulation haben den Innovationsszyklus enorm gesteigert. Chemie und Pharmazie: Je besser man die Grundlagen der Zellbiologie und -chemie versteht, desto besser kann man die Reaktion von Zellen und in weiterer Folge ganzer Organe und Organismen "berechnen". Man kann neue Medikamente entwickeln, die man durch Versuchsreihen nie gefunden hätte - und man kann Versuche mit Lebewesen einschränken! Grundlagenforschung: Mein Arbeitsgebiet ist die Physik der fundamentalen Teilchen und Kräften die Elementarteilchenphysik. Dort, aber auch in vielen anderen Gebieten der Astrophysik, Festkörper-

18 18 of :05 (Halbleiter)-Physik und Statistischen Physik erlauben Computer-"Simulationen" Experimente ohne Experimentiergeräte und damit enorme Fortschritte im Verständnis unserer Welt. Und so geht die Entwicklung von Großcomputern weiter. Der " Earth Simulator " wurde 2002 in Japan vom Elektronikonzern NEC entwickelt und hat eine Rechenleistung von 36 TFLOPS ( Rechenoperationen pro Sekunde). IBMs " Blue Gene " soll bis zu Einzelprozessoren mit einer Rechenleistung von 1 PetaFLOPS (10^15 FLOPS) aufweisen. Schließlich zum Abschluss eine Bemerkung. Computer umgeben uns, manchmal in beängstigendem Ausmaß: Uhr, Taschenrechner, Telefon, Autoelektronik, PC, TV, Video, Raumheizung, Waschmaschine und vieles mehr. Kühlschränke werden demnächst Buchhaltung über den Inhalt führen und um Milchnachschub eine an den Lieferanten senden.es gibt Kaffeemaschinen ( Lavazza and edevice ), die man per aktivieren kann.und es gibt schon Klobrillen, die diverse Monitor-Funktionen übernehmen ("Sie müssen endlich abnehmen. Und überhaupt, was haben Sie gestern Ungesundes gegessen?") (Quelle: H. Simon, CCP2001; quotes G. Bell: Salishan Lecture) Hier noch eine zeitgemäße Alternative zum eigenen Kind: Aibo, wuff, uwff! O, wonder! How many goodly creatures are there here! How beauteous mankind is! O brave new world That has such people in't! (W. Shakespeare, The Tempest, Act V, Scene i) Aufgabe A3 Aufgabe A4

Informatik Mensch Gesellschaft. Historische Entwicklung der Informationstechnik (von Anfang bis Heute)

Informatik Mensch Gesellschaft. Historische Entwicklung der Informationstechnik (von Anfang bis Heute) Informatik Mensch Gesellschaft Historische Entwicklung der Informationstechnik (von Anfang bis Heute) Algorithmen-Automat Schritt-für-Schritt-Anleitung zum Lösen mathematischer Probleme kann immer wieder

Mehr

Brückenkurs / Computer

Brückenkurs / Computer Brückenkurs / Computer Sebastian Stabinger IIS 22 September 2014 1 / 24 Content 1 Allgemeines zum Studium 2 Was ist ein Computer? 3 Geschichte des Computers 4 Komponenten eines Computers 5 Aufbau eines

Mehr

Einführung in die Informatik

Einführung in die Informatik Einführung in die Informatik Geschichte und Einteilung der Informatik 01101101 01011001 11010011 10011000 00000011 00011100 01111111 11111111 00110100 00101110 11101110 01110010 10011101 00111010 2 Der

Mehr

Algorithmus, siehe (1)

Algorithmus, siehe (1) Der Computer als elektronische Rechenmaschine entstand in den vierziger Jahren des 20. Jahrhunderts. Die Gedankenwelt der Informatik lässt sich aber bedeutend weiter zurückverfolgen. Mit diesem Kapitel

Mehr

Brückenkurs / Computer

Brückenkurs / Computer Brückenkurs / Computer Sebastian Stabinger IIS 23 September 2013 Sebastian Stabinger (IIS) Brückenkurs / Computer 23 September 2013 1 / 20 Content 1 Allgemeines zum Studium 2 Was ist ein Computer? 3 Geschichte

Mehr

Die Geschichte des Computers

Die Geschichte des Computers Inhaltsverzeichnis Der Vorbote des Computers... 3 Der Erfinder des ersten Computers... 3 Die Computer... 4 Der erste Computer Z1... 4 Der zweite Computer Z3... 5 Der Mark I... 6 Der ENIAC... 7 Der SSEC...

Mehr

FHZ. K01 Geschichte des Computers. Lernziele. Hochschule Technik+Architektur Luzern. Inhalt

FHZ. K01 Geschichte des Computers. Lernziele. Hochschule Technik+Architektur Luzern. Inhalt Inhalt 1. Geschichte Folie 1 Lernziele Sie kennen die wichtigsten Punkte in der Geschichte des Computers Sie sind mit einigen Begriffen vertraut Folie 2 Seite 1 Computer als elektronische Rechenmaschine:

Mehr

Im Original veränderbare Word-Dateien

Im Original veränderbare Word-Dateien Das Von-Neumann-Prinzip Prinzipien der Datenverarbeitung Fast alle modernen Computer funktionieren nach dem Von- Neumann-Prinzip. Der Erfinder dieses Konzeptes John von Neumann (1903-1957) war ein in den

Mehr

Computer-Generationen

Computer-Generationen (K.Zuses Z3, 1941) (Vorschlag) Generation Beispiel Technologie Geschw./Speich. Software Vorgeneration Z3 Elektro- 0,0002 MIPS Verdrahtet 1941-1944 Mark1 mechanik 1.Generation ENIAC, Z22 Elektronen- 0,02

Mehr

GESCHICHTE DER COMPUTERTECHNIK

GESCHICHTE DER COMPUTERTECHNIK GESCHICHTE DER COMPUTERTECHNIK Rebekka Mönch Projekt ://reisefieber WS 2005/06 Bauhaus-Universität Weimar Ich glaube, dass es auf der Welt einen Bedarf von vielleicht fünf Computern geben wird. Künftige

Mehr

Herzlichen Glückwunsch!... 9

Herzlichen Glückwunsch!... 9 Inhalt Einführung Herzlichen Glückwunsch!...................... 9 Teil I Darwins Algorithmus 1. Geradewegs ins Chaos....................... 17 2. Was Darwin nicht wusste..................... 36 3. Die

Mehr

1. Geschichte des Computers

1. Geschichte des Computers 1. Geschichte des Computers Als erster Computer galt "Abakus", der vor rund 5 000 Jahren von den Chinesen erfunden wurde. Blaise Pascal (1623-1662): erfand 1643 einen Apparat, mit dem man einfache Additionen

Mehr

Das Rechnermodell von John von Neumann

Das Rechnermodell von John von Neumann Das Rechnermodell von John von Neumann Historisches Die ersten mechanischen Rechenmaschinen wurden im 17. Jahhundert entworfen. Zu den Pionieren dieser Entwichlung zählen Wilhelm Schickard, Blaise Pascal

Mehr

1. Entwicklung der Datenverarbeitung

1. Entwicklung der Datenverarbeitung 1. Entwicklung der Datenverarbeitung 1.1. Vom Abakus zum Pentium Schon im Altertum war man bestrebt, sich Hilfsmittel zu schaffen, die das Zählen und Rechnen erleichterten. Formulierung mechanischer Abläufe

Mehr

L3. Datenmanipulation

L3. Datenmanipulation L Datenmanipulation Aufbau eines Computers Prozessor, Arbeitsspeicher und system Maschinensprachen und Maschinenbefehle Beispiel einer vereinfachten Maschinensprache Ausführung des Programms und Befehlszyklus

Mehr

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

Ausarbeitung Seminarvortrag High-Performance-Computing WS 2011/2012

Ausarbeitung Seminarvortrag High-Performance-Computing WS 2011/2012 Ausarbeitung Seminarvortrag High-Performance-Computing WS 2011/2012 Matthias Bott 9. Januar 2012 2 VOM PC ZUM HPC 2 1 Movtivation Auf die Frage, wofür Computer in der Kernphysik benötigt werden, gibt es

Mehr

Halbleiterspeicher. Halbleiterspeicher. 30.09.2008 Michael Kuhfahl 1

Halbleiterspeicher. Halbleiterspeicher. 30.09.2008 Michael Kuhfahl 1 Halbleiterspeicher 30.09.2008 Michael Kuhfahl 1 Gliederung I. FF als Speicher (1 Bit) II. Register als Speicher (n Bit) III. Anordnung der Speicherzellen IV. SRAM V. DRAM VI. ROM VII. PROM VIII. EPROM

Mehr

Geschichte der Informatik

Geschichte der Informatik Entwicklung von Informationstechnik und Durchdringung des Alltags seit der 2. Hälfte des 20 Jahrhunderts explosionsartig Informationsgesellschaft Zunehmende Bedeutung und Wert von Informationen Schnelle

Mehr

Die Erfindung der ersten Computer und Vergleich der Intentionen der Erfinder

Die Erfindung der ersten Computer und Vergleich der Intentionen der Erfinder Die Erfindung der ersten Computer und Vergleich der Intentionen der Erfinder Konrad Zuse John Atanasoff John Mauchly Inwiefern ist Konrad Zuse der Erfinder des Computers? von Ivo Adrian Knabe 20. März

Mehr

Dr. Monika Meiler. Inhalt

Dr. Monika Meiler. Inhalt Inhalt 1 Vom Abakus bis zum Personal Computer... 1-2 1.1 Einleitung... 1-2 1.2 Geschichte der Informatik... 1-3 1.2.1 Rechenhilfsmittel... 1-3 1.2.2 Mechanische Rechenmaschinen... 1-3 1.2.3 0. Generation

Mehr

2.2 Rechnerorganisation: Aufbau und Funktionsweise

2.2 Rechnerorganisation: Aufbau und Funktionsweise 2.2 Rechnerorganisation: Aufbau und Funktionsweise é Hardware, Software und Firmware é grober Aufbau eines von-neumann-rechners é Arbeitsspeicher, Speicherzelle, Bit, Byte é Prozessor é grobe Arbeitsweise

Mehr

Programmieren. Kapitel 2: Der Traum vom automatischen Rechnen ein Streifzug durch die Computergeschichte. Wintersemester 2008/2009

Programmieren. Kapitel 2: Der Traum vom automatischen Rechnen ein Streifzug durch die Computergeschichte. Wintersemester 2008/2009 Institut für Telematik Universität zu Lübeck Programmieren Kapitel 2: Der Traum vom automatischen Rechnen ein Streifzug durch die Computergeschichte Wintersemester 2008/2009 Prof. Dr. Christian Werner

Mehr

Einführung (0) Erster funktionsfähiger programmgesteuerter Rechenautomat Z3, fertiggestellt 1941 Bild: Nachbau im Deutschen Museum München

Einführung (0) Erster funktionsfähiger programmgesteuerter Rechenautomat Z3, fertiggestellt 1941 Bild: Nachbau im Deutschen Museum München Einführung (0) Erster funktionsfähiger programmgesteuerter Rechenautomat Z3, fertiggestellt 1941 Bild: Nachbau im Deutschen Museum München Einführung (1) Was ist ein Rechner? Maschine, die Probleme für

Mehr

1. Übung - Einführung/Rechnerarchitektur

1. Übung - Einführung/Rechnerarchitektur 1. Übung - Einführung/Rechnerarchitektur Informatik I für Verkehrsingenieure Aufgaben inkl. Beispiellösungen 1. Aufgabe: Was ist Hard- bzw. Software? a Computermaus b Betriebssystem c Drucker d Internetbrowser

Mehr

Computermuseum WSI. Prof. Dr. Herbert Klaeren

Computermuseum WSI. Prof. Dr. Herbert Klaeren Computermuseum WSI Prof. Dr. Herbert Klaeren http://www.wsi.uni-tuebingen.de/fachbereich/wilhelm-schickard-institut-fuer-informatik/computermuseum.html 1 Herbert Klaeren WSI TÜBIX, 13. Juni 2015 IBM 7090

Mehr

Teil VIII Von Neumann Rechner 1

Teil VIII Von Neumann Rechner 1 Teil VIII Von Neumann Rechner 1 Grundlegende Architektur Zentraleinheit: Central Processing Unit (CPU) Ausführen von Befehlen und Ablaufsteuerung Speicher: Memory Ablage von Daten und Programmen Read Only

Mehr

Grundlagen der Informatik

Grundlagen der Informatik Grundlagen der Informatik Prof. Dr. Bernhard Schiefer bernhard.schiefer@fh-kl.de http://www.fh-kl.de/~schiefer Wesentliche Inhalte Einführung Rechnergrundlagen Grundlagen der Programmierung Kern imperativer

Mehr

Ein kleines Computer-Lexikon

Ein kleines Computer-Lexikon Stefan Edelmann 10b NIS-Klasse Ein kleines Computer-Lexikon Mainboard Die Hauptplatine! Sie wird auch Motherboard genannt. An ihr wird das gesamte Computerzubehör angeschlossen: z.b. Grafikkarte Soundkarte

Mehr

Berühmte Informatiker

Berühmte Informatiker Berühmte Informatiker Teil 5: Konrad Zuse 1910-1995 Konrad Zuse * 22.06.1910 in Berlin 18.12.1995 in Hünfeld bei Fulda Erfinder des ersten funktionsfähigen Computers Erfinder der ersten funktionalen (!)

Mehr

Programmiersprachen gestern, heute, morgen

Programmiersprachen gestern, heute, morgen Programmiersprachen gestern, heute, morgen Einleitung Sie kennen sicher die heute gängigen Sprachen wie C, Java oder Pascal. Doch wie kam es dazu? Wer hat diese Programmiersprachen erfunden? Und - noch

Mehr

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Johannes Schemmel Forschungsgruppe Electronic Vision(s) Lehrstuhl Prof. K. Meier Ruprecht-Karls-Universität Heidelberg Mitarbeiter:

Mehr

Aufbau und Funktionsweise eines Computers

Aufbau und Funktionsweise eines Computers Aufbau und Funktionsweise eines Computers Thomas Röfer Hardware und Software von Neumann Architektur Schichtenmodell der Software Zahlsysteme Repräsentation von Daten im Computer Hardware Prozessor (CPU)

Mehr

HFWU Nürtingen-Geislingen, Automobilwirtschaft (B.A.) Digitale Revolution. Nikolaj Lunze, M.Sc.

HFWU Nürtingen-Geislingen, Automobilwirtschaft (B.A.) Digitale Revolution. Nikolaj Lunze, M.Sc. HFWU Nürtingen-Geislingen, Automobilwirtschaft (B.A.) Dozent: Digitale Revolution, M.Sc. Digitale Revolution Durch die Erfindung des Microchips ausgelöster Umbruch, der seit Ende des 20. Jahrhunderts einen

Mehr

Mikrocontroller Grundlagen. Markus Koch April 2011

Mikrocontroller Grundlagen. Markus Koch April 2011 Mikrocontroller Grundlagen Markus Koch April 2011 Übersicht Was ist ein Mikrocontroller Aufbau (CPU/RAM/ROM/Takt/Peripherie) Unterschied zum Mikroprozessor Unterschiede der Controllerarten Unterschiede

Mehr

Technische Informatik 2 Computer Geschichte

Technische Informatik 2 Computer Geschichte Technische Informatik 2 Computer Geschichte Prof. Dr. Miroslaw Malek Sommersemester 2009 www.informatik.hu-berlin.de/rok/ca Thema heute Mechanisches Zeitalter: Personen und Maschinen Babbage Erste Programme

Mehr

Angewandte Informatik

Angewandte Informatik Angewandte Informatik Teil 2.1 Was ist Hardware? Die Zentraleinheit! 1 von 24 Inhaltsverzeichnis 3... Was ist Hardware? 4... Teile des Computers 5... Zentraleinheit 6... Die Zentraleinheit 7... Netzteil

Mehr

IT für Führungskräfte. Zentraleinheiten. 11.04.2002 Gruppe 2 - CPU 1

IT für Führungskräfte. Zentraleinheiten. 11.04.2002 Gruppe 2 - CPU 1 IT für Führungskräfte Zentraleinheiten 11.04.2002 Gruppe 2 - CPU 1 CPU DAS TEAM CPU heißt Central Processing Unit! Björn Heppner (Folien 1-4, 15-20, Rollenspielpräsentation 1-4) Harald Grabner (Folien

Mehr

Technische Informatik. Der VON NEUMANN Computer

Technische Informatik. Der VON NEUMANN Computer Technische Informatik Der VON NEUMANN Computer Inhalt! Prinzipieller Aufbau! Schaltkreise! Schaltnetze und Schaltwerke! Rechenwerk! Arbeitsspeicher! Steuerwerk - Programmausführung! Periphere Geräte! Abstraktionsstufen

Mehr

Geschichte des Computers. Die Geschichte des Computers

Geschichte des Computers. Die Geschichte des Computers Die Geschichte des Computers Die Entwicklung macht vor niemandem Halt! Woher kommen die Zahlen? Die ersten primitiven Zahlenzeichen entstanden ca. 30 000 Jahre v. Chr. Die ersten bekannten Schriftsysteme

Mehr

Programmieren was ist das genau?

Programmieren was ist das genau? Programmieren was ist das genau? Programmieren heisst Computerprogramme herstellen (von griechisch programma für Vorschrift). Ein Computerprogramm ist Teil der Software eines Computers. Als Software bezeichnet

Mehr

Kann ein Computer denken?

Kann ein Computer denken? Kann ein Computer denken? Fachbereich Betriebswirtschaft FH www.fh-koblenz.de/bw/komus www.komus.de www.fh-koblenz.de/bw/komus www.fh-koblenz.de/bw/komus 2 www.fh-koblenz.de/bw/komus 3 www.fh-koblenz.de/bw/komus

Mehr

Informatik Historie, Übersicht, Teilgebiete

Informatik Historie, Übersicht, Teilgebiete Informatik Historie, Übersicht, Teilgebiete Seite 1 Informatik als akademische Disziplin Informatik = Information + Automation (Karl Steinbuch) Informatique in Frankreich,... Computer Science in angels.

Mehr

1 Vom Problem zum Programm

1 Vom Problem zum Programm 1 Vom Problem zum Programm Ein Problem besteht darin, aus einer gegebenen Menge von Informationen eine weitere (bisher unbekannte) Information zu bestimmen. 1 Vom Problem zum Programm Ein Algorithmus ist

Mehr

Vorlesung Computational Engineering I Rechnerarchitektur WS 2012/13

Vorlesung Computational Engineering I Rechnerarchitektur WS 2012/13 Vorlesung Computational Engineering I Rechnerarchitektur WS 2012/13 Professor Dr.-Ing. Dietmar Fey Lehrstuhl Informatik 3 - Rechnerarchitektur WS 2012/13, 16./18.10.2012 Folie 1 Inhalt Vorlesung Organisatorisches

Mehr

3 Berechnungen und Variablen

3 Berechnungen und Variablen 3 Berechnungen und Variablen Du hast Python installiert und weißt, wie man die Python-Shell startet. Jetzt kannst Du etwas damit machen. Wir fangen mit ein paar einfachen Berechnungen an und wenden uns

Mehr

HISTORISCHES INFORMATIK-MUSEUM DER UNIVERSIDAD POLITECNICA DE MADRID

HISTORISCHES INFORMATIK-MUSEUM DER UNIVERSIDAD POLITECNICA DE MADRID HISTORISCHES INFORMATIK-MUSEUM DER UNIVERSIDAD POLITECNICA DE MADRID Die Initiative, ein historisches Informatik-Museum zu gründen, ist Pionier im Rahmen der spanischen Universitäten. Sie hat das Sammeln

Mehr

Grundlagen der Rechnerarchitektur

Grundlagen der Rechnerarchitektur Grundlagen der Rechnerarchitektur Einführung Unsere erste Amtshandlung: Wir schrauben einen Rechner auf Grundlagen der Rechnerarchitektur Einführung 2 Vorlesungsinhalte Binäre Arithmetik MIPS Assembler

Mehr

ODER I EINFÜHRUNG, GESCHICHTE, PROGRAMMIEREN. Marcel Götze

ODER I EINFÜHRUNG, GESCHICHTE, PROGRAMMIEREN. Marcel Götze GRUNDKURS INFORMATIK ODER WIE DENKEN INFORMATIKER? I EINFÜHRUNG, GESCHICHTE, PROGRAMMIEREN Marcel Götze Überblick 1. Organisatorisches 2. Themen und Ziele der Vorlesung 3. Übungen 4. Wb Web 5. Literatur

Mehr

0.1. Historisches Stichwort

0.1. Historisches Stichwort Kapitel 0 - Einleitung Seite 7 Kapitel 0 Einleitung 0.1. Historisches Stichwort Läßt man analoge Rechengeräte wie Rechenschieber oder Nomogrammtafeln und Rechenunterstützende Geräte wie einen Abakus außer

Mehr

Rechnen mit ultra-kalten Atomen: vom Quantensimulator zum Quantencomputer?

Rechnen mit ultra-kalten Atomen: vom Quantensimulator zum Quantencomputer? Rechnen mit ultra-kalten Atomen: vom Quantensimulator zum Quantencomputer? Uwe-Jens Wiese Albert Einstein Center for Fundamental Physics Institute for Theoretical Physics, Bern University Physik am Freitag

Mehr

Computeria Urdorf. Treff vom 16. Januar 2013. Was ist ein Computer?

Computeria Urdorf. Treff vom 16. Januar 2013. Was ist ein Computer? Computeria Urdorf Treff vom 16. Januar 2013 Was ist ein Computer? Der Vater des Computers Charles Babbage (26.12.1791 18.10.1871) Erfinder der mechanische Rechenmaschine Die Entwicklung des Computers Karl

Mehr

Die Vision Landschaft und was sie mit Moore s Gesetz zu tun hat

Die Vision Landschaft und was sie mit Moore s Gesetz zu tun hat Die Vision Landschaft und was sie mit Moore s Gesetz zu tun hat Horst A. Mattfeldt Produkt Manager Matrix Vision GmbH V1.0 10/2010 MATRIX VISION GmbH 1 Inhalt/Content: Vom Vision Sensor über Atom Boxen

Mehr

Geschichte des Hochleistungsrechnens. Prof. Dr. Thomas Ludwig

Geschichte des Hochleistungsrechnens. Prof. Dr. Thomas Ludwig Geschichte des Hochleistungsrechnens Prof. Dr. Thomas Ludwig DKRZ / UHH Prediger 1,9 Was geschehen ist, wird wieder geschehen, was man getan hat, wird man wieder tun: Es gibt nichts Neues unter der Sonne.

Mehr

Prozess-rechner. auch im Büro. Automation und Prozessrechentechnik. Prozessrechner. Sommersemester 2011. Prozess I/O. zu und von anderen Rechnern

Prozess-rechner. auch im Büro. Automation und Prozessrechentechnik. Prozessrechner. Sommersemester 2011. Prozess I/O. zu und von anderen Rechnern Automation und Prozessrechentechnik Sommersemester 20 Prozess I/O Prozessrechner Selbstüberwachung zu und von anderen Rechnern Prozessrechner speziell Prozessrechner auch im Büro D A D A binäre I/O (Kontakte,

Mehr

D A T E N... 1 Daten Micheuz Peter

D A T E N... 1 Daten Micheuz Peter D A T E N.....! Symbole, Alphabete, Codierung! Universalität binärcodierter Daten! Elementare Datentypen! Speicherung binärcodierter Daten! Befehle und Programme! Form und Bedeutung 1 Daten Micheuz Peter

Mehr

1 Dein TI nspire CAS kann fast alles

1 Dein TI nspire CAS kann fast alles INHALT 1 Dein kann fast alles... 1 2 Erste Schritte... 1 2.1 Systemeinstellungen vornehmen... 1 2.2 Ein Problem... 1 3 Menü b... 3 4 Symbolisches Rechnen... 3 5 Physik... 4 6 Algebra... 5 7 Anbindung an

Mehr

Zur Vereinfachung betrachten wir nun nur noch Funktionen f, die einen Funktionswert f nµberechnen. Sie werden alle in einer Tabelle dargestellt:

Zur Vereinfachung betrachten wir nun nur noch Funktionen f, die einen Funktionswert f nµberechnen. Sie werden alle in einer Tabelle dargestellt: Informatik 13: Gierhardt Theoretische Informatik III Berechenbarkeit Nicht-berechenbare Funktionen Nach der Church-Turing-These kann alles, was berechenbar ist, mit einer Turing-Maschine oder einer While-Maschine

Mehr

Ideen der Informatik. Was ist ein Computer? Was ist ein Programm? Können Computer Alles? Kurt Mehlhorn und Adrian Neumann

Ideen der Informatik. Was ist ein Computer? Was ist ein Programm? Können Computer Alles? Kurt Mehlhorn und Adrian Neumann Ideen der Informatik Was ist ein Computer? Was ist ein Programm? Können Computer Alles? Kurt Mehlhorn und Adrian Neumann Was ist ein Computer? 2 Übersicht Was ist ein Computer, ein Programm? Turings Antwort

Mehr

Staatlich geprüfter EDV-Führerschein

Staatlich geprüfter EDV-Führerschein Gefördert vom Bundesministerium für Gesundheit und Soziale Sicherung Staatlich geprüfter EDV-Führerschein Modul 1:.doc 27.09.2003 Seite 1/48 Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis...

Mehr

Steuerungen. 4 Typen verbindungsprogrammierte Steuerung (VPS), speicherprogrammierte Steuerung (SPS), Mikrokontroller (MC) und Industrie-PCs (IPC)

Steuerungen. 4 Typen verbindungsprogrammierte Steuerung (VPS), speicherprogrammierte Steuerung (SPS), Mikrokontroller (MC) und Industrie-PCs (IPC) Steuerungen 4 Typen verbindungsprogrammierte Steuerung (VPS), speicherprogrammierte Steuerung (SPS), Mikrokontroller (MC) und Industrie-PCs (IPC) VPS - Funktion der Steuerung in der Schaltungstopologie

Mehr

Vorlesung Programmieren

Vorlesung Programmieren Vorlesung Programmieren Funktionsweise von Computern Prof. Dr. Stefan Fischer Institut für Telematik, Universität zu Lübeck http://www.itm.uni-luebeck.de/people/fischer Inhalt 1. Ein Blick zurück 2. Stand

Mehr

Computer: PC. Informationstechnik für Luft-und Raumfahrt Aerospace Information Technology

Computer: PC. Informationstechnik für Luft-und Raumfahrt Aerospace Information Technology Computer: PC Informationstechnik für Luft-und Raumfahrt Ab Morgen nur eingebete Systeme Aber es gibt auch PCs Na gut... dann Heute. dann haben wir es hinter uns Und nicht wenige! PCs in N Jahren Industrie

Mehr

L 371/128 DE Amtsblatt der Europäischen Union 30.12.2014

L 371/128 DE Amtsblatt der Europäischen Union 30.12.2014 L 371/128 DE Amtsblatt der Europäischen Union 30.12.2014 KATEGORIE 4 RECHNER Anmerkung 1: Rechner, verwandte Geräte und Software für Telekommunikations- oder Local Area Network - Funktionen sind auch nach

Mehr

The world we live in and Supercomputing in general

The world we live in and Supercomputing in general The world we live in and Supercomputing in general Achim Streit aktuelle Prozessoren Desktop Intel Pentium 4 mit 3.2 GHz AMD Athlon XP 3200+ mit 2.2 GHz IBM PowerPC G5 mit 2.0 GHz (64-bit) Server & Workstation

Mehr

Die Geschichte des Computers 1940-2010

Die Geschichte des Computers 1940-2010 Die Geschichte des Computers 1940-2010 Überblick Über Geschichte und Prognosen Evolution der Rechnerarchitektur Technology Roadmaps Prognose für die nächsten zehn Jahre I think there is a world market

Mehr

COMPUTER RECHNEN BINÄR

COMPUTER RECHNEN BINÄR COMPUTER RECHNEN BINÄR Können Computer rechnen? Na klar! Sie können nur rechnen. Das Rechensystem nennt sich binäres System oder Dualsystem. Schaut mal rechts zur Abbildung. Diese Armbanduhr zeigt die

Mehr

Die Mikroprogrammebene eines Rechners

Die Mikroprogrammebene eines Rechners Die Mikroprogrammebene eines Rechners Das Abarbeiten eines Arbeitszyklus eines einzelnen Befehls besteht selbst wieder aus verschiedenen Schritten, z.b. Befehl holen Befehl dekodieren Operanden holen etc.

Mehr

Vorlesung Technische Grundlagen der Informatik ( TGI)

Vorlesung Technische Grundlagen der Informatik ( TGI) Vorlesung Technische Grundlagen der Informatik ( TGI) Prof. Dr. Rudolf Latz Fachbereich Informatik & Kommunikation Westfälische Hochschule Gelsenkirchen Bocholt Recklinghausen Die Unterlagen sind als Arbeitsgrundlage

Mehr

Informatik im Studiengang Allgemeiner Maschinenbau Sommersemester 2014

Informatik im Studiengang Allgemeiner Maschinenbau Sommersemester 2014 Informatik im Studiengang Allgemeiner Maschinenbau Sommersemester 2014 Prof. Dr.-Ing. habil. Peter Sobe Fakultät Informatik / Mathematik Zur Person: Prof. Dr.-Ing. habil. Peter Sobe Fakultät Informatik/Mathematik

Mehr

Zuschauer beim Berlin-Marathon

Zuschauer beim Berlin-Marathon Zuschauer beim Berlin-Marathon Stefan Hougardy, Stefan Kirchner und Mariano Zelke Jedes Computerprogramm, sei es ein Betriebssystem, eine Textverarbeitung oder ein Computerspiel, ist aus einer Vielzahl

Mehr

Die Geschichte der Taschenrechner

Die Geschichte der Taschenrechner Kevin 19. März 2009 Übersicht Damals Heute Zukunft Anwendung des Taschenrechners in der Schule Inhalt Damals Entwicklung der Zahlensysteme Abakus und Rechenschieber Mechanische Addierer Die Vier-Spezies-Maschine

Mehr

Thema: Einführung des Computers im Unterricht Gegenstand: Sachunterricht Schulstufe/n: 1. 4. Klasse

Thema: Einführung des Computers im Unterricht Gegenstand: Sachunterricht Schulstufe/n: 1. 4. Klasse Thema: Einführung des Computers im Unterricht Gegenstand: Sachunterricht Schulstufe/n: 1. 4. Klasse Lehrplanbezug: Die Möglichkeiten des Computers sollen zum selbstständigen, zielorientierten und individualisierten

Mehr

Autor: Michael Spahn Version: 1.0 1/10 Vertraulichkeit: öffentlich Status: Final Metaways Infosystems GmbH

Autor: Michael Spahn Version: 1.0 1/10 Vertraulichkeit: öffentlich Status: Final Metaways Infosystems GmbH Java Einleitung - Handout Kurzbeschreibung: Eine kleine Einführung in die Programmierung mit Java. Dokument: Autor: Michael Spahn Version 1.0 Status: Final Datum: 23.10.2012 Vertraulichkeit: öffentlich

Mehr

Elektromechanische Computer

Elektromechanische Computer Elektromechanische Computer Erfinder, ihre Biographien und Maschinen Konrad Zuse George Stibitz Howard Aiken Konrad Zuse: Biographie I Geburt: 22.06.1910 in Berlin 1928 Studium Maschinenbau (TH Berlin-Charl.),

Mehr

Programmierung mobiler Kleingeräte

Programmierung mobiler Kleingeräte Programmierung mobiler Kleingeräte Computergeschichte und Ubiquitous Computing Wolfgang Auer, Patrick Ritschel Automation Urzeit Wildfallen Griechisches Altertum Tempeltor des Heron Automatentheater Arabische

Mehr

In diesem Kapitel erfährst du wie alles angefangen hat welche Entwicklungsschritte bis zum heutigen PC notwendig waren wie es weitergehen könnte

In diesem Kapitel erfährst du wie alles angefangen hat welche Entwicklungsschritte bis zum heutigen PC notwendig waren wie es weitergehen könnte Lehrer: Spahr Marcel SCHULE LAUPEN Lehrgang: NMM: Informatik Der Computer Name: C OMPUTERGESCHICHTE Datum: In diesem Kapitel erfährst du wie alles angefangen hat welche Entwicklungsschritte bis zum heutigen

Mehr

Microcontroller Kurs. 08.07.11 Microcontroller Kurs/Johannes Fuchs 1

Microcontroller Kurs. 08.07.11 Microcontroller Kurs/Johannes Fuchs 1 Microcontroller Kurs 08.07.11 Microcontroller Kurs/Johannes Fuchs 1 Was ist ein Microcontroller Wikipedia: A microcontroller (sometimes abbreviated µc, uc or MCU) is a small computer on a single integrated

Mehr

Staatlich geprüfter EDV-Führerschein

Staatlich geprüfter EDV-Führerschein Staatlich geprüfter 1. Seit wie viel Jahren gibt es den Personal Computer? seit ~ 50 Jahren seit ~ 30 Jahren seit ~ 20 Jahren seit ~ 5 Jahren Computer gibt es schon immer. 2. Ein Computer wird auch als

Mehr

C:\WINNT\System32 ist der Pfad der zur Datei calc.exe führt. Diese Datei enthält das Rechner - Programm. Klicke jetzt auf Abbrechen.

C:\WINNT\System32 ist der Pfad der zur Datei calc.exe führt. Diese Datei enthält das Rechner - Programm. Klicke jetzt auf Abbrechen. . Das Programm- Icon Auf dem Desktop deines Computers siehst du Symbolbildchen (Icons), z.b. das Icon des Programms Rechner : Klicke mit der rechten Maustaste auf das Icon: Du siehst dann folgendes Bild:

Mehr

Programmiersprachen und Programmierkonzepte

Programmiersprachen und Programmierkonzepte Programmiersprachen und Programmierkonzepte Inhalt Programmiersprachen- Entwicklung Programmiersprachen und Programmierparadigmen Die Geschichte der Programmiersprachen Anfänge vor 200 Jahren Programmierbare

Mehr

Embedded PCs / Embedded Systems. Stromversorgung / Power-Management. Embedded PC

Embedded PCs / Embedded Systems. Stromversorgung / Power-Management. Embedded PC Embedded PCs / Embedded Systems Stromversorgung / Power-Management Sensoren elektrisch optisch thermisch mechanisch magnetisch chemisch biologisch Aktoren Analog-/Digitalhardware Powerfail Speicher Watchdog

Mehr

Grundlagen der Parallelisierung

Grundlagen der Parallelisierung Grundlagen der Parallelisierung Philipp Kegel, Sergei Gorlatch AG Parallele und Verteilte Systeme Institut für Informatik Westfälische Wilhelms-Universität Münster 3. Juli 2009 Inhaltsverzeichnis 1 Einführung

Mehr

Grundlagen der Technischen Informatik. Rechnertechnologieentwicklung. Kapitel 1.2

Grundlagen der Technischen Informatik. Rechnertechnologieentwicklung. Kapitel 1.2 Rechnertechnologieentwicklung Kapitel 1.2 Dr.-Ing. Stefan Wildermann Lehrstuhl für Hardware-Software-Co-Design Historie Der erste Computer Babbages Differenzenrechenmaschine (1832) 25.000 Teile Preis:

Mehr

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13

Enterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13 UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13 Verarbeitungsgrundlagen Teil 2 Virtual Storage el0100 copyright

Mehr

CPU (Prozessor), Festplatte, Grafikkarte, Soundkarte, diverse Schnittstelle (USB, COM, SERIELL), Arbeitsspeicher (RAM), ROM, CD/DVD-Laufwerk

CPU (Prozessor), Festplatte, Grafikkarte, Soundkarte, diverse Schnittstelle (USB, COM, SERIELL), Arbeitsspeicher (RAM), ROM, CD/DVD-Laufwerk FRAGEKATALOG Informatik BAKIP HARDWARE Frage 01: Im inneren eines Computergehäuses befindet sich unter anderem das Mainboard. Welche Komponenten sind an diesem Mutterbrett angeschlossen bzw. verbaut? Nenne

Mehr

Installationsanleitung PowerSDR-IQ v1.19.3.15 SV1EIA für den Betrieb mit LIMA-SDR

Installationsanleitung PowerSDR-IQ v1.19.3.15 SV1EIA für den Betrieb mit LIMA-SDR Installationsanleitung PowerSDR-IQ v1.19.3.15 SV1EIA für den Betrieb mit LIMA-SDR 02.07.2010 Bernd Wehner DL9WB Talbahnstraße 17 47137 Duisburg dl9wb@darc.de - 1 - 1. Systemvoraussetzungen Damit PowerSDR

Mehr

Prof. Dr.-Ing. H. Heuermann

Prof. Dr.-Ing. H. Heuermann Hochfrequenztechnik WS 2007/08 Prof. Dr.-Ing. H. Heuermann Oszilloskope Autor: Jihad Lyamani 1 Geschichte und Entwicklung: Als erstes soll die Frage geklärt werden, warum man ein Oszilloskop erfunden hat

Mehr

5. Was ist ein CPU, wie wird die Geschwindigkeit angegeben? 6. Nennen Sie 4 Elemente die sich direkt auf einem Mainboard befinden.

5. Was ist ein CPU, wie wird die Geschwindigkeit angegeben? 6. Nennen Sie 4 Elemente die sich direkt auf einem Mainboard befinden. Informatik Übung Grundlagen Informatik Fragen: 1. Nennen ie vier Eingabegeräte. 2. Was ist die Aufgabe des RAM? 3. Nennen ie Eigenschaften des ROM. 4. Wozu dient das Bussystem? 5. Was ist ein CPU, wie

Mehr

Inhatsverzeichnis. 1.Einleitung. Lehrgang: NMM Informatik: Der Computer. Lehrer: Spahr Marcel. Name: E L E M E N T E D E S C O M P U T E R S Datum:

Inhatsverzeichnis. 1.Einleitung. Lehrgang: NMM Informatik: Der Computer. Lehrer: Spahr Marcel. Name: E L E M E N T E D E S C O M P U T E R S Datum: Lehrer: Spahr Marcel SCHULE LAUPEN Lehrgang: NMM Informatik: Der Computer Name: E L E M E N T E D E S C O M P U T E R S Datum: In diesem Kapitel erfährst du die Bedeutung der Begriffe Hardware" und Software"

Mehr

Interface Definitionen zu E-LAB ICP-V24 Portable

Interface Definitionen zu E-LAB ICP-V24 Portable Serielles Interface PC ICP-V24 18.03.2003 Seite 1/5 Interface Definitionen zu E-LAB ICP-V24 Portable Das Interface zwischen PC und ICP-V24 besteht aus dem Hardware Teil und dem Software Teil. Hardware

Mehr

Informatikgrundlagen I Grundlagen der Informatik I

Informatikgrundlagen I Grundlagen der Informatik I Informatikgrundlagen I Grundlagen der Informatik I Dipl.-Inf., Dipl.-Ing. (FH) Michael Wilhelm Hochschule Harz FB Automatisierung und Informatik mwilhelm@hs-harz.de http://mwilhelm.hs-harz.de Raum 2.202

Mehr

Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation

Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation 1 Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation Dr. G. Wellein, Regionales Rechenzentrum Erlangen Supercomputer

Mehr

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk Haftungsausschluss Microsoft kann für die Richtigkeit

Mehr

3. Ziel der Vorlesung

3. Ziel der Vorlesung 3. Ziel der Vorlesung Der Zweck der Vorlesung ist das Studium fundamentaler Konzepte in der Algorithmentheorie. Es werden relevante Maschinenmodelle, grundlegende und höhere Datenstrukturen sowie der Entwurf

Mehr

Theoretische Informatik SS 04 Übung 1

Theoretische Informatik SS 04 Übung 1 Theoretische Informatik SS 04 Übung 1 Aufgabe 1 Es gibt verschiedene Möglichkeiten, eine natürliche Zahl n zu codieren. In der unären Codierung hat man nur ein Alphabet mit einem Zeichen - sagen wir die

Mehr

Zahlendarstellungen und Rechnerarithmetik*

Zahlendarstellungen und Rechnerarithmetik* Zahlendarstellungen und Rechnerarithmetik* 1. Darstellung positiver ganzer Zahlen 2. Darstellung negativer ganzer Zahlen 3. Brüche und Festkommazahlen 4. binäre Addition 5. binäre Subtraktion *Die Folien

Mehr

Embedded Software Engeneering mit dem Raspberry Pi

Embedded Software Engeneering mit dem Raspberry Pi Embedded Software Engeneering mit dem Raspberry Pi Übersicht Rasperry Pi Betriebssystem Hardware ARM Μ-Controller vs. Μ-Prozessor vs. SoC Embedded Software Engineering vs. Software Engineering Fazit Raspberry

Mehr

1. Technik moderner Geräte

1. Technik moderner Geräte Kopiervorlagen und Arbeitsblätter 1. Technik moderner Geräte Verständnisfragen (Fragen 1-8, Buch S. 18) 1. Was bedeutet Bios? 2. Wozu benötigt ein Computer ein BIOS? 3. Nenne mindestens 5 Komponenten eines

Mehr

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at

Mehr