Rechnergrundlagen SS Vorlesung
|
|
- Judith Schmitt
- vor 7 Jahren
- Abrufe
Transkript
1 Rechnergrundlagen SS Vorlesung
2 Inhalt Evaluation der Lehre (Auswertung) Synchroner/asynchroner Systembus Kontrollfluss/Datenfluss RISC vs. CISC Speicherhierarchie Cache Lesen Schreiben Überschreiben Rechnergrundlagen 2
3 Systembus Physikalisch ist jeder Bus aus einer Anzahl von Leitungen aufgebaut. Bspw. besteht ein 16 bit Adressbus aus 16 individuellen Leitungen. Für jede Busleitung darf es zu einem Zeitpunkt nur eine Einheit geben, welche die Busleitung treibt. Rechnergrundlagen 3
4 Quelle und Senke Quelle: Als Quelle wird der Sender eines Datenwortes bezeichnet. Senke: Als Senke wird der Empfänger eines Datenwortes bezeichnet. Die CPU kann, in Abhängigkeit von Lese- oder Schreibzyklus, Senke oder Quelle eines Datentransfers sein. Rechnergrundlagen 4
5 Adress- und Datenbus Adress- und Datenbus sind zwei homogene Busse, die Signale gleicher Funktion zusammenfassen. Der Datenbus ist ein bidirektionaler Bus. Der Adressbus ist (in Systemen ohne DMA) ein unidirektionaler Bus. Von der CPU werden Adressen zum Speicher bzw. zu Einund Ausgabe transferiert. Es existieren auch Realisierungen mit gemultiplextem Adress- und Datenbus (Adresse und Daten werden zeitlich versetzt auf denselben Leitungen übertragen). Rechnergrundlagen 5
6 Synchron/asynchron Synchron zeitlich abgestimmter Vorgang Beispiel: Flip-Flops einer zyklischen Folgeschaltung schalten alle gleichzeitig, da es einen zentralen Takt gibt Asynchron Zeitlich nicht abgestimmt Beispiel: Flip-Flops schalten zu unterschiedlichen Zeiten, da der Takteingang der Flip-Flops nicht zentral beschaltet wird Rechnergrundlagen 6
7 Kontrollbus Der Kontrollbus ist ein inhomogener Bus, er fasst Signale unterschiedlicher Funktion zusammen. Hauptaufgaben der Signale: Markieren einer gültigen Adresse Auswahl eines Schreib- oder Lesetransfers Abschluss des Transfers Synchroner Systembus: Zeitliche Verhalten der Signale wird ausschließlich durch die CPU gesteuert. Asynchroner Systembus: Langsame Speicher oder Ein- bzw. Ausgabeeinheiten können das zeitliche Verhalten der Bussignale beeinflussen. Der adressierte Speicher bzw. die Ein-/Ausgabeeinheit muss ein Quittungssignal senden. Der Kontrollbus übernimmt dann die Aufgabe das Quittungssignal zu transferieren. Rechnergrundlagen 7
8 Buszyklen Mit Buszyklus wird die zeitliche Abfolge von Signalen auf dem Systembus bezeichnet. Der Bus-Master, üblicherweise die CPU, steuert die logische und zeitliche Abfolge der Signale beim Transfer. Für jeden Buszyklus gibt es einen Bus-Master. Beim Lesezyklus legt der Bus-Master die für das Lesen notwendigen Kontrollsignale und die Adresse am Bus an. Die adressierte Speicherzelle legt den gespeicherten Wert auf den Datenbus, der von der CPU eingelesen wird. Der Bus-Master terminiert den Zyklus. Beim Schreibzyklus legt der Bus-Master die für das Schreiben notwendigen Kontrollsignale und die Adresse am Bus an. Die CPU gibt ein Datenwort auf dem Datenbus aus. Der Speicher übernimmt das Datenwort und schreibt es an die adressierte Speicherzelle. Der Bus-Master terminiert den Zyklus Rechnergrundlagen 8
9 Synchroner Schreib- und Lesezyklus Rechnergrundlagen 9
10 Asynchroner Lesezyklus Rechnergrundlagen 10
11 Architekturen Rechnergrundlagen 11
12 Kontrollfluss Beim Kontrollfluss unterscheidet man: Deklarative Semantik: Formuliert die Bedingungen. Reihenfolge wird nicht spezifiziert. Beispiel: Es ist Schwimmbadwetter falls die Sonne scheint und es warm ist. Prozedurale Semantik: Definiert die Reihenfolge der auszuführenden Schritte. Beispiel: Um herauszufinden, ob Schwimmbadwetter ist, schaue zuerst auf das Thermometer und vergleiche die angezeigte Temperatur mit 25 C, dann sieh hoch, ob die Sonne scheint. Rechnergrundlagen 12
13 Datenfluss Der Datenfluss kann beschrieben werden: durch Eingabeparameter, wobei die Position der einzelnen Parameter in der Liste ebenfalls zu beachten ist. durch Ausgabeparameter: Rückgabewert einer Funktion Parameter in der Übergabe-Liste, falls er entsprechend spezifiziert ist (z.b. Übergabe by reference, Übergabe einer Adresse) Rechnergrundlagen 13
14 Digitale Signalprozessoren (DSPs) Die Harvard-Architektur findet sich z.b. in DSPs: DSP weisen zwar immer noch Kontrollfluss-Befehle auf, haben jedoch einige Spezialbefehle (z.b. Filterung), die nach dem Datenfluss-Prinzip arbeiten. Kontrollfluss: Beschreibt die Reihenfolge, wie einzelne Schritte ausgeführt werden, oder Bedingungen zur Ausführung. Nicht linear, Sprünge (Verzweigungen) möglich Datenfluss: Beschreibt, wie Daten von einem Schritt zum nächsten kommen, d.h. von den Eingabewerten über die Operationen zum Ergebnis. Im Datenfluss gibt es keinen expliziten Kontrollfluss, sondern der Datenfluss enthält einen impliziten, dem Datenfluss gleichgerichteten Kontrollfluss. Rechnergrundlagen 14
15 DSPs (Fortsetzung) Weitere Besonderheiten von DSPs: Sättigungsarithmetik: Bei Über- oder Unterlauf kein Vorzeichenwechsel. Bei Überlauf wird größtmögliche, bei Unterlauf kleinstmögliche Zahl dargestellt. keine extreme Verzerrung von Signalen. Indirekte Adressierung über Hilfsregister kurze Befehle, schneller Zugriff Ausführung der meisten Befehle in einem Zyklus Hartverdrahtetes Steuerwerk, keine Mikroprogrammierung Spezialbefehle für Filterung, FFT, modulare Adressierung, Sättigungsarithmetik Sehr performante ALU Multiplikation in wenigen oder nur einem Taktzyklus Rechnergrundlagen 15
16 Semantische Lücke (semantic gap) Der Rechner MARK I hatte 1948 sieben Maschinenbefehle geringer Komplexität. In der Folge versuchte man die sog. semantische Lücke zwischen höheren Programmiersprachen und der Maschinensprache zu schließen. Ziel war die Vereinfachung des Compilerbaus, kompakterer Opcode und eine höhere Rechenleistung. Rechnergrundlagen 16
17 CISC Klassische von-neumann Rechner sind CISC-Rechner (complex instruction set computer). Zu den ursprünglich einfachen Maschinenbefehlssätzen sind immer mehr spezialisierte Befehle hinzugefügt worden. Ziel war eine bessere Unterstützung der Hochsprachenkonstrukte. Die Prozessoren wurden insgesamt langsamer und aufwendiger. Rechnergrundlagen 17
18 Analyse Rechnergrundlagen 18
19 RISC (reduced instruction set computer) Zu Anfang der 70er Jahre zeigte eine Untersuchung, dass von Compilern für Hochsprachen nur wenige einfache Assemblerbefehle verwendet werden. Leistungsfähige und komplexe Assemblerbefehle werden kaum eingesetzt. Gründe: Compiler werden algorithmisch sehr komplex, wenn für eine Sequenz von Hochsprachenanweisungen untersucht werden muss ob sie durch einen komplexen Assemblerbefehl realisiert werden können. Teilweise werden Anweisungen der Hochsprachen nicht gut durch komplexe Assemblerbefehle abgebildet. Rechnergrundlagen 19
20 Ziele: CISC vs. RISC Die Entwickler von CISC Prozessoren stellen Assembler-Programmierern möglichst mächtige Befehle zur Verfügung. Die Entwickler von RISC Prozessoren verfolgen das entgegen gesetzte Ziel mit möglichst wenigen einfachen Assemblerbefehlen auszukommen. Rechnergrundlagen 20
21 CISC versus RISC Rechnergrundlagen 21
22 Prinzipien der RISC Entwicklung Analyse der Applikationen, um Schlüsseloperationen zu finden, die häufig ausgeführt werden. Entwurf eines Rechenwerks, das optimal die gefundenen Schlüsseloperationen verarbeiten kann. Entwurf von Instruktionen, welche die Schlüsseloperationen effizient im Rechenwerk ausführen. Weitere Instruktionen werden nur hinzugefügt, wenn die Verarbeitung der Schlüsseloperationen nicht verlangsamt wird. Die gleiche Optimierung wird für andere Bereiche des Rechners (Cache, Speichermanagement, etc.) durchgeführt. Rechnergrundlagen 22
23 Kennzeichen von RISC- Prozessoren Ein RISC-Prozessor hat viele Register, um möglichst viele Operanden lokal im Prozessor speichern zu können. Bei ALU-Operationen dienen Register als Operanden und als Senke für das Ergebnis. Es wird nicht mehr zwischen Adress- und Datenregister unterschieden. Nur wenige Adressierungsarten, bspw.: Unmittelbare Adressierung (Immediate). Der Operand ist in der Instruktion gespeichert. Register-indirekte Adressierung. Bei der Adressierung zeigt die Instruktion auf ein internes Register. Das Register enthält die Adresse des Operanden im Speicher. Rechnergrundlagen 23
24 Pipelining (Prinzip) Die gesamte Rechenzeit einer Operation wird nicht reduziert. Es werden mehrere Operationen versetzt parallel ausgeführt. Rechnergrundlagen 24
25 Pipelining (Blockschaltbild) Rechnergrundlagen 25
26 Pipelining (Ausführung) Rechnergrundlagen 26
27 Pipelining Bedingung für die erfolgreiche Anwendung eines Pipelining ist die Existenz fester Ausführungszeiten. Je feiner die Zerlegung der Abarbeitung der Befehle ist, desto höher das Potential zur Beschleunigung. Da konkurrierend auf den Speicher zugegriffen wird, muss der Zugriff sehr schnell erfolgen und etwaige Konflikte vermieden werden. Rechnergrundlagen 27
28 Probleme Die langsamste Stufe der Verarbeitung bestimmt den Takt des Pipelining. Wenn Sprünge ausgeführt werden, sind die auf Vorrat ausgeführten Verarbeitungsstufen hinfällig. Bsp.: Soll in aufeinander folgenden Instruktionen zunächst ein Operand berechnet und dann weg gespeichert werden, wird ein vorheriger alter Wert gespeichert. Die durch die versetzte Ausführung der Instruktionen entstehenden Konflikte werden als Hazards bezeichnet. Rechnergrundlagen 28
29 Lösungen Sprungbefehle: Die auf den Sprungbefehl folgenden Befehle werden aus der Pipeline gelöscht und durch NOP- Befehle ersetzt (Hardware). Es entstehen Bubbles. Die dem Sprungbefehl nachfolgenden Befehle werden vor der Ausführung des Sprungbefehls ausgeführt. Dies bedeutet, dass der Compiler an diese Stelle sinnvoll auszuführende Befehle platziert (Software). Rechnergrundlagen 29
30 Einfügen von NOPs Rechnergrundlagen 30
31 Lösungen (Forts.) Laufzeitkonflikte (Hazards): Man führt per Software NOPs ein, so dass verlängerte Speicherzugriffe (statisch) ausgeglichen werden. Wenn ein Cache Miss auftritt (dynamisch), muss von Seiten der Hardware garantiert werden, dass die Ausführung verzögert wird. Insgesamt führen die Anforderungen an Compiler für RISC-Architekturen zu sehr komplexen Maschinenprogrammen, so dass nur selten eine manuelle Bearbeitung vorgenommen werden kann. Rechnergrundlagen 31
32 Optimierende Compiler Zwei aufeinander aufbauende Phasen: Analyse und Synthese. In der Analyse werden die syntaktischen und semantischen Eigenschaften des Programms analysiert und eine maschinenunabhängige Optimierung durchgeführt. Es wird ein maschinenunabhängiger Zwischencode erzeugt. Für die Synthese müssen die Eigenschaften der Zielmaschine bekannt sein. Bei CISC Prozessoren genügt die Kenntnis der Befehlsarchitektur. Für RISC Prozessoren müssen auch die Details der Befehlspipeline bekannt sein. Für die Beseitigung von Konflikten werden NOPs eingefügt. Eine weitere Optimierung kann durch die Umordnung von Befehlen erreicht werden. Rechnergrundlagen 32
33 Grundtypen I Single Instruction, Single Data (SISD): ein sequentiell abgearbeiteter Befehlsstrom und ein entsprechend sequentieller Datenstrom (bspw. Intel bis 80486). Single Instruction, Multiple Data (SIMD): ein sequentiell abgearbeiteter Befehlsstrom steuert einen mehrfachen parallelen Datenstrom (bspw. MMX). Multiple Instruction, Single Data (MISD): mehrere Rechenwerke bearbeiten einen Datenstrom (bspw. UNIX pipe). Multiple Instruction, Multiple Data (MIMD): die Abarbeitung geschieht sowohl befehls- als auch datenparallel (bspw. Transputer). Rechnergrundlagen 33
34 Grundtypen II Rechnergrundlagen 34
35 Cache Ein Problem moderner Prozessoren ist ihre hohe Taktrate, da der Hauptspeicher die benötigten Daten nicht schnell genug liefern kann. Um dieses Problem zu lösen werden schnelle Pufferspeicher eingesetzt, die als Cache bezeichnet werden. Caches befinden sich zwischen Prozessorkern und Hauptspeicher. Sie dienen der Steigerung der Geschwindigkeit des Datenaustausches und der Entlastung des Datenbusses. Es muss ein Cache-Controller zum Einsatz kommen, der die Zugriffe des Prozessors auf den Hauptspeicher überwacht und Zugriffe auf den Cache bzw. Datenhaltung im Cache koordiniert. Rechnergrundlagen 35
36 Speicherhierarchie Rechnergrundlagen 36
37 Cache in modernen Rechnern Rechnergrundlagen 37
38 Organisation des Cache (Prinzip) Zugriff auf Cache ist deutlich schneller als der Zugriff auf Hauptspeicher. Wenn Daten im Cache stehen, kann die CPU sehr schnell darauf zugreifen. Größe des Cache ist deutlich kleiner als Größe des Hauptspeichers. Rechnergrundlagen 38
39 Speicherzellen Zerlegung des Hauptspeichers in Blöcke der Größe des Caches. Diese Blöcke werden, wie der Cache, in Cache-Zeilen aufgeteilt. Es werden nur ganze Zeilen in den Cache übernommen. Es existieren unterschiedliche Strategien für die Verwaltung des Cache, d.h. wie neue Zeilen eingeladen werden und welche ausgelagert werden. Rechnergrundlagen 39
40 Adressierung (Beispiel) Rechnergrundlagen 40
Rechnergrundlagen SS Vorlesung
Rechnergrundlagen SS 2007 10. Vorlesung Inhalt Rechenwerk (ALU) Steuerwerk Instruktionssatz-Architekturen Assembler-Programmierung Synchroner/asynchroner Systembus RISC vs. CISC Kontrollfluss/Datenfluss
MehrGeräteentwurf mit Mikroprozessoren 1
Geräteentwurf mit Mikroprozessoren 1 Vorlesung am Institut für Elektronik der TU Graz Dipl.-Ing. Dr. Gerhard Stöckler SS 2003 Vorausgesetzte Kenntnisse: Grundlagen der Digitaltechnik Binäre Informationsdarstellung
MehrTutorium Rechnerorganisation
Woche 3 Tutorien 3 und 4 zur Vorlesung Rechnerorganisation 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
MehrJohann Wolfgang Goethe-Universität
Flynn sche Klassifikation SISD (single instruction, single data stream): IS IS CU PU DS MM Mono (Mikro-)prozessoren CU: Control Unit SM: Shared Memory PU: Processor Unit IS: Instruction Stream MM: Memory
MehrHochschule Düsseldorf University of Applied Sciences HSD RISC &CISC
HSD RISC &CISC CISC - Complex Instruction Set Computer - Annahme: größerer Befehlssatz und komplexere Befehlen höhere Leistungsfähigkeit - Möglichst wenige Zeilen verwendet, um Aufgaben auszuführen - Großer
Mehr4 Der Von-Neumann-Rechner als Grundkonzept für Rechnerstrukturen
4 Der Von-Neumann-Rechner als Grundkonzept für Rechnerstrukturen Ein Rechner besteht aus den folgenden Bestandteilen: Rechenwerk Rechenoperationen wie z.b. Addition, Multiplikation logische Verknüpfungen
MehrVon-Neumann-Architektur
Von-Neumann-Architektur Bisher wichtig: Konstruktionsprinzip des Rechenwerkes und Leitwerkes. Neu: Größerer Arbeitsspeicher Ein- und Ausgabewerk (Peripherie) Rechenwerk (ALU) Steuerwerk (CU) Speicher...ppppp...dddddd..
MehrArbeitsfolien - Teil 4 CISC und RISC
Vorlesung Informationstechnische Systeme zur Signal- und Wissensverarbeitung PD Dr.-Ing. Gerhard Staude Arbeitsfolien - Teil 4 CISC und RISC Institut für Informationstechnik Fakultät für Elektrotechnik
MehrRechnergrundlagen SS Vorlesung
Rechnergrundlagen SS 2007 13. Vorlesung Inhalt Cache Lesen Schreiben Überschreiben Memory Management Unit (MMU) Translation Lookaside Buffer (TLB) Klausurvorbereitung Inhalte der Klausur Rechnergrundlagen
MehrRO-Tutorien 3 / 6 / 12
RO-Tutorien 3 / 6 / 12 Tutorien zur Vorlesung Rechnerorganisation Christian A. Mandery WOCHE 4 AM 21.05.2013 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
Mehr2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
MehrTECHNISCHE HOCHSCHULE NÜRNBERG GEORG SIMON OHM Die Mikroprogrammebene eines Rechners Das Abarbeiten eines Arbeitszyklus eines einzelnen Befehls besteht selbst wieder aus verschiedenen Schritten, z.b. Befehl
MehrGrundlagen der Informationsverarbeitung:
Grundlagen der Informationsverarbeitung: Parallelität auf Instruktionsebene Prof. Dr.-Ing. habil. Ulrike Lucke Durchgeführt von Prof. Dr. rer. nat. habil. Mario Schölzel Maximaler Raum für Titelbild (wenn
MehrEin- Ausgabeeinheiten
Kapitel 5 - Ein- Ausgabeeinheiten Seite 121 Kapitel 5 Ein- Ausgabeeinheiten Am gemeinsamen Bus einer CPU hängt neben dem Hauptspeicher die Peripherie des Rechners: d. h. sein Massenspeicher und die Ein-
MehrInhaltsangabe. 2.1 DieCPU Der Speicher Die Busse Klassifikation der von-neumann-rechner... 37
2 Rechnerarchitektur - Grundlegende Rechnerarchitektur - Bestandteile eines Rechners - Klassifikation von Rechnern Inhaltsangabe 2.1 DieCPU... 33 2.2 Der Speicher...... 35 2.3 Die Busse........ 37 2.4
MehrSysteme 1: Architektur
slide 1 Vorlesung Systeme 1: Architektur Prof. Dr. Ulrich Ultes-Nitsche Forschungsgruppe Departement für Informatik Universität Freiburg slide 2 Prüfung 18. Februar 2004 8h00-11h40 13h00-18h20 20 Minuten
MehrDer von Neumann Computer
Der von Neumann Computer Grundlagen moderner Computer Technologie 1 Der moderne Computer ein weites Spektrum Typ Preis Anwendungsbeispiel embeded Computer 10-20 $ in Autos, Uhren,... Spielcomputer 100-200$
MehrTeil VIII Von Neumann Rechner 1
Teil VIII Von Neumann Rechner 1 Grundlegende Architektur Zentraleinheit: Central Processing Unit (CPU) Ausführen von Befehlen und Ablaufsteuerung Speicher: Memory Ablage von Daten und Programmen Read Only
MehrVorstellung (Wdh. für die Neuen )
Vorstellung (Wdh. für die Neuen ) Mein Name: Christian Mandery Studiengang: Diplom-Informatik im 4. Semester (ich höre also im Moment selbst noch Technische Informatik 2) E-Mail (bei Fragen und zum Senden
MehrTechnische Informatik 2
W. Schiffmann R. Schmitz Technische Informatik 2 Grundlagen der Computertechnik 3., überarbeitete Auflage mit 146 Abbildungen Ä} Springer Inhaltsverzeichnis 1. Komplexe Schaltwerke 1 1.1 Aufbau eines Schaltwerks
Mehrx Inhaltsverzeichnis 2. von NEUMANN-Rechner Grundkonzept Interne und externe Busse Prozessorregister Stackpointer
Inhaltsverzeichnis 1. Komplexe Schaltwerke 1 1.1 Zeitverhalten von Schaltwerken 2 1.1.1 Wirk- und Kippintervalle 3 1.1.2 Rückkopplungsbedingungen 6 1.2 Entwurf von Schaltwerken 9 1.3 Kooperierende Schaltwerke
Mehr2.2 Rechnerorganisation: Aufbau und Funktionsweise
2.2 Rechnerorganisation: Aufbau und Funktionsweise é Hardware, Software und Firmware é grober Aufbau eines von-neumann-rechners é Arbeitsspeicher, Speicherzelle, Bit, Byte é Prozessor é grobe Arbeitsweise
MehrComputer - Aufbau u. Funktionsweise
Teil 3 Folie: 1 Ein Computerarbeitsplatz Teil 3 Folie: 2 Was ist in der Box? Hauptplatine, Motherboard Das Bussystem Teil 3 Folie: 3 Unter einem Bussystem (oder kurz einem Bus) versteht man bei einem PC
MehrIT für Führungskräfte. Zentraleinheiten. 11.04.2002 Gruppe 2 - CPU 1
IT für Führungskräfte Zentraleinheiten 11.04.2002 Gruppe 2 - CPU 1 CPU DAS TEAM CPU heißt Central Processing Unit! Björn Heppner (Folien 1-4, 15-20, Rollenspielpräsentation 1-4) Harald Grabner (Folien
MehrTeil 1: Prozessorstrukturen
Teil 1: Prozessorstrukturen Inhalt: Mikroprogrammierung Assemblerprogrammierung Motorola 6809: ein einfacher 8-Bit Mikroprozessor Mikrocontroller Koprozessoren CISC- und RISC-Prozessoren Intel Pentium
MehrName: Vorname: Matr.-Nr.: 4. a) RISC-Architekturen müssen zur Decodierung von Maschinenbefehlen stets ein mikroprogrammierbares Steuerwerk verwenden.
Name: Vorname: Matr.-Nr.: 4 Aufgabe 1 (8 Punkte) Entscheiden Sie, welche der folgenden Aussagen zum Thema CISC/RISC-Prinzipien korrekt sind. a) RISC-Architekturen müssen zur Decodierung von Maschinenbefehlen
MehrQuiz. Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset.
Quiz Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset 32 Bit Adresse 31 3 29... 2 1 SS 212 Grundlagen der Rechnerarchitektur
MehrCPU Speicher I/O. Abbildung 11.1: Kommunikation über Busse
Kapitel 11 Rechnerarchitektur 11.1 Der von-neumann-rechner Wir haben uns bisher mehr auf die logischen Bausteine konzentriert. Wir geben jetzt ein Rechnermodell an, das der physikalischen Wirklichkeit
MehrKap.2 Befehlsschnittstelle. Prozessoren, externe Sicht
Kap.2 Befehlsschnittstelle Prozessoren, externe Sicht 2 Befehlsschnittstelle 2.1 elementare Datentypen, Operationen 2.2 logische Speicherorganisation 2.3 Maschinenbefehlssatz 2.4 Klassifikation von Befehlssätzen
MehrPhilipp Grasl PROZESSOREN
1 PROZESSOREN INHALTSVERZEICHNIS Definition/Verwendung Prozessor Historische Entwicklung Prozessor Aufbau Prozessor Funktionsweise Prozessor Steuerung/Maschinenbefehle Prozessorkern Prozessortakt 2 DEFINITION
MehrMikroprozessoren. Aufbau und Funktionsweise. Christian Richter. Ausgewählte Themen der Multimediakommunikation SS 2005
Mikroprozessoren Aufbau und Funktionsweise Christian Richter Ausgewählte Themen der Multimediakommunikation SS 2005 Christian Richter (TU-Berlin) Mikroprozessoren AT MMK 2005 1 / 22 Gliederung Was ist
MehrTeil 1: Prozessorstrukturen
Teil 1: Prozessorstrukturen Inhalt: Mikroprogrammierung Assemblerprogrammierung Motorola 6809: ein einfacher 8-Bit Mikroprozessor Mikrocontroller Koprozessoren CISC- und RISC-Prozessoren Intel Pentium
MehrCache Grundlagen. Schreibender Cache Zugriff. SS 2012 Grundlagen der Rechnerarchitektur Speicher 22
Cache Grundlagen Schreibender Cache Zugriff SS 212 Grundlagen der Rechnerarchitektur Speicher 22 Eine einfache Strategie Schreibt man nur in den Cache, werden Cache und darunter liegender Speicher inkonsistent.
MehrSeminar Parallele Rechnerarchitekturen SS04 \ SIMD Implementierung aktueller Prozessoren 2 (Dominik Tamm) \ Inhalt. Seite 1
\ Inhalt Seite 1 \ Inhalt SIMD Kurze Rekapitulation 3Dnow! (AMD) AltiVec (PowerPC) Quellen Seite 2 \ Wir erinnern uns: Nach Flynn s Taxonomie kann man jeden Computer In eine von vier Kategorien einteilen:
MehrInhalt. Prozessoren. Curriculum Manfred Wilfling. 28. November HTBLA Kaindorf. M. Wilfling (HTBLA Kaindorf) CPUs 28. November / 9
Inhalt Curriculum 1.4.2 Manfred Wilfling HTBLA Kaindorf 28. November 2011 M. Wilfling (HTBLA Kaindorf) CPUs 28. November 2011 1 / 9 Begriffe CPU Zentraleinheit (Central Processing Unit) bestehend aus Rechenwerk,
Mehr11.0 Rechnerarchitekturen
11.0 Rechnerarchitekturen Die Ziele dieses Kapitels sind: Kennen lernen der Rechnerklassifikation nach Flynn Betrachtung von Prozessorarchitekturen auf verschiedenen Abstraktionsebenen - Befehlsarchitektur
MehrAm Beispiel der SHARC-DSPs Jan Kiene
Besonderheiten von DSP-Architekturen Am Beispiel der SHARC-DSPs Jan Kiene Inhalt Digitale Signalverarbeitung (kurze Wdh) Anforderungen an DSPs Besonderheiten von DSP-Architekturen Die SHARC-DSPs von Analog
MehrMicrocomputertechnik
Microcomputertechnik mit Mikrocontrollern der Familie 8051 Bearbeitet von Bernd-Dieter Schaaf 2. Auflage 2002. Buch. 230 S. Hardcover ISBN 978 3 446 22089 8 Format (B x L): 16 x 22,7 cm Gewicht: 407 g
MehrPrinzipieller Aufbau und Funktionsweise eines Prozessors
Prinzipieller Aufbau und Funktionsweise eines Prozessors [Technische Informatik Eine Einführung] Univ.- Lehrstuhl für Technische Informatik Institut für Informatik Martin-Luther-Universität Halle-Wittenberg
MehrMikrocomputertechnik
Mikrocomputertechnik Bernd-Dieter Schaaf Mit Mikrocontrollern der Familie 8051 ISBN 3-446-40017-6 Leseprobe Weitere Informationen oder Bestellungen unter http://www.hanser.de/3-446-40017-6 sowie im Buchhandel
MehrSchriftliche Prüfung
OTTO-VON-GUERICKE-UNIVERSITÄT MAGDEBURG FAKULTÄT FÜR INFORMATIK Schriftliche Prüfung im Fach: Rechnersysteme Studiengang: Bachelor (PF CSE / IF; WPF CV / WIF) am: 30. Juli 2008 Bearbeitungszeit: 120 Minuten
Mehrb i Ergänzung zu Vollkonjunktionen (ohne Indizierung i = 0... n-1): q = a b a b q = a b q = a b a b a b
Ansatz: Die Realisierung von arithmetischen Operationen mit Logikgattern führt zu ähnlichen Verarbeitungsstrukturen für arithmetische und logische Befehle Parallele Zahlwort/oder Logikverarbeitung ist
MehrMikroprozessoren Grundlagen AVR-Controller Input / Output (I/O) Interrupt Mathematische Operationen
Mikroprozessoren Grundlagen Aufbau, Blockschaltbild Grundlegende Datentypen AVR-Controller Anatomie Befehlssatz Assembler Speicherzugriff Adressierungsarten Kontrollstrukturen Stack Input / Output (I/O)
MehrVorlesung Rechnerarchitektur. Einführung
Vorlesung Rechnerarchitektur Einführung Themen der Vorlesung Die Vorlesung entwickelt an Hand von zwei Beispielen wichtige Prinzipien der Prozessorarchitektur und der Speicherarchitektur: MU0 Arm Speicher
MehrRechnergrundlagen. Vom Rechenwerk zum Universalrechner
Rechnergrundlagen. Vom Rechenwerk zum Universalrechner von Rainer Kelch 1. Auflage Hanser München 2003 Verlag C.H. Beck im Internet: www.beck.de ISBN 978 3 446 22113 0 Zu Leseprobe schnell und portofrei
MehrCompiler für f r Eingebettete Systeme (CfES)
Compiler für f r Eingebettete Systeme (CfES) Sommersemester 2009 Dr. Heiko Falk Technische Universität Dortmund Lehrstuhl Informatik 12 Entwurfsautomatisierung für Eingebettete Systeme Kapitel 9 Ausblick
MehrRechner Architektur. Martin Gülck
Rechner Architektur Martin Gülck Grundlage Jeder Rechner wird aus einzelnen Komponenten zusammengesetzt Sie werden auf dem Mainboard zusammengefügt (dt.: Hauptplatine) Mainboard wird auch als Motherboard
MehrDie Mikroprogrammebene eines Rechners
Die Mikroprogrammebene eines Rechners Das Abarbeiten eines Arbeitszyklus eines einzelnen Befehls besteht selbst wieder aus verschiedenen Schritten, z.b. Befehl holen Befehl dekodieren Operanden holen etc.
MehrGrundlagen der Rechnerarchitektur. Einführung
Grundlagen der Rechnerarchitektur Einführung Unsere erste Amtshandlung: Wir schrauben einen Rechner auf Grundlagen der Rechnerarchitektur Einführung 2 Vorlesungsinhalte Binäre Arithmetik MIPS Assembler
MehrRechnergrundlagen. Vom Rechenwerk zum Universalrechner. von Prof. Dr. Rainer Kelch. Fachbuchverlag Leipzig im Carl Hanser Verlag
Rechnergrundlagen Vom Rechenwerk zum Universalrechner von Prof. Dr. Rainer Kelch mit 118 Bildern, 44 Tabellen, 11 Beispielen, 15 Aufgaben und einer CD-ROM ГЯ Fachbuchverlag Leipzig im Carl Hanser Verlag
MehrTeil 1: Prozessorstrukturen
Teil 1: Prozessorstrukturen Inhalt: Mikroprogrammierung Assemblerprogrammierung Motorola 6809: ein einfacher 8-Bit Mikroprozessor Mikrocontroller Koprozessoren CISC- und RISC-Prozessoren Intel Pentium
MehrKapitel 11 RISC-Rechner
Kapitel 11 - RISC-Rechner Seite 219 Kapitel 11 RISC-Rechner (reduced instruction set computer, RISC) 11.1. Einleitung In den Achtzigerjahren änderten sich die Randbedingungen für Rechner: Hardware wurde
MehrDIGITALE SCHALTUNGEN II
DIGITALE SCHALTUNGEN II 3. Sequentielle Schaltkreise 3.1 Vergleich kombinatorische sequentielle Schaltkreise 3.2 Binäre Speicherelemente 3.2.1 RS Flipflop 3.2.2 Getaktetes RS Flipflop 3.2.3 D Flipflop
MehrAufbau und Funktionsweise eines Computers
Aufbau und Funktionsweise eines Computers Thomas Röfer Hardware und Software von Neumann Architektur Schichtenmodell der Software Zahlsysteme Repräsentation von Daten im Computer Praktische Informatik
MehrZENTRALEINHEITEN GRUPPE
31. Oktober 2002 ZENTRALEINHEITEN GRUPPE 2 Rita Schleimer IT für Führungskräfte WS 2002/03 1 Rita Schleimer TEIL 1 - Inhalt Zentraleinheit - Überblick Architekturprinzipien Zentralspeicher IT für Führungskräfte
MehrTutorium Rechnerorganisation
Woche 7 Tutorien 3 und 4 zur Vorlesung Rechnerorganisation 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
MehrArchitektur von Parallelrechnern 50
Architektur von Parallelrechnern 50 Rechenintensive parallele Anwendungen können nicht sinnvoll ohne Kenntnis der zugrundeliegenden Architektur erstellt werden. Deswegen ist die Wahl einer geeigneten Architektur
MehrDie HAM. Die Hypothetische Akku-Maschine
Die HAM Die Hypothetische Akku-Maschine Inhaltsverzeichnis 1 Die Ham 1.1 Überblick 1.2 Hardware Funktion der HAM 1.3 Der Assembler-Befehlssatz Addition zweier Zahlen 1.4 Der HAM-Editor Addition zweier
MehrRechnerstrukturen. 5. Speicher. Inhalt. Vorlesung Rechnerstrukturen Wintersemester 2002/03. (c) Peter Sturm, Universität Trier 1.
Rechnerstrukturen 5. Speicher 5.1 Motivation Speichertypen RAM / ROM Dynamisches RAM Inhalt Cache-Speicher Voll Assoziativ n-wege Assoziativ Direct Mapping 5.2 (c) Peter Sturm, Universität Trier 1 Der
MehrL3. Datenmanipulation
L Datenmanipulation Aufbau eines Computers Prozessor, Arbeitsspeicher und system Maschinensprachen und Maschinenbefehle Beispiel einer vereinfachten Maschinensprache Ausführung des Programms und Befehlszyklus
MehrInformatik 12 Kapitel 3 - Funktionsweise eines Rechners
Fachschaft Informatik Informatik 12 Kapitel 3 - Funktionsweise eines Rechners Michael Steinhuber König-Karlmann-Gymnasium Altötting 9. Februar 2017 Folie 1/36 Inhaltsverzeichnis I 1 Komponenten eines PCs
MehrVorwort Teil 1: Grundlagen 1. 1 Einleitung Grundbegriffe Einheiten Geschichte Arten von Computern 8
Inhaltsverzeichnis Vorwort Teil 1: Grundlagen 1 1 Einleitung 3 1.1 Grundbegriffe 3 1.2 Einheiten 5 1.3 Geschichte 6 1.4 Arten von Computern 8 2 Allgemeiner Aufbau eines Computersystems 15 2.1 Blockdiagramm
MehrDigitaltechnik II SS 2007
Digitaltechnik II SS 27 5. Vorlesung Klaus Kasper Inhalt Zyklische Folgeschaltung Asynchroner Zähler Synchroner Zähler Schaltungsanalyse Register Digitaltechnik 2 2 JKFlipFlop I Digitaltechnik 2 3 JKFlipFlop
Mehr1 Aufgaben Wie funktioniert ein Computer. a) Welche Spannungen werden von PC-Netzteilen bereitgestellt? 5W, 12W,
81 1 Aufgaben Wie funktioniert ein Computer Netzteil a) Welche Spannungen werden von PCNetzteilen bereitgestellt? 3 BV 5W 12W 5 V 12W b) Warum können PCNetzteile hohe Leistungen liefern obwohl die eingebauten
Mehrnutzt heute Diese Prinzipien werden wir im Kapitel 3 behandelt Lehrstuhl für Informatik 3 - D. Fey Vorlesung GRa - SS
3.1 Einführung (1) Nahezu jeder Prozessor in einem Desktop-Rechner (der auf oder unter dem Tisch steht) und in einem Server- Rechner (auf dem man sich von der Ferne einloggt und dort rechnet) nutzt heute
MehrGrundlagen der Rechnerarchitektur. Speicher
Grundlagen der Rechnerarchitektur Speicher Übersicht Speicherhierarchie Cache Grundlagen Verbessern der Cache Performance Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 2 Speicherhierarchie
Mehr1. Übersicht zu den Prozessorfamilien 2 2. Grundlagen der Rechnerorganisation 3
1. Übersicht zu den Prozessorfamilien 2 2. Grundlagen der Rechnerorganisation 3 2.1. Aufbau eines Rechners in Ebenen 3 2.2. Die Ebene der elektronischen Bauelemente 5 2.3. Die Gatterebene 5 2.3.1 Einfache
MehrRechnerstrukturen. 7. Assembler. Inhalt. Vorlesung Rechnerstrukturen. Assemblerprogrammierung SML-CPU. SML-Assembler. Binden
Rechnerstrukturen 7. Assembler Assemblerprogrammierung SML-CPU Inhalt SML-Assembler Adressierungsarten Instruktionssatz Assembler-Direktiven Binden 7.2 1 Maschinensprache Instruktion = Bitkombination Für
Mehr2. Computer (Hardware) K. Bothe, Institut für Informatik, HU Berlin, GdP, WS 2015/16
2. Computer (Hardware) K. Bothe, Institut für Informatik, HU Berlin, GdP, WS 2015/16 Version: 14. Okt. 2015 Computeraufbau: nur ein Überblick Genauer: Modul Digitale Systeme (2. Semester) Jetzt: Grundverständnis
Mehr3. Rechnerarchitektur
ISS: EDV-Grundlagen 1. Einleitung und Geschichte der EDV 2. Daten und Codierung 3. Rechnerarchitektur 4. Programmierung und Softwareentwicklung 5. Betriebssyteme 6. Internet und Internet-Dienste 3. Rechnerarchitektur
MehrKontrollpfad der hypothetischen CPU
Kontrollpfad der hypothetischen CPU fast alle Algorithmen benötigen FOR- oder WHILE-Schleifen und IF.. ELSE Verzweigungen Kontrollfluß ist datenabhängig CCR speichert Statussignale N,Z, V,C der letzten
Mehr1 Aufgaben zu Wie funktioniert ein Computer?
71 1 Aufgaben zu Wie funktioniert ein Computer? Netzteil a) Welche Spannungen werden von PC-Netzteilen bereitgestellt? 3.3 V, 5 V, 12 V, -5 V, -12 V. b) Warum können PC-Netzteile hohe Leistungen liefern,
MehrAbschlussklausur Informatik, SS 2012
Abschlussklausur Informatik, SS 202 09.07.202 Name, Vorname: Matr.-Nr.: Unterschrift: Zugelassene Hilfsmittel: außer Stift und Papier keine Hinweis: Geben Sie bei allen Berechnungen den vollständigen Rechenweg
MehrKontrollpfad der hypothetischen CPU
Kontrollpfad der hypothetischen CPU fast alle Algorithmen benötigen FOR- oder WHILE-Schleifen und IF.. ELSE Verzweigungen Kontrollfluß ist datenabhängig CCR speichert Statussignale N,Z, V,C der letzten
MehrMikroprozessortechnik Grundlagen 1
Grundlagen - Grundbegriffe, Aufbau, Rechnerarchitekturen, Bus, Speicher - Maschinencode, Zahlendarstellung, Datentypen - ATMELmega28 Progammierung in C - Vergleich C und C++ - Anatomie eines µc-programmes
MehrOne of the few resources increasing faster than the speed of computer hardware is the amount of data to be processed. Bin Hu
Bin Hu Algorithmen und Datenstrukturen 2 Arbeitsbereich fr Algorithmen und Datenstrukturen Institut fr Computergraphik und Algorithmen Technische Universität Wien One of the few resources increasing faster
MehrLehrveranstaltung: PR Rechnerorganisation Blatt 8. Thomas Aichholzer
Aufgabe 8.1 Ausnahmen (Exceptions) a. Erklären Sie den Begriff Exception. b. Welche Arten von Exceptions kennen Sie? Wie werden sie ausgelöst und welche Auswirkungen auf den ablaufenden Code ergeben sich
MehrN Bit Binärzahlen. Stelle: Binär-Digit:
N Bit Binärzahlen N Bit Binärzahlen, Beispiel 16 Bit: Stelle: 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1 0 Binär-Digit: 0 0 1 0 1 0 0 1 1 1 0 0 1 0 0 0 Least Significant Bit (LSB) und Most Significant Bit (MSB)
MehrLösungsvorschläge zur Übungsklausur. zum Kurs 1708 Technische Informatik II. im WS 01/02
Lösungsvorschläge zur Übungsklausur zum Kurs 1708 Technische Informatik II im WS 01/02 Aufgabe 1: (10 Punkte) Welche der folgenden Aussagen sind richtig? a) Unter dem Begriff Mikroprogramm versteht man
MehrDatenpfaderweiterung Der Single Cycle Datenpfad des MIPS Prozessors soll um die Instruktion min $t0, $t1, $t2 erweitert werden, welche den kleineren
Datenpfaderweiterung Der Single Cycle Datenpfad des MIPS Prozessors soll um die Instruktion min $t0, $t1, $t2 erweitert werden, welche den kleineren der beiden Registerwerte $t1 und $t2 in einem Zielregister
MehrKap 4. 4 Die Mikroprogrammebene eines Rechners
4 Die Mikroprogrammebene eines Rechners Das Abarbeiten eines Arbeitszyklus eines einzelnen Befehls besteht selbst wieder aus verschiedenen Schritten (Befehl holen, Befehl dekodieren, Operanden holen etc.).
Mehr2.5. Mikrocontroller-Komponenten
2.5.6 DMA Für besonders schnellen Datentransfer können leistungsfähige Mikrocontroller Daten ohne Beteiligung des Prozessorkerns transportieren: DMA (Direct Memory Access) Ein DMA-Datentransfer kann stattfinden
MehrRechnerorganisation. H.-D. Wuttke `
Rechnerorganisation Mathematische Grundlagen (1) Boolesche Algebren: BMA, BAA (2,3) Kombinatorische Schaltungen (4,5) Automaten (6,7) Sequentielle Schaltungen (8) Programmierbare Strukturen (9) Rechneraufbau
MehrRechnerstrukturen Winter SPEICHER UND CACHE. (c) Peter Sturm, University of Trier 1
9. SPEICHER UND CACHE (c) Peter Sturm, University of Trier 1 Inhalt Grundlagen Speichertypen RAM / ROM Dynamisches RAM Cache- Speicher Voll AssoziaNv n- Wege AssoziaNv Direct Mapping Beispiel: 8 Bit- Register
Mehr1 Einleitung zum RISC Prozessor
1 Einleitung zum RISC Prozessor Wesentliche Entwicklungsschritte der Computer-Architekturen [2, 3]: Familienkonzept von IBM mit System/360 (1964) und DEC mit PDP-8 (1965) eingeführt: Gleiche Hardware-Architekturen
MehrWas ist die Performance Ratio?
Was ist die Performance Ratio? Wie eben gezeigt wäre für k Pipeline Stufen und eine große Zahl an ausgeführten Instruktionen die Performance Ratio gleich k, wenn jede Pipeline Stufe dieselbe Zeit beanspruchen
MehrSystem-Architektur und -Software
System-Architektur und -Software Sommersemester 2001 Lutz Richter Institut für Informatik Universität Zürich Obligatorische Veranstaltung des Kerngebietes System-Architektur und -Software Voraussetzungen
MehrZusammenhang Interrupt, Befehlszyklus, indirekte Adressierung und Mikroprogramm [Stallings, Kap. 15, S ]
2.1.2 Behandlung von Unterbrechungen (Interrupts) Zusammenhang Interrupt, Befehlszyklus, indirekte Adressierung und Mikroprogramm [Stallings, Kap. 15, S. 582-585] t 1 : MAR (PC) t 2 : MBR Memory[MAR] PC
MehrRISC - Architekturen. Design Digitaler Systeme. Prof. Dr.-Ing. Rainer Bermbach
RISC - Architekturen Design Digitaler Systeme Prof. Dr.-Ing. Rainer Bermbach Übersicht CISC - RISC Hintergrund Merkmale von RISC-Architekturen Beispielarchitektur SPARC Zusammenfassung 2 1 CISC - RISC
MehrProzessorarchitektur. Kapitel 1 - Wiederholung. M. Schölzel
Prozessorarchitektur Kapitel - Wiederholung M. Schölzel Wiederholung Kombinatorische Logik: Ausgaben hängen funktional von den Eingaben ab. x x 2 x 3 z z = f (x,,x n ) z 2 z m = f m (x,,x n ) Sequentielle
MehrTechnische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Rechnerarchitektur Aufgabe
MehrCache Blöcke und Offsets
Cache Blöcke und Offsets Ein Cache Eintrag speichert in der Regel gleich mehrere im Speicher aufeinander folgende Bytes. Grund: räumliche Lokalität wird wie folgt besser ausgenutzt: Bei Cache Miss gleich
MehrMikroprozessor als universeller digitaler Baustein
2. Mikroprozessor 2.1 Allgemeines Mikroprozessor als universeller digitaler Baustein Die zunehmende Integrationsdichte von elektronischen Schaltkreisen führt zwangsläufige zur Entwicklung eines universellen
MehrINFORMATIK Oberstufe. Funktionsweise eines Rechners
INFORMATIK Oberstufe Funktionsweise eines Rechners Lehrplan Inf 12.3 (ca. 17 Std.): Grundlegende Kenntnisse über den Aufbau eines Rechners und seiner prinzipiellen Funktionsweise helfen den Schülern, den
Mehr3 Technikarchitekturen
3 Technikarchitekturen 3.1 Rechnerarchitektur Definition Taxonomien Komponenten Rechnergrößentypologie 3.2 Kommunikationssystemarchitektur ISO-Referenzmodell TCP/IP Grundlagen der Telekommunikation 3.3
MehrRechnerarchitektur WS 2003/2004. Klaus Waldschmidt. Teil 2. Begriffshierarchie der Rechnerarchitektur. Vorlesungsbegleitende Unterlagen
Rechnerarchitektur Vorlesungsbegleitende Unterlagen WS 2003/2004 Klaus Waldschmidt Teil 2 Begriffshierarchie der Rechnerarchitektur Seite 1 Systemarchitektur Hardwarearchitektur (Rechnerarchitektur) Softwarearchitektur
Mehr!!! Der Mikroprozessor ist überall!!!
Fachbereich Intelligent Elektrotechnik Systems Design!!! Der Mikroprozessor ist überall!!! Vorlesung im Rahmen des Junior Campus Prof. Dr.-Ing. Michael Karagounis 25.09.2015 Berufskolleg Ahlen Was ist
MehrGrundlagen der Rechnerarchitektur. MIPS Assembler
Grundlagen der Rechnerarchitektur MIPS Assembler Übersicht Arithmetik, Register und Speicherzugriff Darstellung von Instruktionen Logische Operationen Weitere Arithmetik Branches und Jumps Prozeduren 32
Mehr