I. Fortgeschrittene Architekturkonzepte
|
|
- Claus Feld
- vor 7 Jahren
- Abrufe
Transkript
1 I. Fortgeschrittene Architekturkonzepte I.1. Einordnung RISC- versus CISC-CPUs. Parallelisierungsansätze. Höhere Informatik Registerumbenennung. Sprungvorhersage. Systemprogrammierung: - Betriebssystemkonzepte, Ein- & Ausgabe K J Architektur: - Modellrechner, Pipelining, Out-Of-Order Technik E F G I Hochleistung I Digitaltechnik: - Logikbausteine, Schaltnetze & -werke, Zahlen C D Elektronik Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-1 B
2 I.2. Parallele Instruktionsausführung I.2.1 Klassifikation von Flynn SISD - Single Instruction, Single Data Stream: ein Steuerwerk, eine ALU mit Registersatz => KE ALU SIMD - Single Instruction, Multiple Data Streams: sinnvoll, wenn Kosten für Steuerwerk überwiegen, ein Steuerwerk, mehrere ALUs => "Arrayprozessoren". KE ALU ALU ALU ALU MIMD - Multiple Instruction, Multiple Data St.: typischerweise mit gemeinsamem Speicher, mehrere Steuerwerke, mehrere ALUs, Multiprozessorsysteme => ALU KE ALU KE ALU KE ALU ALU ALU MISD - Multiple Instruction, Single Data St.: Mehrere Steuerwerke und eine ALU ergibt wenig Sinn. KE KE KE Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-2
3 I.2.2 Superskalare Instruktionsausführung Parallelismus auf der Instruktionsebene (Instruction Level Parallelism). Pro Takteinheit wird mehr als ein Instruktion begonnen: entweder mehrere Instruktionen in einem Speicherwort unterbringen (64 Bit?), oder mehrere Instruktionen schnell hintereinander holen (± superscalar), Dispatch an mehrere Funktionseinheiten: Funktionseinheiten: Functional Units, Execution Units, Load- & Store-Units, Branching Units, Integer Units, FP-Units. Retirement: Abschluss der Instruktion, Freigabe der Register... Nebenbedingung! keine Datenabhängigkeiten, keine Kontrollflussabhängigkeiten, zwischen den gleichzeitigen Instruktionen. Befehl 4 Befehl 5 Befehl 6 Befehl 1 Befehl 2 Befehl 3 FU 1 FU 2 FU 3 FU n Retire Decode Dispatch Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-3
4 I.2.3 Pipelining - gestaffelte Instruktionsausführung Die Instruktionsausführung wird in mehrere kleine Schritte unterteilt und aufeinanderfolgende Instruktionen überlappen. Ausführung ohne Pipeline: 3 Takte pro Instruktion, CPI=3 (Clocks per Instruction) Befehl 1 Befehl 2 Befehl 3 Fetch Decode Execute Fetch Decode Execute Fetch Decode Execute t Ausführung mit Pipeline: eine Instruktion pro Takt wird fertig, im Idealfall CPI ~ 1. Befehl 1 Befehl 2 Fetch Befehl 3 Fetch Befehl 4 Fetch Decode Execute Fetch Decode Execute Befehl 6 Fetch Decode Execute Befehl 7 Fetch Decode Execute Decode Execute Decode Execute Fetch Decode Execute Pipeline ist voll t Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-4
5 I.2.4 Sprungvorhersage - Branch Prediction Weitere Möglichkeit, Lücken in der Pipeline zu vermeiden: je nach Prognose werden die Instruktionen am Sprungziel schon in die Pipeline geholt, vorhergesagte Instruktionen werden spekulativ ausgeführt und evtl. abgebrochen, ist die Vorhersage korrekt, so ergibt sich keine Verzögerung. Statische Sprungvorhersage für unbekannte Sprunganweisungen: für die erstmalige Ausführung einer Instruktionsspur gilt eine statische Vorhersage, bei Rückwärtssprüngen lautet die Prognose "springen" (Schleifeniteration), bei Vorwärtssprüngen lautet die Prognose "nicht springen" (Schleifenexit). Kurze Pipelines behelfen sich mit: Pipeline blockieren falls pendente Sprungentscheidung, Pipeline entleeren, falls unzutreffende Prognose, Verzögerte Sprunganweisung als Notbehelf. Architekturen mit längeren Pipelines: noch mehr spekulative Instruktionsausführung (Zuweisugen), benötigen eine wirksame Sprungvorhersage, erreichen bis zu 98% korrekte Prognosen. Wahlweise Prognose für x86- oder µoperationen. Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-5
6 I.2.5 Dynamische Sprungvorhersage (Intel Nehalem): Branch History Table: zeichnet für einen Sprungbefehl die bisherige Tendenz auf, evtl. zwei Fehlprognosen vor Korrektur der Prognose, Adressen evtl. nur auszugsweise speichern, enthält eine Signatur (?) von Sprüngen. Branch Target Buffer: vermerkt zusätzlich zur Befehlsadresse eine Zieladresse, die Zieladresse liegt dann schon vor und eine Adressrechnung entfällt, ebenfalls wirksam bei indirekten Sprüngen. Call-Return Stapel: stapelt die spätere Rückkehradresse schon beim Aufruf, z.b. 16 Einträge mit bisherigen Rückkehrzielen. Instr. Adresse taken Zieladresse CallRet.-Stapel BHT BTB + Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-6
7 I.2.6 Dynamische Out-Of-Order Ausführung Umordnung der Befehle durch die Hardware zur Laufzeit. Aufbau eines Datenflussgraphen bezüglich virtueller Register: zwischen einer Minderzahl von Operationen besteht eine vorher/nachher Relation, wenn aber keine besteht, so können Operationen nebenläufig ausgeführt werden, sobald die Eingangswerte da sind, läuft die Operation los, Operationen als Balken, Operanden als Kreise, kein richtiges Petri-Netz! Reservierungsstationen: vor den einzelnen F-Units, Ausgabe von Zeitstempeln. Reorder-Puffer: ~ Retirement Unit, Freigabe von Registern, Berücksichtigung v. Zeitstempeln, kein früheres Ergebnis darf ein späteres überschreiben... Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-7
8 I.3. Pentium Architekturdiagramm I.3.1 OOO Beispiel: - Grobstruktur Front-End System: Holen und decodieren von Instruktionen, erzeugen von sog. Mikro-Operationen, Branch Target Buffer nutzen, evtl. Mikro-Code ROM. OOO Ausführungssystem: Abbildung von sichtbaren auf interne Register, Zuordnung von internen Registern auf E-Units, OOO Ausführung, soweit möglich. Retirement-System: Wiederherstellung der ursprünglichen Ordnung, Branch Target Buffer aktualisieren, Interrupts präzise aufrufen. Speicher in-order issue front end out-of-order execution in-order retirement unit Speicher Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-8
9 I.3.2 Intel i7 Chipsatz (X58 IO Hub, ICH10) X58 enthält die Restfunktionen der ehemaligen Nordbrücke. Keine Speicherkontrollerfunktion. IO-Hub ist als Name unglücklich gewählt. Geräteadapter im ICH10 (IO- Controller Hub). Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-9
10 I.3.3 Aktuelle Intel 64 Architektur (Nehalem, i7) Superskalar, Out-Of-Order Ausführung, Multi-Core... X86 Instruktionen Q Decodierung Mikro-Instruktionen Q Register-Allozierung (RAT) Register-Rückordnung Reservierungsstation Funktion Funktion Funktion Funktion Funktion Funktion Resultat Bus Sprungvorhersage... Retirement Register Memory Ordering L1 I- Cache L1 D- Cache L2 Cache + L2 TLB Shared L3-Cache Quick Path Interconnect DDR3 Memory Control E/A RAM Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-10
11 I.3.4 Fetch/Decode Stufe (Intel Nehalem Prozessor) Aus Ablauf: x86-befehle aus L1-Cache holen, 16 Bytes pro Zugriff, daraus maximal 6 x86-befehle nach Befehls-Q, Sprungvorhersage auf Ebene der x86-befehle, 4 x86-befehle in µops decodieren, evtl. x86 Befehle fusionieren, µops in Stream-Puffer, 4 µops bereitstellen. Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-11
12 Dekodierung von x86-befehlen in Mikro-Operationen (μop, uop) Mikro-Befehle ähnlich wie die R-, I-, J-Befehle in einer MIPS-CPU, dekodierter Mikro-Befehl wird in LSD-Puffer geschrieben, Mikrocode-ROM für komplexe Befehle (>4 uops). LSD - Loop-Streaming-Detection Puffer: Enge Programmschleifen erfordern keinen Instruktionsnachschub, keine Decodierung erforderlich, falls Befehl noch im Trace-Cache, enthält Ausführungsspur und nicht Speicherabbild, enthält maximal 28 decodierte Mikro-Befehle, Sprungvorhersage auch für LSD. Unterteilung der Befehlsdecodierung in Pipelinestufen: Zugriff auf den Instruktionscache (evtl. Stall), Bestimmen der Instruktionsgrenzen, nebenläufige Sprungvorhersage, vierfache Decodierung, Pufferung... Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-12
13 I.3.5 Funktionseinheiten - Execution Units Intel Core i7 Processor Extreme Edition (Dez. 2008): Quad Core, 3,2 GHz, 1066 MHz FSB, 8 MB Cache, ~25 GB/sec. Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-13
14 Taktzyklen bis eine neue Instruktion akzeptiert wird: als Referenz Intel IA-32 Architecture Optimization - Reference manual, Appendix C, für höhere Funktionen ohne Pipelining (FPDIV, FPTAN, FPSQRT..), einigermassen deterministisch für Register-zu-Register Instruktionen, 2 Takte für einige Einheiten (FP-Mult, XMM,...), 1 Takt für die Mehrzahl der anderen Einheiten, 0,5 Takte für Integer Einheiten ( >7 GHz ). Latenzzeiten für pipelined Instruktionen: Register-zu-Register Instruktionen, 0,5 Takte für manche Integer Instruktionen, 1-16 Takte für andere überlappend ausgeführte Instruktionen, Speicherzugriffe: Über Load- & Store-Units, auf Cache oder Arbeitsspeiche, 1066 MHz * 8 Bytes (4-fach verschränkt, Basistakt 266MHz), Memory-Reorder Puffer liefert noch nicht gespeicherte Operanden. Out-Of-Order Engine wird später erläutert. Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-14
15 I.4. Weitere Registerabhängigkeiten I.4.1 Read-after-Write Hazard (Revisited) Entstehen, weil Resultate früherer Befehle noch nicht verfügbar sind. RAW-Konflikte können mithilfe einer Forward-Logik entschärft werden: wurde im Rahmen der MIPS-Architektur ausgiebig diskutiert, Pipelineblockierungen (Stalls, Bubbles) evtl. reduzieren. Zyklendiagramm: Pipelinesituation: Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-15
16 I.4.2 Write-after-Read Hazard Add.d f7,f7,f4 wartet auf Register f7 (Read-after-Write, kein Forward). WAR-Konflikt auf f4: mul.d f4,f5,f6 darf f4 noch nicht schreiben, alter Inhalt von f4 wird noch benötigt, add.d kann seine beiden Operanden f7, f4 noch nicht holen, entsteht nur mit mehr als einer Pipeline bzw. FU. Zyklensituation: Pipelinesituation: Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-16
17 I.4.3 Write-after-Write Hazard WAW auf Register f7: add wartet mit dem Schreiben von Register f7, mul muss vor dem add-befehl in f7 schreiben. Zyklendiagramm: Pipelinesituation: add wartet in Stufe 1, warten in der letzen Stufe wäre auch OK. Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-17
18 I.5. Dynamische Ausführungsplanung I.5.1 Scoreboard Technik Aus der Sicht einer anstehenden Instruktion: 1. Wartet solange keine Ausführungseinheit (FU) frei ist, 2. Wartet solange ein WAW-Konflikt beim Resultatregister besteht, 3. FU wird belegt, sobald Bedingungen aus 1 & 2 nicht mehr zutreffen, 4. FU wartet mit der Ausführung, bis die Operanden verfügbar werden, 5. FU wartet mit Resultatablieferung bis ein allfälliger WAR vorbei ist. 4: Bereit? 4: Bereit? Instruktion (1,2?) 1: Frei? 2: WAW? Oft sind zuwenig Resultatregister verfügbar! 5: WAR? Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-18
19 I.5.2 Register-Umbenennung Dynamische Registerumbenennung reduziert WAR- & WAW-Konflikte und erleichtert die Out-Of-Order Ausführung. Zum Beispiel beim Pentium IV: In einer "Front-End" Stufe werden Maschinenbefehle in Mikro-Ops umgesetzt, die Intel IA-32 Register werden dynamisch auf 128 interne Register abgebildet, die sichtbaren IA-32 Register werden mehrfach abgebildet (Register-Aliasing), für die Rückabbildung der internen auf die IA-32 R. gibt es Zeitstempel. die IA-32 Architektur hat aus heutiger Sicht zu wenig Register, Aufbau eines Ablaufplanes: im Prinzip kann ein suboptimaler deterministischer Ablaufplan erstellt werden, die Wartezeiten auf Speicher, Cache und Sprünge sind unvorhersehbar, nichtdeterministische OOO-Ausführung kann Wartezeiten überbrücken. Interne vs. reale Register? wenn die Register schon da sind, könnte man sie auch direkt programmieren, Selektierung von 128 Registern benötigt je ein 7 Bit Feld in der Instruktion, ein rotierendes Register-Fenster würde die Register-Auswahl erleichtern, die IA-64 Architektur macht die Ausführungssteuerung explizit. Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-19
20 I.5.3 Tomasulo Verfahren Out-Of-Order Ausführung, vorgeschlagen von Robert Tomasulo: erstmals verwendet für die Gleitkommaeinheit der IBM 360/91, Entspricht Scoreboarding mit zusätzlicher Registerumbenennung. Reservierungsstationen X86 R## Mikro- Befehle Interne Register Resultat Bus Functional Units Retirement Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-20
21 Reservierungsstationen: puffern verfügbare Ergebniswerte und vermeiden damit WAR-Konflikte, verzeichnen Referenzen auf noch nicht verfügbare Ergebnisse, erkennen ankommende Ergebnisse auf dem Resultatbus, werden erst einer FU zugeordnet, wenn Operanden da, jede Reservierungsstation entspricht einer Instruktion. Registerabbildungstabelle: verzeichnen, welche x86 Register auf welche internen Register abgebildet sind, die Abbildung ändert sich, wenn jeweils ein neues Resultatregister benötigt wird, nach Abschluss der Berechnung zeigt die Abbildung den Maschinenzustand, Neuzuordnung von Resultatregistern ermeidet WAW-Konflikte. Resultatbus: liefert Resultatwerte an die wartenden Reservierungsstationen, speichert Resultatwerte in die virtuellen Register, unterstützt RAW-Management. Retirement-Unit: Wegwerfen von spekulativ berechneten Resultaten, Freigabe der internen Register und der FUs, Bussteuerung. Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-21
22 I.5.4 Out-Of-Order Ausführungseinheiten (Netburst) Rechenwerke (RISC-artig): FP-Move, FP-Exec/MMX, Load, Store 2 Ausführungseinheiten für einfache Instruktionen: doppelter Systemtakt, ALU-0, ALU-1. Langsame ALU für komplexe Integer-Instruktionen: Shift/Rot, 1 µbefehl pro Takt. Einfache Fließkommaeinheit. Vollausgebaute Fliesskommaeinheit: SIMD-Befehle (Single-Instruction-Multiple-Data) für gepackte Daten, einschließlich MMX, SSE, SSE2 Operationen. Speicher-Einheit - "Store": über Warteschlange. Lade-Einheit - "Load": Memory Prefetch, Store-Forwarding über Memory-Reorder Unit. Speichersubsystem wird später besprochen (Busse). Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-22
23 I.5.5 Gesamtbild i7 / Nehalem Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-23
24 I.5.6 Gesamtbild AMD64 (Barcelona) Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-24
25 I.6. Entwicklungsrichtungen I.6.1 Allgemeines Weiter erhöhte Integrationsdichte: Mehr Platz für Pufferspeicher und Logik auf dem Chip, Schritt zu breiteren Daten- und Befehlswörtern, zusätzliche unsichtbare Register, weitergehende Parallelisierung. Replikation auf dem Chip: Hyperthreading: Multicore CPU: Zell-Prozessoren: Replikation der Register, aber nicht der Funktionseinheiten, Vollständige Replikation des Prozessorkerns, Viele, teilweise spezialisierte Kerne. Teilweise 20 und mehr Pipelinestufen: Delayed Branch und Register-Forwarding sind nicht mehr effektiv, mehrere Pipelines gleichzeitig. Konzepte: Out-Of-Order Execution (OOO) = Dynamische Änderung der Befehlsreihenfolge dynamische Sprungzielvorhersage, Daten- und Kontrollspekulation, Register-Umbenennung... Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-25
26 I.6.2 Schlagwörter VLIW (Very Large Instruction Word) Befehlssatz ist in besonders breiten Befehlen codiert (128 bis 1024 Bit) Befehl steuert parallele Einheiten gleichzeitig an (vgl. horizontale µprogrammierung) Befehle müssen vom Compiler zusammengestellt werden EPIC (Explicit Parallel Instruction Computing) Compiler kombiniert p Befehle zu einem Befehlsbündel Template gibt an, ob Befehle parallel ausführbar z.b. IA-64 (Merced, Itanium) für p = 3, Deep Speculation. Spezielle Instruktionen Prefetch Instruktionen, um den Cache vorsorglich zu laden. Conditional-Move Instruktionen zur Sprungvermeidung, Bypass Instruktionen am Cache vorbei. Multithreading: Vervielfachung des Registersatzes (Hyperthreading), Mehr als ein Prozessorkern pro Chip (Multicore). Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-26
27 I.6.3 Messung und Bewertung von Rechnerleistung Leistungsmaße für einen Rechner unter einer gegebenen Last (Programm P): CPI (Clocks per Instruction), MIPS (Million Instructions per Second), Maximal- bzw. Minimalwerte in der Regel nicht sinnvoll Benchmark: LINPACK ( lineares Gleichungssystem. Benchmark: SPEC CPU 2000 ( SPECint2000: Mix aus 12 Anwendungsprogrammen nur mit Integerbefehlen z.b. gzip, gcc, crafty (Schach), perl... SPECfp2000: Mix aus 14 Anwendungsprogrammen mit Fließkommabefehlen, z.b. equake, art (neuronales Netz), mesa (3D-Grafik), facerec (Gesichtserkennung)... Evtl. Nutzung prozessorspezifischer Messregister (MSR)... Technische Informatik 2, Wintersemester 2007/08, P. Schulthess & F. Hauck, VS Informatik, Ulm E-27
Teil 1: Prozessorstrukturen
Teil 1: Prozessorstrukturen Inhalt: Mikroprogrammierung Assemblerprogrammierung Motorola 6809: ein einfacher 8-Bit Mikroprozessor Mikrocontroller Koprozessoren CISC- und RISC-Prozessoren Intel Pentium
MehrInstruktionen pro Takt
(c) Peter Sturm, Universität Trier (u.a.) 1 Instruktionen pro Takt 500 MIPS (Dhrystone) Taktfrequenz 450 400 350 300 250 200 150 100 50 0 8086 80286 80386 80486 Pentium Pentium Pro Die-Größen: Intel Vorlesung
MehrNeue Prozessor-Architekturen für Desktop-PC
Neue Prozessor-Architekturen für Desktop-PC Bernd Däne Technische Universität Ilmenau Fakultät I/A - Institut TTI Postfach 100565, D-98684 Ilmenau Tel. 0-3677-69-1433 bdaene@theoinf.tu-ilmenau.de http://www.theoinf.tu-ilmenau.de/ra1/
MehrCPU. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011
CPU Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 CPU 1/62 2012-02-29 CPU Übersicht: Pipeline-Aufbau Pipeline- Hazards CPU
MehrTechnische Informatik 1 Übung 8 Instruktionsparallelität (Rechenübung) Andreas Tretter 8./9. Dezember Bitte immer eine Reihe freilassen
Technische Informatik 1 Übung 8 Instruktionsparallelität (Rechenübung) Andreas Tretter 8./9. Dezember 2016 Bitte immer eine Reihe freilassen Ziele der Übung Verschiedene Arten von Instruktionsparallelität
MehrBeispiele von Branch Delay Slot Schedules
Beispiele von Branch Delay Slot Schedules Bildquelle: David A. Patterson und John L. Hennessy, Computer Organization and Design, Fourth Edition, 2012 Grundlagen der Rechnerarchitektur Prozessor 97 Weniger
Mehrfrüher: CISC ( Complex Instruction Set Computer )
Hochleistungs-CPUs früher: CISC ( Complex Instruction Set Computer ) mächtige Instruktionssätze zur Unterstützung von Hochsprachenkonstrukten durch Hardware (Idee: don t do in software what you can do
MehrWas ist die Performance Ratio?
Was ist die Performance Ratio? Wie eben gezeigt wäre für k Pipeline Stufen und eine große Zahl an ausgeführten Instruktionen die Performance Ratio gleich k, wenn jede Pipeline Stufe dieselbe Zeit beanspruchen
MehrArbeitsfolien - Teil 4 CISC und RISC
Vorlesung Informationstechnische Systeme zur Signal- und Wissensverarbeitung PD Dr.-Ing. Gerhard Staude Arbeitsfolien - Teil 4 CISC und RISC Institut für Informationstechnik Fakultät für Elektrotechnik
MehrComputergrundlagen Geschichte des Computers
Computergrundlagen Geschichte des Computers Axel Arnold Institut für Computerphysik Universität Stuttgart Wintersemester 2010/11 1641: Rechenmaschine von B. Pascal B. Pascal, 1632-1662 mechanische Rechenmaschine
MehrComputergrundlagen Geschichte des Computers
Computergrundlagen Geschichte des Computers Axel Arnold Institut für Computerphysik Universität Stuttgart Wintersemester 2011/12 1641: Rechenmaschine von B. Pascal B. Pascal, 1623-1662 mechanische Rechenmaschine
MehrTechnische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Rechnerarchitektur Aufgabe
MehrH. Intel x86 CPU. Höhere Informatik. Systemprogrammierung: - Betriebssystemkonzepte, Ein- & Ausgabe
H. Intel x86 CPU Historische Entwicklung des x86 Registersatzes. Complex Instruction Set Computer (CISC), Deskriptoren & Adressierung, Cacheausstattung. Höhere Informatik Systemprogrammierung: - Betriebssystemkonzepte,
MehrJohann Wolfgang Goethe-Universität
Flynn sche Klassifikation SISD (single instruction, single data stream): IS IS CU PU DS MM Mono (Mikro-)prozessoren CU: Control Unit SM: Shared Memory PU: Processor Unit IS: Instruction Stream MM: Memory
MehrRechnernetze und Organisation
Pentium 1 Übersicht Motivation Architektur Instruktions-Set Adressierungsarten Geschichte Verbesserung und Erweiterungen 2 Motivation Verständnis von Prozessoren: Warum Pentium statt kleiner CPU? Pentium
MehrDas Prinzip an einem alltäglichen Beispiel
3.2 Pipelining Ziel: Performanzsteigerung é Prinzip der Fließbandverarbeitung é Probleme bei Fließbandverarbeitung BB TI I 3.2/1 Das Prinzip an einem alltäglichen Beispiel é Sie kommen aus dem Urlaub und
MehrCISC ( Complex Instruction Set Computer ) mächtige Instruktionssätze zur Unterstützung von Hochsprachenkonstrukten
Hochleistungs-CPUs CISC ( Complex Instruction Set Computer ) mächtige Instruktionssätze zur Unterstützung von Hochsprachenkonstrukten durch Hardware (Idee: don t do in software what you can do in hardware
MehrDie Sandy-Bridge Architektur
Fakultät Informatik - Institut für Technische Informatik - Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Die Sandy-Bridge Architektur René Arnold Dresden, 12. Juli 2011 0. Gliederung 1.
MehrRechner Architektur. Martin Gülck
Rechner Architektur Martin Gülck Grundlage Jeder Rechner wird aus einzelnen Komponenten zusammengesetzt Sie werden auf dem Mainboard zusammengefügt (dt.: Hauptplatine) Mainboard wird auch als Motherboard
MehrPipelining. Die Pipelining Idee. Grundlagen der Rechnerarchitektur Prozessor 45
Pipelining Die Pipelining Idee Grundlagen der Rechnerarchitektur Prozessor 45 Single Cycle Performance Annahme die einzelnen Abschnitte des MIPS Instruktionszyklus benötigen folgende Ausführungszeiten:
MehrRechnernetze und Organisation
RISC 1 Übersicht Motivation RISC-Merkmale RISC-Instruktionsformat Pipelining Sparc, MIPS, Arm, PowerPC 2 Motivation Warum RISC Compiler nutzen komplexe CISC-Instruktionen kaum Nur 80% der Instruktionen
MehrGrundlagen der Informationsverarbeitung:
Grundlagen der Informationsverarbeitung: Parallelität auf Instruktionsebene Prof. Dr.-Ing. habil. Ulrike Lucke Durchgeführt von Prof. Dr. rer. nat. habil. Mario Schölzel Maximaler Raum für Titelbild (wenn
Mehr2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
MehrTechnische Informatik 1 - HS 2016
Institut für Technische Informatik und Kommunikationsnetze Prof. L. Thiele Technische Informatik 1 - HS 2016 Lösungsvorschläge für Übung 8 Datum: 8. 9. 12. 2016 1 Instruktionsparallelität VLIW Gegeben
MehrBenchmarking Intel Pentium III-S vs. Intel Pentium 4
Benchmarking Intel Pentium III-S vs. Intel Pentium 4 André Ceselski Raphael Rosendahl 30.01.2007 Gliederung Motivation Vorstellung der Architekturen Intel P6 Architektur Intel NetBurst TM Architektur Architektur-Unterschiede
MehrHYPER - THREADING HYPER-THREADING TECHNOLOGY SERGE FOPOUSSI. Serge Fopoussi UNIVERSITÄT BREMEN SEMINAR RECHNERARCHITEKTUR. Prof. Dr.
SEMINAR RECHNERARCHITEKTUR HYPER-THREADING TECHNOLOGY SERGE FOPOUSSI SEMINAR RECHNERARCHITEKTUR GLIEDERUNG 1. BACKGROUND : Arbeitsweise eines von Neumann-Rechners 2. ENTWICKLUNG VON PROZESSOREN 3. HYPER-THREADING
MehrTechnische Grundlagen der Informatik 2 SS Einleitung. R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt E-1
E-1 Technische Grundlagen der Informatik 2 SS 2009 Einleitung R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt Lernziel E-2 Verstehen lernen, wie ein Rechner auf der Mikroarchitektur-Ebene
MehrARM: Befehlssatz (Forts.)
ARM: Befehlssatz (Forts.) Befehl SWI zum Auslösen eines Software-Interrupts: Instruktionsformat: Ausführung von SWI überführt CPU in den supervisor mode (nach Retten des PC in r14_svc und des CPSR in SPSR_svc)
MehrÜbungen zu Grundlagen der Rechnerarchitektur und -organisation: Bonusaufgaben Übung 8 und Präsenzaufgaben Übung 9
Übungen zu Grundlagen der Rechnerarchitektur und -organisation: Bonusaufgaben Übung 8 und Präsenzaufgaben Übung 9 Dominik Schoenwetter Erlangen, 30. Juni 2014 Lehrstuhl für Informatik 3 (Rechnerarchitektur)
MehrMikroprozessoren. Aufbau und Funktionsweise. Christian Richter. Ausgewählte Themen der Multimediakommunikation SS 2005
Mikroprozessoren Aufbau und Funktionsweise Christian Richter Ausgewählte Themen der Multimediakommunikation SS 2005 Christian Richter (TU-Berlin) Mikroprozessoren AT MMK 2005 1 / 22 Gliederung Was ist
MehrTechnische Informatik 1 - HS 2016
Institut für Technische Informatik und Kommunikationsnetze Prof. L. Thiele Technische Informatik 1 - HS 2016 Lösungsvorschläge für Übung 6 Datum: 24. 25. 11. 2016 Pipelining 1 Taktrate / Latenz In dieser
MehrTeil VIII Von Neumann Rechner 1
Teil VIII Von Neumann Rechner 1 Grundlegende Architektur Zentraleinheit: Central Processing Unit (CPU) Ausführen von Befehlen und Ablaufsteuerung Speicher: Memory Ablage von Daten und Programmen Read Only
MehrName: Vorname: Matr.-Nr.: 4. a) RISC-Architekturen müssen zur Decodierung von Maschinenbefehlen stets ein mikroprogrammierbares Steuerwerk verwenden.
Name: Vorname: Matr.-Nr.: 4 Aufgabe 1 (8 Punkte) Entscheiden Sie, welche der folgenden Aussagen zum Thema CISC/RISC-Prinzipien korrekt sind. a) RISC-Architekturen müssen zur Decodierung von Maschinenbefehlen
MehrImplementierung: Direkt abgebildeter Cache
Implementierung: Direkt abgebildeter Cache Direkt-abgebildeter Cache von 64 KB mit 16-Byte-Linien (Adress- und Wortlänge 32 Bit, Byteadressierung) Address (showing bit positions) 31 30 29 28..... 19 18
MehrH E F B G D. C. DLX Rechnerkern
C. DLX Rechnerkern C.1. Einordnung DLX Architektur und Konzepte: Einfache "Gesamtzyklus"-DLX Maschine (non-pipelined), Verarbeitungsschritte einer Instruktion, Taktverhalten im Rechner, RISC & CISC...
MehrBesprechung des 5. Übungsblattes Parallelität innerhalb der CPU Pipelining
Themen heute Besprechung des 5. Übungsblattes Parallelität innerhalb der CPU Pipelining Organisatorisches Wie schon in den vorhergehenden Tutorien erwähnt, ist Mehrfachabgabe, außer bei Programmieraufgaben,
MehrAuch hier wieder. Control. RegDst Branch MemRead MemtoReg ALUOp MemWrite ALUSrc RegWrite. Instruction[31 26] (also: das Opcode Field der Instruktion)
Auch hier wieder Aus voriger Wahrheitstabelle lässt sich mechanisch eine kombinatorische Schaltung generieren, die wir im Folgenden mit dem Control Symbol abstrakt darstellen. Instruction[31 26] (also:
MehrMikroController und Mikroprozessoren
Uwe Brinkschulte Theo Ungerer MikroController und Mikroprozessoren Mit 205 Abbildungen und 39 Tabellen Springer Inhaltsverzeichnis 1 Grundlagen 1 1.1 Mikroprozessoren, MikroController, Signalprozessoren
Mehrnutzt heute Diese Prinzipien werden wir im Kapitel 3 behandelt Lehrstuhl für Informatik 3 - D. Fey Vorlesung GRa - SS
3.1 Einführung (1) Nahezu jeder Prozessor in einem Desktop-Rechner (der auf oder unter dem Tisch steht) und in einem Server- Rechner (auf dem man sich von der Ferne einloggt und dort rechnet) nutzt heute
MehrTechnische Informatik 1 Übung 6 Pipelining (Rechenübung) Andreas Tretter 24./25. November 2016
Technische Informatik 1 Übung 6 Pipelining (Rechenübung) Andreas Tretter 24./25. November 2016 Aufgabe 1: Taktrate / Latenz TI1 - Übung 6: Pipelining Einzeltakt-Architektur TI1 - Übung 6: Pipelining Pipelining-Architektur
MehrDIGITALE SCHALTUNGEN II
DIGITALE SCHALTUNGEN II 3. Sequentielle Schaltkreise 3.1 Vergleich kombinatorische sequentielle Schaltkreise 3.2 Binäre Speicherelemente 3.2.1 RS Flipflop 3.2.2 Getaktetes RS Flipflop 3.2.3 D Flipflop
MehrDynamisches Scheduling
12 Dynamisches Scheduling Peter Marwedel Informatik 12 TU Dortmund 2012/05/07 Diese Folien enthalten Graphiken mit Nutzungseinschränkungen. Das Kopieren der Graphiken ist im Allgemeinen nicht erlaubt.
MehrMultiple Issue. Peter Marwedel Informatik /05/15. technische universität dortmund. fakultät für informatik informatik 12
2 Multiple Issue Peter Marwedel Informatik 2 22/5/5 Diese Folien enthalten Graphiken mit Nutzungseinschränkungen. Das Kopieren der Graphiken ist im Allgemeinen nicht erlaubt. Multiple Issue Techniken der
MehrRechnerarchitektur und Betriebssysteme (CS201): Multiprogramming und -Tasking Flynn-Klassifikation, ILP, VLIW
Rechnerarchitektur und Betriebssysteme (CS201): Multiprogramming und -Tasking Flynn-Klassifikation, ILP, VLIW 26. Oktober 2012 Prof. Dr. Christian Tschudin Departement Informatik, Universität Basel Uebersicht
MehrUmsetzung in aktuellen Prozessoren
Kapitel 8: Umsetzung in aktuellen Prozessoren 4 Realisierung elementarer Funktionen Reihenentwicklung Konvergenzverfahren 5 Unkonventionelle Zahlensysteme redundante Zahlensysteme Restklassen-Zahlensysteme
MehrMikrocontroller und Mikroprozessoren
Uwe Brinkschulte Theo Ungerer Mikrocontroller und Mikroprozessoren 3. Auflage 4y Springer Inhaltsverzeichnis Vorwort Vorwort zur 2. Auflage Vorwort zur 3. Auflage Inhaltsverzeichnis VII IX XI XIII 1 Grundlagen
MehrMikroprozessoren Grundlagen AVR-Controller Input / Output (I/O) Interrupt Mathematische Operationen
Mikroprozessoren Grundlagen Aufbau, Blockschaltbild Grundlegende Datentypen AVR-Controller Anatomie Befehlssatz Assembler Speicherzugriff Adressierungsarten Kontrollstrukturen Stack Input / Output (I/O)
MehrRO II Übungen ohne Lösungen V20
H. Richter 05.04.2017 RO II Übungen ohne Lösungen V20 Übung 1: Gesamtpunktzahl [76] (76P) 1 Aufgabe: Superskalarität [22] 1.) Worin besteht der Unterschied zwischen einem skalaren Prozessor und einem superskalaren
MehrItanium 2. Götz Becker Lehrstuhl für Rechnerarchitektur
1 Itanium 2 Götz Becker Lehrstuhl für Rechnerarchitektur 2 Übersicht Einführung in die Itanium Architektur Besonderheiten der Architektur Beispiele für deren Anwendung Mikro-Architektur des Itanium 2 Compiler
MehrSysteme 1: Architektur
slide 1 Vorlesung Systeme 1: Architektur Prof. Dr. Ulrich Ultes-Nitsche Forschungsgruppe Departement für Informatik Universität Freiburg slide 2 Prüfung 18. Februar 2004 8h00-11h40 13h00-18h20 20 Minuten
MehrDer Intel Pentium 4. Architektur Teil 1. Fatih Gürsoy Betreuender. Datum: Januar 2003
Architektur Teil 1 Von: 497200916 497201193 Semester: Vorlesung: Betreuender Hochschulprofessor: I8I1x Rechnerstrukturen Prof. Dr. T. Risse Datum: Januar 2003 Inhaltsverzeichnis: 1 Einleitung... 3 2 Allgemeines
MehrInhaltsangabe. 2.1 DieCPU Der Speicher Die Busse Klassifikation der von-neumann-rechner... 37
2 Rechnerarchitektur - Grundlegende Rechnerarchitektur - Bestandteile eines Rechners - Klassifikation von Rechnern Inhaltsangabe 2.1 DieCPU... 33 2.2 Der Speicher...... 35 2.3 Die Busse........ 37 2.4
MehrInstruktionssatz-Architektur
Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Übersicht 1 Einleitung 2 Bestandteile der ISA 3 CISC / RISC Übersicht 1 Einleitung 2 Bestandteile
Mehr1. Übersicht zu den Prozessorfamilien 2 2. Grundlagen der Rechnerorganisation 3
1. Übersicht zu den Prozessorfamilien 2 2. Grundlagen der Rechnerorganisation 3 2.1. Aufbau eines Rechners in Ebenen 3 2.2. Die Ebene der elektronischen Bauelemente 5 2.3. Die Gatterebene 5 2.3.1 Einfache
MehrModul InfB-RS: Rechnerstrukturen
A. Mäder 1 MIN-Fakultät Fachbereich Informatik 64-040 Modul InfB-RS: Rechnerstrukturen https://tams.informatik.uni-hamburg.de/ lectures/2016ws/vorlesung/rs Kapitel 17 Andreas Mäder Universität Hamburg
Mehr1. Übersicht zu den Prozessorfamilien 2 2. Grundlagen der Rechnerorganisation 3
1. Übersicht zu den Prozessorfamilien 2 2. Grundlagen der Rechnerorganisation 3 2.1. Aufbau eines Rechners in Ebenen 3 2.2. Die Ebene der elektronischen Bauelemente 5 2.3. Die Gatterebene 5 2.3.1 Einfache
MehrData Hazards. Grundlagen der Rechnerarchitektur Prozessor 74
Data Hazards Grundlagen der Rechnerarchitektur Prozessor 74 Motivation Ist die Pipelined Ausführung immer ohne Probleme möglich? Beispiel: sub $2, $1, $3 and $12, $2, $5 or $13, $6, $2 add $14, $2, $2
Mehrmoderne Prozessoren Jan Krüger jkrueger@techfak.uni-bielefeld.de
moderne Prozessoren Jan Krüger jkrueger@techfak.uni-bielefeld.de Übersicht FachChinesisch SPARC - UltraSparc III/IV PowerPC - PowerPC 970(G5) X86 - Pentium4(Xeon), Itanium, (Pentium M) X86 - AthlonXP/MP,
MehrVorlesung "Struktur von Mikrorechnern" (SMR)
Prozessorhistorie: Pentium Der erste Pentium-Prozessor wurde 99 von Intel vorgestellt. Er besitzt: - 64 Bit breites Bus-Interface - zweigeteilter Primär-Cache mit je 8 KB für Code und Daten - Bezeichnung
Mehr2. Computer (Hardware) K. Bothe, Institut für Informatik, HU Berlin, GdP, WS 2015/16
2. Computer (Hardware) K. Bothe, Institut für Informatik, HU Berlin, GdP, WS 2015/16 Version: 14. Okt. 2015 Computeraufbau: nur ein Überblick Genauer: Modul Digitale Systeme (2. Semester) Jetzt: Grundverständnis
MehrArchitektur von Parallelrechnern 50
Architektur von Parallelrechnern 50 Rechenintensive parallele Anwendungen können nicht sinnvoll ohne Kenntnis der zugrundeliegenden Architektur erstellt werden. Deswegen ist die Wahl einer geeigneten Architektur
MehrArchitektur paralleler Plattformen
Architektur paralleler Plattformen Freie Universität Berlin Fachbereich Informatik Wintersemester 2012/2013 Proseminar Parallele Programmierung Mirco Semper, Marco Gester Datum: 31.10.12 Inhalt I. Überblick
MehrVorlesung Rechnerarchitektur. Einführung
Vorlesung Rechnerarchitektur Einführung Themen der Vorlesung Die Vorlesung entwickelt an Hand von zwei Beispielen wichtige Prinzipien der Prozessorarchitektur und der Speicherarchitektur: MU0 Arm Speicher
MehrCPU Speicher I/O. Abbildung 11.1: Kommunikation über Busse
Kapitel 11 Rechnerarchitektur 11.1 Der von-neumann-rechner Wir haben uns bisher mehr auf die logischen Bausteine konzentriert. Wir geben jetzt ein Rechnermodell an, das der physikalischen Wirklichkeit
Mehr9. Fließbandverarbeitung
9. Fließbandverarbeitung Nachteile der Mikroprogrammierung Von CISC zu RISC Fließbandverarbeitung Pipeline-Hazards Behandlung von Daten- und Kontroll-Hazards 334 Nachteile mikroprogrammierter CPUs Zusätzliche
MehrWas ist Rechnerleistung
Was ist Rechnerleistung Leistung im engeren Sinne: Leistung gemessen in seltsamen Einheiten, bestimmt vorwiegend von der Zentraleinheit: MIPS (Millionen Instruktionen pro Sekunde) FLOPS (Floating Point
MehrStruktur der CPU (1) Die Adress- und Datenpfad der CPU: Befehl holen. Vorlesung Rechnerarchitektur und Rechnertechnik SS Memory Adress Register
Struktur der CPU (1) Die Adress- und Datenpfad der CPU: Prog. Counter Memory Adress Register Befehl holen Incrementer Main store Instruction register Op-code Address Memory Buffer Register CU Clock Control
Mehr9.1. Aufbau einer Befehlspipeline
Kapitel 9 - Befehlspipelining Seite 191 Kapitel 9 Befehlspipelining 9.1. Aufbau einer Befehlspipeline Ein typischer Befehl in einer Maschine mit einem RISC-artigen Befehlssatz besteht aus den Operationen:
MehrL3. Datenmanipulation
L Datenmanipulation Aufbau eines Computers Prozessor, Arbeitsspeicher und system Maschinensprachen und Maschinenbefehle Beispiel einer vereinfachten Maschinensprache Ausführung des Programms und Befehlszyklus
MehrMikroprozessoren Grundlagen AVR-Controller Input / Output (I/O) Interrupt Mathematische Operationen
Mikroprozessoren Grundlagen Aufbau, Blockschaltbild Grundlegende Datentypen AVR-Controller Anatomie Befehlssatz Assembler Speicherzugriff Adressierungsarten Kontrollstrukturen Stack Input / Output (I/O)
MehrEchtzeit Videoverarbeitung
Hardwareplattformen für Echtzeit Videoverarbeitung Herbert Thoma Seite 1 Gliederung Echtzeitanforderungen Prozessorarchitekturen Grundlagen Pipelining Parallele Befehlsausführung Systemkomponenten Speicher
MehrTechnische Informatik 1 - HS 2017
Institut für Technische Informatik und Kommunikationsnetze Prof. L. Thiele Technische Informatik 1 - HS 2017 Übung 8 Datum: 30. 11. 1. 12. 2017 In dieser Übung soll mit Hilfe des Simulators WinMIPS64 die
MehrRechnerorganisation. 1. Juni 201 KC Posch
.6.2 Rechnerorganisation. Juni 2 KC Posch .6.2 2 .6.2 Front Side Bus Accelerated Graphics Port 28 MHz Front Side Bus North Bridge RAM idge South Bri IDE USB PCI Bus 3 .6.2 Front Side Bus Front Side Bus
MehrDatenpfad einer einfachen MIPS CPU
Datenpfad einer einfachen MIPS CPU Zugriff auf den Datenspeicher Grundlagen der Rechnerarchitektur Prozessor 19 Betrachten nun Load und Store Word Erinnerung, Instruktionen lw und sw sind vom I Typ Format:
MehrTECHNISCHE HOCHSCHULE NÜRNBERG GEORG SIMON OHM Die Mikroprogrammebene eines Rechners Das Abarbeiten eines Arbeitszyklus eines einzelnen Befehls besteht selbst wieder aus verschiedenen Schritten, z.b. Befehl
MehrTeil Rechnerarchitekturen M07. Multiprogramming und Tasking, Flynn-Klassifikation, Parallelismus. Corinna Schmitt
Teil Rechnerarchitekturen M07 Multiprogramming und Tasking, Flynn-Klassifikation, Parallelismus Corinna Schmitt corinna.schmitt@unibas.ch Multiprogrammierung und -Tasking 2015 Corinna Schmitt Teil Rechnerarchitekturen
Mehr4 Der Von-Neumann-Rechner als Grundkonzept für Rechnerstrukturen
4 Der Von-Neumann-Rechner als Grundkonzept für Rechnerstrukturen Ein Rechner besteht aus den folgenden Bestandteilen: Rechenwerk Rechenoperationen wie z.b. Addition, Multiplikation logische Verknüpfungen
MehrDie Mikroprogrammebene eines Rechners
Die Mikroprogrammebene eines Rechners Das Abarbeiten eines Arbeitszyklus eines einzelnen Befehls besteht selbst wieder aus verschiedenen Schritten, z.b. Befehl holen Befehl dekodieren Operanden holen etc.
MehrTutorium Rechnerorganisation
Woche 3 Tutorien 3 und 4 zur Vorlesung Rechnerorganisation 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
MehrRechnergrundlagen SS 2007. 11. Vorlesung
Rechnergrundlagen SS 2007 11. Vorlesung Inhalt Evaluation der Lehre (Auswertung) Synchroner/asynchroner Systembus Kontrollfluss/Datenfluss RISC vs. CISC Speicherhierarchie Cache Lesen Schreiben Überschreiben
MehrDatenpfad einer einfachen MIPS CPU
Datenpfad einer einfachen MIPS CPU Zugriff auf den Datenspeicher Grundlagen der Rechnerarchitektur Prozessor 19 Betrachten nun Load und Store Word Erinnerung, Instruktionen lw und sw sind vom I Typ Format:
Mehr3 Technikarchitekturen
3 Technikarchitekturen 3.1 Rechnerarchitektur Definition Taxonomien Komponenten Rechnergrößentypologie 3.2 Kommunikationssystemarchitektur ISO-Referenzmodell TCP/IP Grundlagen der Telekommunikation 3.3
MehrCISC-RISC-EPIC. eine Zwangs-Evolution?! Jörg Spilling - DECUS Frankfurter Treffen Seite: 1
CISC-RISC-EPIC eine Zwangs-Evolution?! Jörg Spilling - DECUS Frankfurter Treffen 2008 www.equicon.de Seite: 1 Heutiges Programm: CISC-RISC-EPIC - Begriffserklärung von Neumann Rechnerarchitektur Evolution
MehrInformatik 12 Kapitel 3 - Funktionsweise eines Rechners
Fachschaft Informatik Informatik 12 Kapitel 3 - Funktionsweise eines Rechners Michael Steinhuber König-Karlmann-Gymnasium Altötting 9. Februar 2017 Folie 1/36 Inhaltsverzeichnis I 1 Komponenten eines PCs
MehrAusführungszeitvorhersage. Dipl.-Inf. J. Richling M. Mergner Wintersemester 2003/2004
Ausführungszeitvorhersage Dipl.-Inf. J. Richling M. Mergner Wintersemester 2003/2004 Gliederung 1. Einleitung 2. Theoretische Vorbetrachtungen 3. Technische Grundlagen der Referenzarchitektur 4. Ein Beispielalgorithmus
MehrFachbereich Medienproduktion
Fachbereich Medienproduktion Herzlich willkommen zur Vorlesung im Studienfach: Grundlagen der Informatik Themenübersicht Rechnertechnik und IT Sicherheit Grundlagen der Rechnertechnik Prozessorarchitekturen
MehrDigitaltechnik und Rechnerstrukturen Lothar Thiele Institut für Technische Informatik und Kommunikationsnetze ETH Zürich 1.
Materialien Digitaltechnik und Rechnerstrukturen Lothar Thiele Institut für Technische Informatik und Kommunikationsnetze ETH Zürich 1. Einleitung 1 Digitaltechnik und Rechnerstrukturen Vorlesungs- und
MehrTeil Rechnerarchitekturen. Repetitorium. Corinna Schmitt
Teil Rechnerarchitekturen Repetitorium Corinna Schmitt corinna.schmitt@unibas.ch Vorlesungsinhalt Rechnerarchitekturen M01: Architektur, ALU, Flip-Flop M02: Einführung in die Sprache C M03: 2er-Komplement,
MehrPhilipp Grasl PROZESSOREN
1 PROZESSOREN INHALTSVERZEICHNIS Definition/Verwendung Prozessor Historische Entwicklung Prozessor Aufbau Prozessor Funktionsweise Prozessor Steuerung/Maschinenbefehle Prozessorkern Prozessortakt 2 DEFINITION
MehrIT für Führungskräfte. Zentraleinheiten. 11.04.2002 Gruppe 2 - CPU 1
IT für Führungskräfte Zentraleinheiten 11.04.2002 Gruppe 2 - CPU 1 CPU DAS TEAM CPU heißt Central Processing Unit! Björn Heppner (Folien 1-4, 15-20, Rollenspielpräsentation 1-4) Harald Grabner (Folien
MehrInstitut für Informatik Prof. Dr. D. Hogrefe Dipl.-Inf. R. Soltwisch, Dipl.-Inform. M. Ebner, Prof. Dr. D. Hogrefe Informatik II - SS 04.
Kontrollstrukturen Informatik II SS 2004 Teil 4: Assembler Programmierung Sprünge (bedingte und unbedingte) If-then-else, Case Loop (n Durchläufe) While (Abbruchbedingung) Institut für Informatik Prof.
MehrInhalt. Prozessoren. Curriculum Manfred Wilfling. 28. November HTBLA Kaindorf. M. Wilfling (HTBLA Kaindorf) CPUs 28. November / 9
Inhalt Curriculum 1.4.2 Manfred Wilfling HTBLA Kaindorf 28. November 2011 M. Wilfling (HTBLA Kaindorf) CPUs 28. November 2011 1 / 9 Begriffe CPU Zentraleinheit (Central Processing Unit) bestehend aus Rechenwerk,
MehrRO-Tutorien 3 / 6 / 12
RO-Tutorien 3 / 6 / 12 Tutorien zur Vorlesung Rechnerorganisation Christian A. Mandery WOCHE 4 AM 21.05.2013 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
MehrPrinzipieller Aufbau und Funktionsweise eines Prozessors
Prinzipieller Aufbau und Funktionsweise eines Prozessors [Technische Informatik Eine Einführung] Univ.- Lehrstuhl für Technische Informatik Institut für Informatik Martin-Luther-Universität Halle-Wittenberg
MehrVorstellung der SUN Rock-Architektur
Fakultät Informatik Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Vorstellung der SUN Rock-Architektur Hauptseminar Ronald Rist Dresden, 14.01.2009
MehrComputer-Architektur Ein Überblick
Computer-Architektur Ein Überblick Johann Blieberger Institut für Rechnergestützte Automation Computer-Architektur Ein Überblick p.1/27 Computer-Aufbau: Motherboard Computer-Architektur Ein Überblick p.2/27
MehrRO-Tutorien 15 und 16
Tutorien zur Vorlesung Rechnerorganisation Tutorienwoche 10 am 29.06.2011 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft
MehrQuiz. Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset.
Quiz Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset 32 Bit Adresse 31 3 29... 2 1 SS 212 Grundlagen der Rechnerarchitektur
Mehr