1. Die Organisation von RISC-Prozessoren 2
|
|
- Dorothea Berger
- vor 5 Jahren
- Abrufe
Transkript
1 1. Die Organisation von RISC-Prozessoren Superskalarität Parallelverarbeitung Multi Core- und Many Core-CPUs Automatische Parallelisierung im Instruction Window Dynamische Befehlsausführung Die Fetch Unit CPU-interne Parallelität durch die Fetch Unit Der Prefetch Buffer Die Decode Unit Der 1st Level-Befehlscache Der 1st Level-Datencache Die 2nd, 3rd Level Caches Die Load- und Store Buffer Die Kopplung von Speicher- mit Befehls-Pipeline Die Verallgemeinerte Speicherhierarchie Die Reservierungsregister Das Scoreboard der vollen Ausbaustufe Der Aufbau des Scoreboard der vollen Ausbaustufe Die Liste der Befehlszustände Die Liste der ALU-Zustände Die Liste der Zustände der Ergebnisregister Spekulative Befehlsausführung Der Reorder Buffer Zusammenfassung der Aufgaben des Reorder Buffers Präzise Interrupts durch Reorder Buffer Sonderrolle von Load/Store und Sprüngen Aufbau des Reorder Buffers Eager Execution Nachteil von Eager Execution: Register Renaming Registerfenster Häufigkeitsverteilung von Befehlen in C-Programmen Verschachtelungstiefe Zeitliche Analyse der Verschachtelungstiefen Linear angeordnete Register Zirkular angeordnete Register Zirkulare Register mit Unit-Adressengenerator Bewertung von Registerfenstern Beispiel für RISC-Prozessorarchitekturen Einfache, superskalare, Tomasulo-basierte CPU RISC-CPU mit spekulativer Befehlsausführung Gesamtschaltbild RISC-CPU 64 0
2 Speicherverwaltungseinheiten (MMUs) für RISC-CPUs Beispiel des RISC-Prozessors HP Alpha Kombinierte RISC/CISC-Architektur der Intel x-86 CPUs Die Organisation von Parallelrechnern Multi Core-CPU Warum gibt es Multicore-CPUs? Programmierung von Multicore-CPUs Many Core-CPU Multiprozessoren Multicomputer Cluster-Computer Parallelrechner Warum gibt es Parallelrechner? Ziele beim Entwurf eines Parallelrechners Abgrenzung gegenüber verteilten Systemen auf LAN-Basis Was sind die wesentlichen Punkte bei Parallelrechnern? Kategorien bei der Parallelrechnerorganisation Definition Verbindungsnetzwerk Uniform Memory Access Computer (UMA) Bus/Speicherkopplung Sättigungseffekt bei der Bus-Speicher-Kopplung Erhöhung der Bandbreite bei der Bus/Speicherkopplung Konsistenzproblem bei Cache-Kopien Bewertung der Beschleunigungsmaßnahmen bei Bus/Speicher- Kopplung Kosten/Nutzen-Analyse der Beschleunigungsmaßnahmen Non-Uniform Memory Access Computer (NUMA) Beschleunigung durch Lokalspeicher Beschleunigung durch lokale Caches Prozessor/Core-Kopplung über Multiport Memory Beispiel für Multiport Memory-Kopplung Parallelbussysteme D-Busmatrizen (Kreuzschienenverteiler) Hierarchische Bussysteme Skalierbarkeit von Verbindungsnetzwerken Übersicht zur Programmierung von Parallelrechnern Funktionsparallelisierung versus Datenparallelisierung Modelle der Kommunikation Testen paralleler Programme Implementierung der Kommunikationsmodelle Zusammenfassung Parallelrechnerprogrammierung Grundlagen statischer und dynamischer Netze 110 1
3 3.1. Eng gekoppelte Systeme DSM UMA-Architektur DSM NUMA-Architektur Transparenter Zugriff auf entfernten Hauptspeicher SVM NUMA-Architektur COMA-Architektur Programmierung eng gekoppelter Systeme Zugriffssynchronisation für gemeinsame Variable Semaphore Peer-to-Peer-Kommunikation über Semaphore Netzwerkweite Semaphore (=Entfernte Semaphore) Monitore Critical Sections Lose gekoppelte Systeme Botschaftenaustausch Virtuelle Kommunikationskanäle mittels D-Controller Programmierung lose gekoppelter Systeme Synchrone/asynchrone Kommunikation über Botschaften Prozess-Synchronisation durch Botschaften Produzenten und Konsumenten von Daten Peer-to-Peer-Kommunikation über Rendezvous Bewertung von READ/WRITE und von (a)synchronem SEND/ RECEIVE Erweiterte Konstruktionsprinzipien von Netzen Parallelschaltung Hierarchie Rekursion Modularisierung Verbindungstypen bei eng und lose gekoppelten Systemen Datentransport bei eng und lose gekoppelten Systemen Rahmen/Pakete- und Nachrichtenformate Paket-Routing bzw. Rahmen-Switching Transportart/Flusssteuerung Store-and-Forward Routing Virtual-Cut-Through Routing Wormhole Routing Statische Verbindungsnetzwerke Symmetrie bei statischen Netzen Metriken bei statischen Netzen Konstruktion eines n-dimensionalen Überwürfels (Hypercube) Konstruktion eines de Bruijn-Graphen Routing in statischen Netzen Das Deadlock-Problem bei Interprozessor-Kommunikation Verklemmung aufgrund eines belegten Kanals Verklemmung aufgrund zweier belegter Puffer Verklemmung aufgrund vier belegter Puffer 164 2
4 4.6.4 Verklemmung aufgrund vier belegter Kanäle Verklemmung trotz getrennter Sende- und Empfangspuffer Dynamische Verbindungsnetzwerke Permutationsfunktionen Die Perfect Shuffle-Permutation Die Butterfly-Permutation Die Reversal-Permutation Die inverse Perfect Shuffle-Permutation Die Supershuffle-Funktion Die Subshuffle-Funktion Die Super-/Subbutterfly-Funktion Ternäre und quaternäre Shuffle-Permutation Kreuzschalter Kreuzschalter mit Broadcast Kreuzschalter als Kreuzschienenverteiler Die Verbindungsmöglichkeiten des 2x2 Kreuzschienenverteilers Ein fxs-schalter und ein fxs-kreuzschienenverteiler sind identisch Funktion eines 2x2-Kreuzschalters beim Durchgang eines Datenrahmens Die Exchange-Permutation Die Subexchange-Permutation Die klassischen LogN-Netze Das Shuffle-Exchange-Netzwerk Das Omega-Netz Self Routing beim Omega-Netz Kollision zweier Pfade im Omega-Netz Das Flip-Netz Analogie zwischen dem Flip-Netz und dem Signalflussgraph der Pease FFT Analogie zwischen dem Flip-Netz und der Transposition einer Matrix Das Indirect Binary n-cube-netz Funktion eines 16x16 Indirect Binary n-cube-netzes Analogie zwischen dem Indirect Binary n-cube-netz und dem Hypercube Analogie zwischen dem Indirect Binary n-cube-netz und der Cooley-Tukey FFT Das Generalized Cube-Netz Routing im Generalized Cube-Netz Das Baseline-Netz Routing im Baseline-Netz Funktion des Baseline-Netzes (N=16, n=4) Das inverse Baseline-Netz Funktion des inversen Baseline-Netzes Der Butterfly-Banyan Der inverse Butterfly-Banyan Definitionsgleichungen der logn-netze 206 3
5 Routing in logn-netzen Äquivalenz der logn-netze Umwandlung eines Flip-Netzes in ein Omega-Netz Umwandlung eines Omega-Netzes in ein Butterfly-Banyan Allgemeine Banyans Regelmäßige Banyans Einziger Banyan der Größe n=1 und f=s= Verallgemeinerung zum (f,s,1)-banyan ist ein fxs-kreuzschienenverteiler Klassifikation der Banyans Regelmäßige und rechteckige Banyans Die SW-Banyans Der (2,2,3)-SW-Banyan Der (2,2,3)-SW-Banyan in der Aktivknoteninterpretation Funktionsweise des (2,2,3)-SW-Banyans in der Aktivknoteninterpretation Der (2,2,3) Banyan in der Passivknoteninterpretation Konstruktion des (2,2,3) Banyans in der Passivknoteninterpretation Funktionsweise des Netzes N neu Topologierhaltende Umwandlung des Netzes N neu Anwendungen von SW-Banyans Parallelrechner mit 64-Prozessoren in Fat Tree-Topologie Topologie des (4,2,2)-Banyans mit N 1 =32 und N 2 =16 und N 3 = Systematische Konstruktion von Banyans Sequenz der ersten drei SW-Banyans (2,2,1), (2,2,2) und (2,2,3) Additive Konstruktion eines (2,2,2)- SW-Banyans aus 4 Binärbäumen Rekursive Konstruktion eines (2,2,2)-SW-Banyans aus (2,2,1)- SW-Banyans Routing in einem regelmäßigen und rechteckigen Banyan Routing im (2,2,n)-SW-Banyan Die CC-Banyans Routing im (2,2,n)-Cylindrical Cross Hatched-Banyan Das Clos-Netz Das Benes-Netz Das doppelte Baseline-Netz nach Wu und Feng Das Lee-Netz 252 4
RO II Übungen ohne Lösungen V20
H. Richter 05.04.2017 RO II Übungen ohne Lösungen V20 Übung 1: Gesamtpunktzahl [76] (76P) 1 Aufgabe: Superskalarität [22] 1.) Worin besteht der Unterschied zwischen einem skalaren Prozessor und einem superskalaren
MehrRO II Übungen ohne Lösungen V24
H. Richter 26.04.2018 RO II Übungen ohne Lösungen V24 Übung 1: Gesamtpunktzahl [100] (100P) 1 Aufgabe: Superskalarität 1.) Was bedeutet der Begriff Superskalarität? (1P)[1] 2.) Worin besteht der Unterschied
MehrRO II Übungen ohne Lösungen V16
RO II Übungen ohne Lösungen V16 HRI 23.04.2015 1 Übung 1 (149P) Superskalarität, Parallelität Allgemein, Dynamische Befehlsausführung 1.1 Aufgabe: Superskalarität (27P) 1.) Was bedeutet der Begriff Superskalarität?
MehrArchitektur paralleler Plattformen
Architektur paralleler Plattformen Freie Universität Berlin Fachbereich Informatik Wintersemester 2012/2013 Proseminar Parallele Programmierung Mirco Semper, Marco Gester Datum: 31.10.12 Inhalt I. Überblick
MehrKapitel 5. Parallelverarbeitung. Formen der Parallelität
Kapitel 5 Parallelverarbeitung é Formen der Parallelität é Klassifikation von parallelen Rechnerarchitekturen é Exkurs über Verbindungsstrukturen Bernd Becker Technische Informatik I Formen der Parallelität
MehrDistributed Memory Computer (DMC)
Distributed Memory Computer (DMC) verteilter Speicher: jeder Prozessor kann nur auf seinen lokalen Speicher zugreifen Kopplung mehrerer Prozessoren über E/A-Schnittstellen und Verbindungsnetzwerk, nicht
MehrMehrprozessorarchitekturen
Mehrprozessorarchitekturen (SMP, UMA/NUMA, Cluster) Arian Bär 12.07.2004 12.07.2004 Arian Bär 1 Gliederung 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) Allgemeines Architektur 3. Speicherarchitekturen
MehrProseminar Rechnerarchitekturen. Parallelcomputer: Multiprozessorsysteme
wwwnet-texde Proseminar Rechnerarchitekturen Parallelcomputer: Multiprozessorsysteme Stefan Schumacher, , PGP Key http://wwwnet-texde/uni Id: mps-folientex,v
MehrRechneraufbau und Rechnerstrukturen
Rechneraufbau und Rechnerstrukturen von Prof. Dr. em. Walter Oberschelp, RWTH Aachen und Prof. Dr. Gottfried Vossen, Universität Münster 9. Auflage Oldenbourg Verlag München Wien Inhaltsverzeichnis Vorwort
MehrAbkürzungen. Kapitel 1 - Einleitung Stand der Automobilelektronik Historische Entwicklung Gegenwärtige Probleme 2
Inhalt Abkürzungen X Kapitel 1 - Einleitung 1 1.1 Stand der Automobilelektronik 1 1.1.1 Historische Entwicklung 1 1.1.2 Gegenwärtige Probleme 2 1.2 Zielsetzung 5 1.3 Aufbau der Arbeit 6 1.4 Veröffentlichungen
MehrVorlesung Rechnerorganisation II
Vorlesung Rechnerorganisation II Prof. Dr. Harald Richter Vorwort Es ist zu hoffen, dass dieses Skript einen guten Zugang zu dem nachfolgenden Fach bietet. Allerdings ist es kein Buch; es soll nur die
MehrRechneraufbau und Rechnerstrukturen
Rechneraufbau und Rechnerstrukturen von Walter Oberschelp RWTH Aachen und Gottfried Vossen Universität Münster 10. Auflage c 2006 R. Oldenbourg Verlag GmbH, München Inhaltsverzeichnis Auszug... x... aus
Mehr1. Übersicht zu den Prozessorfamilien 2 2. Grundlagen der Rechnerorganisation 3
1. Übersicht zu den Prozessorfamilien 2 2. Grundlagen der Rechnerorganisation 3 2.1. Aufbau eines Rechners in Ebenen 3 2.2. Die Ebene der elektronischen Bauelemente 5 2.3. Die Gatterebene 5 2.3.1 Einfache
MehrParallelrechner (1) Anwendungen: Simulation von komplexen physikalischen oder biochemischen Vorgängen Entwurfsunterstützung virtuelle Realität
Parallelrechner (1) Motivation: Bedarf für immer leistungsfähigere Rechner Leistungssteigerung eines einzelnen Rechners hat physikalische Grenzen: Geschwindigkeit von Materie Wärmeableitung Transistorgröße
MehrRechneraufbau und Rechnerstrukturen
Rechneraufbau und Rechnerstrukturen von Prof. Dr. Walter Oberschelp, RWTH Aachen und Prof. Dr. Gottfried Vossen, Universität Münster 7, vollständig überarbeitete und aktualisierte Auflage R.Oldenbourg
MehrNeue Prozessor-Architekturen für Desktop-PC
Neue Prozessor-Architekturen für Desktop-PC Bernd Däne Technische Universität Ilmenau Fakultät I/A - Institut TTI Postfach 100565, D-98684 Ilmenau Tel. 0-3677-69-1433 bdaene@theoinf.tu-ilmenau.de http://www.theoinf.tu-ilmenau.de/ra1/
MehrParallele und verteilte Programmierung
Thomas Rauber Gudula Rünger Parallele und verteilte Programmierung Mit 165 Abbildungen und 17 Tabellen Jp Springer Inhaltsverzeichnis 1. Einleitung 1 Teil I. Architektur 2. Architektur von Parallelrechnern
MehrSysteme 1: Architektur
slide 1 Vorlesung Systeme 1: Architektur Prof. Dr. Ulrich Ultes-Nitsche Forschungsgruppe Departement für Informatik Universität Freiburg slide 2 Prüfung 18. Februar 2004 8h00-11h40 13h00-18h20 20 Minuten
MehrArchitektur von Parallelrechnern 50
Architektur von Parallelrechnern 50 Rechenintensive parallele Anwendungen können nicht sinnvoll ohne Kenntnis der zugrundeliegenden Architektur erstellt werden. Deswegen ist die Wahl einer geeigneten Architektur
MehrVertiefungsrichtung Rechnerarchitektur
srichtung () ( für ) Prof. Dietmar Fey Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren Modellierung und Entwurf von Rechnern und Prozessoren ()
MehrAgenda. Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen. Agenda. Dynamische Verbindungsnetzwerke
Agenda Center for Information Services and High Performance Computing (ZIH) Einführung Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen Dynamische Verbindungsnetzwerke 9.
MehrFoliensatz. Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen
Foliensatz Center for Information Services and High Performance Computing (ZIH) Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen Dynamische Verbindungsnetzwerke 8. Juni Verfügbarkeit
Mehr1. Übersicht zu den Prozessorfamilien 2 2. Grundlagen der Rechnerorganisation 3
1. Übersicht zu den Prozessorfamilien 2 2. Grundlagen der Rechnerorganisation 3 2.1. Aufbau eines Rechners in Ebenen 3 2.2. Die Ebene der elektronischen Bauelemente 5 2.3. Die Gatterebene 5 2.3.1 Einfache
MehrJR - RA - SS02 Kap
3.1 Elementare Datentypen, Operationen und ihre Realisierung (siehe 2.1) 3.2 Mikroprogrammierung 3.3 Einfache Implementierung von MIPS 3.4 Pipelining 3.5 Superskalare Befehlsausführung JR - RA - SS02 Kap.
MehrÜberblick. Einleitung. Befehlsschnittstelle Mikroarchitektur Speicherarchitektur Ein-/Ausgabe Multiprozessorsysteme,...
Überblick Einleitung Lit., Motivation, Geschichte, v.neumann- Modell, VHDL Befehlsschnittstelle Mikroarchitektur Speicherarchitektur Ein-/Ausgabe Multiprozessorsysteme,... Kap.6 Multiprozessorsysteme Einsatz
MehrTeil 1: Prozessorstrukturen
Teil 1: Prozessorstrukturen Inhalt: Mikroprogrammierung Assemblerprogrammierung Motorola 6809: ein einfacher 8-Bit Mikroprozessor Mikrocontroller Koprozessoren CISC- und RISC-Prozessoren Intel Pentium
MehrJR - RA - SS02 Kap
3.1 Elementare Datentypen, Operationen und ihre Realisierung (siehe 2.1) 3.2 Mikroprogrammierung 3.3 Einfache Implementierung von MIPS 3.4 Pipelining 3.5 Superskalare Befehlsausführung JR - RA - SS02 Kap.
Mehrx Inhaltsverzeichnis 2. von NEUMANN-Rechner Grundkonzept Interne und externe Busse Prozessorregister Stackpointer
Inhaltsverzeichnis 1. Komplexe Schaltwerke 1 1.1 Zeitverhalten von Schaltwerken 2 1.1.1 Wirk- und Kippintervalle 3 1.1.2 Rückkopplungsbedingungen 6 1.2 Entwurf von Schaltwerken 9 1.3 Kooperierende Schaltwerke
MehrStrukturelemente von Parallelrechnern
Strukturelemente von Parallelrechnern Parallelrechner besteht aus einer Menge von Verarbeitungselementen, die in einer koordinierten Weise, teilweise zeitgleich, zusammenarbeiten, um eine Aufgabe zu lösen
MehrCache-Speicher. Design Digitaler Systeme. Prof. Dr.-Ing. Rainer Bermbach
Cache-Speicher Design Digitaler Systeme Prof. Dr.-Ing. Rainer Bermbach Übersicht Cache-Speicher Warum Cache-Speicher? Cache-Strukturen Aufbau und Organisation von Caches Cache-Architekturen Cache-Strategien
MehrGrundlagen der Informatik III Wintersemester 2010/ Vorlesung Dr.-Ing. Wolfgang Heenes
Grundlagen der Informatik III Wintersemester 2010/2011 28. Vorlesung Dr.-Ing. Wolfgang Heenes int main() { printf("hello, world!"); return 0; } msg: main:.data.asciiz "Hello, world!".text.globl main la
MehrTechnische Informatik 2
W. Schiffmann R. Schmitz Technische Informatik 2 Grundlagen der Computertechnik 3., überarbeitete Auflage mit 146 Abbildungen Ä} Springer Inhaltsverzeichnis 1. Komplexe Schaltwerke 1 1.1 Aufbau eines Schaltwerks
MehrInhalt. Prozessoren. Curriculum Manfred Wilfling. 28. November HTBLA Kaindorf. M. Wilfling (HTBLA Kaindorf) CPUs 28. November / 9
Inhalt Curriculum 1.4.2 Manfred Wilfling HTBLA Kaindorf 28. November 2011 M. Wilfling (HTBLA Kaindorf) CPUs 28. November 2011 1 / 9 Begriffe CPU Zentraleinheit (Central Processing Unit) bestehend aus Rechenwerk,
MehrCell and Larrabee Microarchitecture
Cell and Larrabee Microarchitecture Benjamin Grund Dominik Wolfert Universität Erlangen-Nürnberg 1 Übersicht Einleitung Herkömmliche Prozessorarchitekturen Motivation für Entwicklung neuer Architekturen
MehrSpeicherarchitektur (23) Suchen einer Seite:
Speicherarchitektur (23) Suchen einer Seite: Vorlesung Rechnersysteme SS `09 E. Nett 7 Speicherarchitektur (24) Adressschema inklusive Seitenfehler: Vorlesung Rechnersysteme SS `09 E. Nett 8 Speicherarchitektur
MehrDIGITALE SCHALTUNGEN II
DIGITALE SCHALTUNGEN II 3. Sequentielle Schaltkreise 3.1 Vergleich kombinatorische sequentielle Schaltkreise 3.2 Binäre Speicherelemente 3.2.1 RS Flipflop 3.2.2 Getaktetes RS Flipflop 3.2.3 D Flipflop
MehrSymmetrischer Multiprozessor (SMP)
Symmetrischer Multiprozessor (SMP) Motivation: ein globaler Adressraum für mehrere Prozesse P i Prozesse P i haben gemeinsame Daten ( shared variables ) private Daten ( private variables ) gemeinsamen
MehrVorlesung "Verteilte Systeme" Sommersemester Verteilte Systeme. Empfänger Kommunikationssystem. Netzwerk
Verteilte Systeme 1. Netzwerke Grundstruktur Sender Empfänger Kommunikationssystem Empfänger Systemsoftware Systemsoftware Hardware Hardware Netzwerk Verteilte Systeme, Sommersemester 1999 Folie 1.2 (c)
MehrSkalierbare Rechensysteme für Echtzeitanwendungen
Skalierbare Rechensysteme für Echtzeitanwendungen Institut für Informatik TU Clausthal Echtzeit 2011: Herausforderungen durch Echtzeitbetrieb 3. und 4. November 2011 in Boppard am Rhein Multitasking Task
MehrGliederung Seite 1. Gliederung
Gliederung Seite 1 Gliederung 1. Klassifikationen...6 1.1. Klassifikation nach der Kopplung der rechnenden Einheiten...6 1.1.1. Enge Kopplung...6 1.1.2. Lose Kopplung...6 1.2. Klassifikation nach der Art
MehrRechnerarchitektur. Vorlesungsbegleitende Unterlagen WS 2003/2004. Klaus Waldschmidt
Rechnerarchitektur Vorlesungsbegleitende Unterlagen WS 2003/2004 Klaus Waldschmidt Teil 17 Parallelarchitekturen Seite 1 Klassifikation nach Flynn (1972) SISD (single instruction, single data stream) Rechner
MehrRessourceneffiziente Informationsverarbeitung Universität Bielefeld, CITEC, AG-KS Martin Kaiser.
Ressourceneffiziente Informationsverarbeitung Universität Bielefeld, CITEC, AG-KS Martin Kaiser www.its-owl.de Ressourceneffiziente Informationsverarbeitung Anwendungsdomänen Verkehrstechnik IKT Medizintechnik
MehrKapitel 1 Parallele Modelle Wie rechnet man parallel?
PRAM- PRAM- DAG- R UND R Coles und Kapitel 1 Wie rechnet man parallel? Vorlesung Theorie Paralleler und Verteilter Systeme vom 11. April 2008 der Das DAG- Das PRAM- Das werkmodell Institut für Theoretische
MehrVorlesung Hochleistungsrechnen - SS Thomas Ludwig 1
Vorlesung Hochleistungsrechnen - SS 2010 - Thomas Ludwig 1 Vorlesung Hochleistungsrechnen - SS 2010 - Thomas Ludwig 2 Vorlesung Hochleistungsrechnen - SS 2010 - Thomas Ludwig 3 Siehe: http://en.wikipedia.org/wiki/amdahl%27s_law
MehrArbeitsfolien - Teil 4 CISC und RISC
Vorlesung Informationstechnische Systeme zur Signal- und Wissensverarbeitung PD Dr.-Ing. Gerhard Staude Arbeitsfolien - Teil 4 CISC und RISC Institut für Informationstechnik Fakultät für Elektrotechnik
MehrVerteilte Betriebssysteme
Verteiltes System Eine Sammlung unabhängiger Rechner, die dem Benutzer den Eindruck vermitteln, es handle sich um ein einziges System. Verteiltes Betriebssystem Betriebssystem für verteilte Systeme Verwaltet
MehrRechnernetze 2. Grundlagen
Rechnernetze 2. Grundlagen Typische Topologien Dedizierte Leitungen Bus Zugangsverfahren Kollisionsfreier Zugang Kollisionserkennung Multicast & Broadcast Eigenschaftsgarantien Zugangsverfahren Ethernet
MehrOpenCL. Programmiersprachen im Multicore-Zeitalter. Tim Wiersdörfer
OpenCL Programmiersprachen im Multicore-Zeitalter Tim Wiersdörfer Inhaltsverzeichnis 1. Was ist OpenCL 2. Entwicklung von OpenCL 3. OpenCL Modelle 1. Plattform-Modell 2. Ausführungs-Modell 3. Speicher-Modell
MehrVertiefungsrichtung Rechnerarchitektur
srichtung () ( für ) Prof. Dietmar Fey 1 Ziele der srichtung RA Vertiefen des Verständnis vom Aufbau, Funktionsweise von Rechnern und Prozessoren () Modellierung und Entwurf von Rechnern und Prozessoren
MehrJohann Wolfgang Goethe-Universität
Flynn sche Klassifikation SISD (single instruction, single data stream): IS IS CU PU DS MM Mono (Mikro-)prozessoren CU: Control Unit SM: Shared Memory PU: Processor Unit IS: Instruction Stream MM: Memory
MehrEntwicklung einer FPGA-basierten asymmetrischen MPSoC Architektur
Entwicklung einer FPGA-basierten asymmetrischen Architektur INF-M1 Seminar Vortrag 25. November 2010 Betreuer: Prof. Dr.-Ing. Bernd Schwarz Übersicht 1. Motivation 2. Zielsetzung & Vorarbeiten 3. Arbeitsschwerpunkte
MehrRuprecht-Karls-Universität Heidelberg
Ruprecht-Karls-Universität Heidelberg PS: Themen der technischen Informatik Sommersemester 2013 Referentin: Hanna Khoury Betreuer: Prof. Dr. Ulrich Brüning, Dr. Frank Lemke Datum: 10.06.2014 1) Einige
MehrMikroController und Mikroprozessoren
Uwe Brinkschulte Theo Ungerer MikroController und Mikroprozessoren Mit 205 Abbildungen und 39 Tabellen Springer Inhaltsverzeichnis 1 Grundlagen 1 1.1 Mikroprozessoren, MikroController, Signalprozessoren
MehrVorlesung Rechnerarchitektur. Einführung
Vorlesung Rechnerarchitektur Einführung Themen der Vorlesung Die Vorlesung entwickelt an Hand von zwei Beispielen wichtige Prinzipien der Prozessorarchitektur und der Speicherarchitektur: MU0 Arm Speicher
Mehr2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
MehrComputerarithmetik (15b)
Computerarithmetik (15b) Dazugehöriges Beispiel: Schleife Schritt Multiplikator Multiplikand Produkt 0 Anfangswerte 0011 0000 0010 0000 0000 1 1a: 1 -> Prod. = Prod. + Mcand 0011 0000 0010 0000 0010 2:
MehrEinführung (1) Erster funktionsfähiger programmgesteuerter Rechenautomat Z3, fertiggestellt 1941 Bild: Nachbau im Deutschen Museum München
Einführung (1) Erster funktionsfähiger programmgesteuerter Rechenautomat Z3, fertiggestellt 1941 Bild: Nachbau im Deutschen Museum München Einführung (2) Architektur des Haswell- Prozessors (aus c t) Einführung
MehrKode-Erzeugung für Registersatz-Maschinen
Kode-Erzeugung für Registersatz-Maschinen Die meisten Maschinen sind heutzutage Registersatzmaschinen, die einen Satz von 16-32 Universalregistern besitzen. Üblich sind Dreiadress-Befehle OP DEST, SRC1,
MehrMultiprozessor System on Chip
Multiprozessor System on Chip INF-M1 AW1-Vortrag 25. November 2009 Übersicht 1. Einleitung und Motivation 2. Multiprozessor System on Chip (MPSoC) 3. Multiprozessoren mit Xilinx EDK 4. FAUST SoC Fahrzeug
MehrMaik Zemann. Flynn s Taxonomie. Parallele Rechnerarchitekturen SS 2004 Technische Fakultät Universität Bielefeld. 3. Mai 2004 Flynn's Taxonomie 1
Maik Zemann Flynn s Taxonomie Parallele Rechnerarchitekturen SS 2004 Technische Fakultät Universität Bielefeld 3. Mai 2004 Flynn's Taxonomie 1 Gliederung Einleitung Gliederung Flynn s Taxonomie Das SISD-Modell
MehrComputergrundlagen Moderne Rechnerarchitekturen
Computergrundlagen Moderne Rechnerarchitekturen Axel Arnold Institut für Computerphysik Universität Stuttgart Wintersemester 2010/11 Aufbau eines modernen Computers DDR3- Speicher Prozessor Prozessor PEG
MehrLeistungsanalyse: Analytisch/Mathematisch, Modellierung oder Hands-On, Grundgedanken zur möglichen Leistung eines Programms.
Leistungsanalyse: Analytisch/Mathematisch, Modellierung oder Hands-On, Grundgedanken zur möglichen Leistung eines Programms. Modellierung: Hardware/Software-Verhalten ist komplex, daher modellieren/abstrahieren
MehrArithmetikorientierte efpga-architekturen und deren Kopplung an SW-programmierbare Prozessorkerne
Arithmetikorientierte efpga-architekturen und deren Kopplung an SW-programmierbare Prozessorkerne T. von Sydow, B. Neumann, H. Blume, T. G. Noll Lehrstuhl für Allgemeine Elektrotechnik und Datenverarbeitungssysteme
MehrIntel 80x86 symmetrische Multiprozessorsysteme. Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte
Intel 80x86 symmetrische Multiprozessorsysteme Eine Präsentation im Rahmen des Seminars Parallele Rechnerarchitekturen von Bernhard Witte Gliederung I. Parallel Computing Einführung II.SMP Grundlagen III.Speicherzugriff
MehrSchriftliche Prüfung
OTTO-VON-GUERICKE-UNIVERSITÄT MAGDEBURG FAKULTÄT FÜR INFORMATIK Schriftliche Prüfung im Fach: Rechnersysteme Studiengang: Bachelor (PF CSE / IF; WPF CV / WIF) am: 30. Juli 2008 Bearbeitungszeit: 120 Minuten
MehrGregor Michalicek, Marcus Schüler. Multiprozessoren
Gregor Michalicek, Marcus Schüler Gregor Michalicek Marcus Schüler Gregor Michalicek, Marcus Schüler Vorteile gegenüber Singleprozessoren ¾ sind zuverlässiger. Einige Multiprozessorsysteme können trotz
MehrAm Beispiel der SHARC-DSPs Jan Kiene
Besonderheiten von DSP-Architekturen Am Beispiel der SHARC-DSPs Jan Kiene Inhalt Digitale Signalverarbeitung (kurze Wdh) Anforderungen an DSPs Besonderheiten von DSP-Architekturen Die SHARC-DSPs von Analog
MehrTeil VIII Von Neumann Rechner 1
Teil VIII Von Neumann Rechner 1 Grundlegende Architektur Zentraleinheit: Central Processing Unit (CPU) Ausführen von Befehlen und Ablaufsteuerung Speicher: Memory Ablage von Daten und Programmen Read Only
MehrBeispielvortrag: HPCG auf Intel Haswell-EP
Beispielvortrag: HPCG auf Intel Haswell-EP Johannes Hofmann 1 Seminarvortrag Architekturen von Multi- und Vielkern-Prozessoren Erlangen, 19.4.2016 1 Computer Architecture, University Erlangen-Nuremberg
MehrTeil Rechnerarchitekturen. Repetitorium. Corinna Schmitt
Teil Rechnerarchitekturen Repetitorium Corinna Schmitt corinna.schmitt@unibas.ch Vorlesungsinhalt Rechnerarchitekturen M01: Architektur, ALU, Flip-Flop M02: Einführung in die Sprache C M03: 2er-Komplement,
MehrEntwurf und Optimierung heterogener ASIP-eFPGA-Architekturen
Entwurf und Optimierung heterogener ASIP-eFPGA-Architekturen T. von Sydow, B. Neumann, H. Blume, T. G. Noll Lehrstuhl für Allgemeine Elektrotechnik und Datenverarbeitungssysteme RWTH Aachen Übersicht Motivation
MehrVirtueller Speicher und Memory Management
Virtueller Speicher und Memory Management Speicher-Paradigmen Programmierer ein großer Adressraum linear adressierbar Betriebssystem eine Menge laufender Tasks / Prozesse read-only Instruktionen read-write
MehrComputergrundlagen Geschichte des Computers
Computergrundlagen Geschichte des Computers Axel Arnold Institut für Computerphysik Universität Stuttgart Wintersemester 2010/11 1641: Rechenmaschine von B. Pascal B. Pascal, 1632-1662 mechanische Rechenmaschine
MehrEin Verteiltes System ist eine Ansammlung von unabhängigen Rechnern, die für seine Benutzer wie ein einzelnes Computersystem aussieht.
Verteilte Systeme Verteilte etriebssysteme 2001-2004, F. Hauck, P. Schulthess, Vert. Sys., Univ. Ulm [2003w-VS--VS.fm, 2003-10-17 08.38] 1 1 Definition Definition nach Tanenbaum/van Steen Ein Verteiltes
MehrName: Vorname: Matr.-Nr.: 4. a) RISC-Architekturen müssen zur Decodierung von Maschinenbefehlen stets ein mikroprogrammierbares Steuerwerk verwenden.
Name: Vorname: Matr.-Nr.: 4 Aufgabe 1 (8 Punkte) Entscheiden Sie, welche der folgenden Aussagen zum Thema CISC/RISC-Prinzipien korrekt sind. a) RISC-Architekturen müssen zur Decodierung von Maschinenbefehlen
MehrMikroprozessoren. Aufbau und Funktionsweise. Christian Richter. Ausgewählte Themen der Multimediakommunikation SS 2005
Mikroprozessoren Aufbau und Funktionsweise Christian Richter Ausgewählte Themen der Multimediakommunikation SS 2005 Christian Richter (TU-Berlin) Mikroprozessoren AT MMK 2005 1 / 22 Gliederung Was ist
MehrMikrocontroller und Mikroprozessoren
Uwe Brinkschulte Theo Ungerer Mikrocontroller und Mikroprozessoren 3. Auflage 4y Springer Inhaltsverzeichnis Vorwort Vorwort zur 2. Auflage Vorwort zur 3. Auflage Inhaltsverzeichnis VII IX XI XIII 1 Grundlagen
MehrTechnische Grundlagen der Informatik 2 SS Einleitung. R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt E-1
E-1 Technische Grundlagen der Informatik 2 SS 2009 Einleitung R. Hoffmann FG Rechnerarchitektur Technische Universität Darmstadt Lernziel E-2 Verstehen lernen, wie ein Rechner auf der Mikroarchitektur-Ebene
MehrComputergrundlagen Geschichte des Computers
Computergrundlagen Geschichte des Computers Axel Arnold Institut für Computerphysik Universität Stuttgart Wintersemester 2011/12 1641: Rechenmaschine von B. Pascal B. Pascal, 1623-1662 mechanische Rechenmaschine
MehrDevice Treiber für FlexPath- Netzwerkprozessoren
Device Treiber für FlexPath- Netzwerkprozessoren Michael Meitinger Rainer Ohlendorf Dr. Thomas Wild Prof. Dr. Andreas Herkersdorf 1 Übersicht Übersicht FlexPath Einsatz von Device Treibern in der FlexPath
MehrRISC-Prozessoren (1)
RISC-Prozessoren (1) 1) 8 Befehlsklassen und ihre mittlere Ausführungshäufigkeit (Fairclough): Zuweisung bzw. Datenbewegung 45,28% Programmablauf 28,73% Arithmetik 10,75% Vergleich 5,92% Logik 3,91% Shift
MehrBeispiele von Branch Delay Slot Schedules
Beispiele von Branch Delay Slot Schedules Bildquelle: David A. Patterson und John L. Hennessy, Computer Organization and Design, Fourth Edition, 2012 Grundlagen der Rechnerarchitektur Prozessor 97 Weniger
MehrVorlesung "Verteilte Systeme" Wintersemester 2000/2001. Verteilte Systeme. Empfänger Kommunikationssystem. Netzwerk
Verteilte Systeme 1. Netzwerke Grundstruktur Sender Empfänger Kommunikationssystem Empfänger Systemsoftware Systemsoftware Hardware Hardware Netzwerk Verteilte Systeme, Wintersemester 2000/2001 Folie 1.2
Mehr2.5. VERBINDUNGSNETZWERKE GESTALTUNGSKRITERIEN DER NETZWERKE TOPOLOGIE ALS GRAPH. Vorlesung 5 TOPOLOGIE: DEFINITIONEN : Sei G = (V, E) ein Graph mit:
Vorlesung 5.5. VERBINDUNGSNETZWERKE Kommunikation zwischen den einzelnen Komponenten eines arallelrechners wird i.d.r. über ein Netzwerk organisiert. Dabei unterscheidet man zwei Klassen der Rechner: TOOLOGIE:
MehrParallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff
Parallel Computing Einsatzmöglichkeiten und Grenzen Prof. Dr. Nikolaus Wulff Parallel Architekturen Flynn'sche Klassifizierung: SISD: single Instruction, single Data Klassisches von-neumann sequentielles
MehrAllgemeine Lösung mittels Hazard Detection Unit
Allgemeine Lösung mittels Hazard Detection Unit Bildquelle: David A. Patterson und John L. Hennessy, Computer Organization and Design, Fourth Edition, 2012 Grundlagen der Rechnerarchitektur Prozessor 83
MehrArchitektur und Organisation von Rechnersystemen
Architektur und Organisation von Thema heute: More need for more Speed, Weitere Architekturmerkmale, Zahlendarstellungen, Makroassembler BKH-ArcOrg16-V3 am 01.12.2016 Ulrich Schaarschmidt BK-H/HS Düsseldorf,
Mehr2 Reproduktion oder Verwendung dieser Unterlage bedarf in jedem Fall der Zustimmung des Autors.
1 Definition Definition nach Tanenbaum/van Steen Ein Verteiltes System ist eine Ansammlung von unabhängigen Rechnern, die für seine enutzer wie ein einzelnes Computersystem aussieht. Verteilte Systeme
MehrCPU Speicher I/O. Abbildung 11.1: Kommunikation über Busse
Kapitel 11 Rechnerarchitektur 11.1 Der von-neumann-rechner Wir haben uns bisher mehr auf die logischen Bausteine konzentriert. Wir geben jetzt ein Rechnermodell an, das der physikalischen Wirklichkeit
MehrModul InfB-RS: Rechnerstrukturen
64-040 Rechnerstrukturen 64-040 Modul InfB-RS: Rechnerstrukturen http://tams.informatik.uni-hamburg.de/ lectures/2014ws/vorlesung/rs Kapitel 17 Andreas Mäder Universität Hamburg Fakultät für Mathematik,
MehrRechnergrundlagen. Vom Rechenwerk zum Universalrechner
Rechnergrundlagen. Vom Rechenwerk zum Universalrechner von Rainer Kelch 1. Auflage Hanser München 2003 Verlag C.H. Beck im Internet: www.beck.de ISBN 978 3 446 22113 0 Zu Leseprobe schnell und portofrei
Mehrfrüher: CISC ( Complex Instruction Set Computer )
Hochleistungs-CPUs früher: CISC ( Complex Instruction Set Computer ) mächtige Instruktionssätze zur Unterstützung von Hochsprachenkonstrukten durch Hardware (Idee: don t do in software what you can do
MehrMemory Models Frederik Zipp
Memory Models Frederik Zipp Seminar: Programmiersprachen für Parallele Programmierung (SS 2010) Fakultät für Informatik - IPD SNELTING LEHRSTUHL PROGRAMMIERPARADIGMEN 1
Mehr