Rechnerarchitektur. Vorlesungsbegleitende Unterlagen. WS 2003/2004 Klaus Waldschmidt
|
|
- Peter Böhmer
- vor 7 Jahren
- Abrufe
Transkript
1 Rechnerarchitektur Vorlesungsbegleitende Unterlagen WS 2003/2004 Klaus Waldschmidt Teil 15 Speicherhierarchie und s Seite 1 Speicherhierarchie: Der Speicherraum wird in einzelne Schichten unterteilt, die hierarchisch geordnet sind. Der Austausch zwischen den Schichten geschieht über Datenblöcke. Wichtige Merkmale sind: Block Placement Wo wird ein Block in der oben liegenden Schicht plaziert? Block Identification Wie wird ein Block in der oben liegenden Schicht gefunden? Block Replacement Welcher Block soll - wenn notwendig - ausgetauscht werden? Write Strategy Was passiert bei einem Schreib-Zugriff? Seite 2 1
2 Speicherhierarchie Kapazität (Bytes): *) Zugriffszeit: *) K 64 K - 1 M 16 M M 100 M - 10 G Register Primär- (SRAM) Sekundär- (SRAM) oder(sdram) (DRAM) < 10 ns 10 ns Sekundärspeicher (Platten, elektronische Massenspeicher) 20 ns ns ms evtl. auch andere Bus-Master 1 G G Archivspeicher (Platten, Bänder, optische Platten, CD-ROM) 500 ms *) Angaben sind typ. Größenordnungen Seite 3 Performance- Zuwachs 3000 Die Speicherzugriffslücke Memory , Jahr Basis: 1980 Speicher - 64 KBit DRAM danach 7 % Verbesserung in der Latency pro Jahr. Prozessor - Verbesserung der Performance von 1.35/Jahr bis 1986 und 1.55/Jahr ab 1986 Quelle: [Hennessy & Patterson, 1996], S. 374 Seite 4 2
3 Die Lokalitätsprinzipien Die Effizienz einer Speicherhierarchie hängt von der Gültigkeit zweier Lokalitätsprinzipien ab: Nachdem ein Programm einen Befehl bzw. Operanden verwendet hat, ist es wahrscheinlich, dass das Programm den Befehl bzw. Operanden bald wiederverwenden wird (zeitliche Lokalität) ist es wahrscheinlich, dass das Programm bald Befehle bzw. Operanden in derselben Nachbarschaft verwenden wird (räumliche Lokalität) Seite 5 60 % Lokalitätsprinzipien Faustregel: 10 % der Befehle verbrauchen 90 % der Laufzeit. 50 % Fraction of the program 40 % 30 % 20 % 10 % 0 % Gesamthöhe (orange + blau): 90 % der Zeit blau: 80 % der Zeit compress eqntott espresso gcc li doduc ear hydro2d mdijdp su2cor SPEC benchmark Quelle: [Hennessy & Patterson, 1996], S. 39 Seite 6 3
4 s - Terminologie cache 1. A hiding place for storing provisions. 2. A place for concealing variables. - caches, caching. To hide or store in a cache. The American heritage Dictionary, 1994 s unterliegen heute ebenfalls einer Hierarchie. Man unterscheidet Level 1, Level 2 und/oder Level 3 s. Level 1 (Primär) Level 2 (Sekundär) Level 3 On-Chip On-Chip oder Off-Chip Off-Chip Level 1 ist meist auf dem Prozessorchip, Level 2 entweder auf dem Chip oder außerhalb des Prozessorchips und Level 3 meist außerhalb des Prozessorchips. Seite 7 Interfaces und Busse L1 Code L2 L2--Interface L1 Data System Bus Interface DRAM-Interface L3 Seite 8 4
5 Verbindung eines Prozessors (µp) mit dem (DRAM) Adresse µp DRAM Datum Der liegt zwischen Prozessor und. Seite 9 Im folgenden wird nur eine -Stufe zwischen Prozessor und betrachtet. Adreßbus µp () Steuerbus Steuerung Speicher verarbeiten ein-/ auslagern Datenbus Der verfügt neben der Speicherkapazität über eine eigene Steuerung Seite 10 5
6 s - Grundstruktur Ein besteht aus einem Directory, einem Controller und einem Data Memory. Address inputs to cache data RAM can come from address bus, cache directory, or a combination of the two Address Buffers Directory Controller Data Memory Bus Data Buffers Seite 11 -Organisation In einem n way set-associative kann ein Block an genau n Stellen gespeichert werden. Sei c die Größe des s. Dann besteht ein n way aus s= c/n Mengen. Wenn n = 1 s = c, so spricht man von einem direct mapped cache. Der ist direkt abgebildet. Wenn n = c s = 1, so spricht man von einem full associative cache. Der ist voll assoziativ. Beispiel: 4 way set-associative set n=4 set Seite 12 6
7 Zerlegung der Adresse für die -Adressierung Tag Block address Index Block offset Block Offset legt die Position eines Bytes innerhalb des Blockes fest. Block Adress kennzeichnet einen Block. Die Block Adress wird in zwei Teile aufgespaltet: Der Index kennzeichnet die Menge, in der der Block gespeichert werden kann. In einem voll-assoziativen ist der Index leer. Das Tag wird aus den übrigen Bits gebildet. Vorteil: Nur das Tag muss verglichen werden, um festzustellen, ob ein bestimmter Block im ist. Seite 13 s - Terminologie In einem voll-assoziativen kann ein Block überall gespeichert werden. In einem direkt abgebildeten muss ein Block an genau einer Stelle gespeichert werden. Seite 14 7
8 Prinzip des gefalteten Speichers für einen direkt abgebildeten. Der Speicher wird in m = 2 n-i -1 Seiten aufgeteilt. gelesenes Datum 2 i -1 k ~ ~ Tag- RAM 1 Daten mit gleicher -Position 2 i -1 k Seite 1 Seite 0 Seite m k 0 2 i -1 k 0 2 i -1 ~ ~ Seiten- Nummer Datenwort Offset 0 Seite 15 k 0 Blockschaltbild eines direct mapped cache Address Data in Data out Block address Tag Index Block offset Valid Tag Data comparator 4:1 Mux Buffer CACHE Next Level Memory Seite 16 8
9 Blockschaltbild eines 2-way set associative cache Address Data in Data out Block address Tag Index Block offset Valid Tag Data Satz i comparator comparator control logic Satz i Buffer Next Level Memory Seite 17 Schreib-Strategien (Write Strategies) Write-through (Durchschreib-Verfahren): Jeder Schreib-Zugriff wird gleichzeitig auch im ausgeführt. Copy-back (Write-Back, Rückschreib-Verfahren): Erst dann, wenn ein Datum durch ein neues verdrängt werden soll, wird es in den zurückgeschrieben. Seite 18 9
10 Durchschreiben Adresse µp DRAM Datum Rückschreiben Adresse µp DRAM Datum Seite 19 - Anordnung Ein virtueller (logischer) arbeitet mir virtuellen, vom Prozessor erzeugten Adressen (VA). VA MMU PA Ein physikalischer arbeitet mit physikalischen, von der MMU (Memory Management Unit) erzeugten Adressen (PA). VA MMU PA PA Seite 20 10
11 - Treffer Hit (Treffer): Der gesuchte Block ist schon im. Miss (Fehlertreffer): Der gesuchte Block ist nicht im. Gründe für cache miss: Art Gründe Gegenmaßnahme Compulsory Miss Das erste mal, das ein Kann nicht vermieden (Cold Miss): Block verwendet wird. werden. Capacity Miss: Der ist nicht groß genug. Ein größerer. Conflict Miss: Die Menge ist nicht groß genug. Ein größerer, oder mehr Assoziativität. Seite 21 -Kohärenz Ein besonderes Problem kann auftreten, wenn mehrere Prozessoren mit ihren eigenen s und einem gemeinsamen zu einem Multi-Prozessorsystem zusammengeschaltet werden. In diesem Fall muss die Konsistenz der speichernden Einheiten sichergestellt werden. Dies geschieht üblicherweise durch ein sog. -Kohärenz- Protokoll. In dem Protokoll wird festgelegt, wen eine bei Änderung eines Blockes zu benachrichtigen hat. Hierfür gibt es 2 Konzepte: a) Snooping Protokoll: Jeder horcht den Systembus ab. b) Directory-Based Protokoll: Für jeden Block gibt es ein eindeutiges Home Directory. Wenn ein Block in einem schreibend verändert wird, werden entweder alle anderen Kopien aktualisiert (write update) oder vernichtet (write invalidate). Seite 22 11
12 -Kohärenz Problem: Auch in einem Uni-Prozessor System können andere Bus-Masters den Inhalt des s ändern. Der und der müssen ebenfalls konsistent gehalten werden. DMA (IO) Device System Bus Main Memory Seite 23 Das MESI Protokoll Das bekannteste Protokoll für Kohärenz ist das MESI Protokoll. Das MESI Protokoll ist ein snooping, copy-back, write-invalidate Protokoll. Es gibt vier Zustände: Modified, Exclusive, Shared und Invalid. Modified: Der Block existiert nur im betrachteten (lokalen), und wurde geändert (d.h. die Version im ist veraltet). Shared: Es kann andere Kopien von dem Block geben. Exclusive: Der Block existiert nur im betrachteten (lokalen), wurde aber noch nicht geändert (die Version im ist noch aktuell). Invalid: Der Block ist nicht (mehr) im betrachteten (lokalen) gespeichert. Seite 24 12
13 M - Modified (Dirty) E - Exclusive (Clean) Weil schreibend verändert, befindet sich der einzige gültige Eintrag in diesem, während der entsprechende Eintrag im nicht mehr gültig ist (Stale Data). Weitere Schreib- und Lesezugriffe sind ohne externen Buszugriff möglich, solange die Daten nicht auch von anderen s benötigt werden. Andere s würden dazu ein Snooping-Signal an diese senden. Der Eintrag würde dann in den zurückgeschrieben werden. Der Zustand des Eintrags würde sich auf S oder I ändern - je nachdem, ob ein Invalidate- Signal zusammen mit dem Snooping-Signal empfangen wurde oder nicht. Es kann auch ein Übergang nach E erfolgen, wenn der -Controller ein Write-Back auslöst, ohne dass sich die Daten auch in anderen s befinden. Der Eintrag befindet sich nur in einem und wurde noch nicht schreibend verändert. Lese- und Snooping-Zyklen ohne Invalidierungssignal verändern den Zustand nicht. Lesen und Schreiben ist ohne Buszugriff möglich. Schreiben führt zum Zustand M. Snooping-Signale anderer s, die den Eintrag ebenfalls benötigen und aus dem holen, führen zum Zustand S. Ein Invalidate-Signal löst einen Übergang nach I aus. Quelle: Rechnerarchitekturen, Ch. Märtin, Fachbuchverlag Leipzig, Hanser Verlag Seite 25 S - Shared Der bisher unmodifizierte Eintrag befindet sich in diesem und möglicherweise auch in einem oder mehreren anderen s. Beim Lesen erfolgt keine Zustandsänderung. Schreiben führt zu einem Write- Through in den. Der Eintrag wird auf den Zustand E gesetzt. Ein Snooping-Signal an die anderen Prozessoren wird ausgelöst. Die anderen s erkennen, falls vorhanden, das Adress-Tag und setzen den zugehörigen Eintrag entsprechend dem MESI-Protokoll auf I. I - Invalid Der Eintrag ist ungültig oder enthält die adressierten Daten nicht. Lese- und Schreibzugriffe führen in diesem Fall zu einem -Miss, was nachfolgende Systembuszugriffe auslöst. Ein Lesezugriff füllt den Eintrag wieder. Je nachdem, ob der dabei eingelesene Inhalt auch in anderen s vorhanden ist oder nicht, ändert sich der Zustand in S oder E. Ein Schreib-Miss führt dazu, dass der Zugriff direkt auf den ausgeführt wird. Quelle: Rechnerarchitekturen, Ch. Märtin, Fachbuchverlag Leipzig, Hanser Verlag Seite 26 13
14 Die möglichen Zustände für die -Einträge lassen sich in einem Zustands-Diagramm darstellen: M A B I I Ungültig Gültig Zustand unbekannt oder unerheblich line A im Modified-Zustand A B E A B I I line A im Invalid-Zustand S A B S line A im Excluxive-Zustand line A im Shared-Zustand Seite 27 I Invalid Shared Read Miss Exclusiv Read Miss Write Hit S Shared Unmodified Read Hit Read Hit, Write Hit Write miss Snoop I M Exclusive Modified Snoop I Shared Read Miss Write back Write Hit Write through Shared Read Miss E Exclusive Unmodified Read Hit Seite 28 14
Cache Grundlagen. Schreibender Cache Zugriff. SS 2012 Grundlagen der Rechnerarchitektur Speicher 22
Cache Grundlagen Schreibender Cache Zugriff SS 212 Grundlagen der Rechnerarchitektur Speicher 22 Eine einfache Strategie Schreibt man nur in den Cache, werden Cache und darunter liegender Speicher inkonsistent.
MehrGrundlagen der Rechnerarchitektur. Speicher
Grundlagen der Rechnerarchitektur Speicher Übersicht Speicherhierarchie Cache Grundlagen Verbessern der Cache Performance Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 2 Speicherhierarchie
MehrCache-Speicher. Design Digitaler Systeme. Prof. Dr.-Ing. Rainer Bermbach
Cache-Speicher Design Digitaler Systeme Prof. Dr.-Ing. Rainer Bermbach Übersicht Cache-Speicher Warum Cache-Speicher? Cache-Strukturen Aufbau und Organisation von Caches Cache-Architekturen Cache-Strategien
MehrQuiz. Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset.
Quiz Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset 32 Bit Adresse 31 3 29... 2 1 SS 212 Grundlagen der Rechnerarchitektur
MehrCache-Kohärenz und -Konsistenz. Betreuer: Prof. Brüning Veton Kajtazi Mat.-Nr.: Universität Heidelberg
Cache-Kohärenz und -Konsistenz Betreuer: Prof. Brüning Veton Kajtazi Mat.-Nr.: 3220501 Universität Heidelberg Inhaltsverzeichnis Wozu Caches? Unterschied Kohärenz und Konsistenz MESI-Protokoll Fazit 2
MehrGrundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Speicher Übersicht Speicherhierarchie Cache Grundlagen Verbessern der Cache Performance Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 2 Speicherhierarchie
MehrGrob-Struktur des Prozessor-Speichersystems
2.3.2 Speicherstruktur (1) Grob-Struktur des Prozessor-Speichersystems Chipsatz (Erklärung s. später, Folie 104) 22.4.-27.5.2013, Folie 52 2.3.2 Speicherstruktur (2) Zugriff Prozessor zumeist auf schnelle
MehrGrundlagen der Rechnerarchitektur. Speicher
Grundlagen der Rechnerarchitektur Speicher Übersicht Speicherhierarchie Cache Grundlagen Verbessern der Cache Performance Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 2 Speicherhierarchie
MehrCache Blöcke und Offsets
Cache Blöcke und Offsets Ein Cache Eintrag speichert in der Regel gleich mehrere im Speicher aufeinander folgende Bytes. Grund: räumliche Lokalität wird wie folgt besser ausgenutzt: Bei Cache Miss gleich
MehrInvalidierungs- und Update-basierte Cache-Kohärenz-Protokolle
Invalidierungs- und Update-basierte Cache-Kohärenz-Protokolle Architecture of Parallel Computer Systems WS15/16 J.Simon 1 SC mit Write-Back Caches Beweisidee: Behandlung von Reads wie beim Write-Through
MehrCache II. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011
Cache II Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Cache II 1/14 2012-02-29 Schreibstrategien Es sind verschiedene Fälle
MehrEinfaches MSI-Writeback-Inval-Protokoll
Einfaches MSI-Writeback-Inval-Protokoll Write-Back Cache typischerweise Write-allocate bei einem Write-Miss Zustände Invalid (I): Shared (S): Kopien in einem oder mehreren Caches Dirty or Modified (M):
Mehr11. Caches Pufferspeicher
Lesepuffer um vorauszulesen: - erste Leseoperation hat lange Latenzzeit, - Folgedaten vorsorglich schon gelesen, - "prefetch buffer". 11. s 11.1 Pufferspeicher Schreibpuffer um ein Blockieren des schreibenden
MehrRAM. Konsistenzprobleme entstehen => CPU - durch Verzögerung in Warteschlange, Umfangreiche Pufferung in den PCI Brücken. lesen. EOP-Signal.
11. s 11.1 Pufferspeicher Lesepuffer um vorauszulesen: - erste Leseoperation hat lange Latenzzeit, - Folgedaten vorsorglich schon gelesen, - "prefetch buffer". Schreibpuffer um ein Blockieren des schreibenden
MehrBesprechung des 8. Übungsblattes Einführung in Caches Cache-Organisation Cache-Ersetzungsstrategien Aufgaben (an der Tafel) Testklausur
Themen heute Besprechung des 8. Übungsblattes Einführung in Caches Cache-Organisation Cache-Ersetzungsstrategien Aufgaben (an der Tafel) Testklausur Besprechung des 8. Übungsblattes Aufgabe 2.6. In diesem
Mehré Er ist software-transparent, d.h. der Benutzer braucht nichts von seiner Existenz zu wissen. Adreßbus Cache- Control Datenbus
4.2 Caches é Cache kommt aus dem Französischen: cacher (verstecken). é Er kann durch ein Anwendungsprogramm nicht explizit adressiert werden. é Er ist software-transparent, d.h. der Benutzer braucht nichts
MehrAnalyse aktueller Cache-Architekturen hinsichtlich Struktur und Effizienz. Markus Krause
Analyse aktueller Cache-Architekturen hinsichtlich Struktur und Effizienz Markus Krause Dresden, Gliederung 1. Einführung 2. Problemstellung 3. Lösungen a) Miss Rate b) Miss Penalty c) Hit Time 4. Zusammenfassung
Mehr6 Exkurs: Assoziativspeicher
6 Exkurs: Assoziativspeicher alternative Möglichkeit der Speicherung von Informationen in einem Computer: Assoziativspeicher (inhaltsadressierbarer Speicher bzw. CAM = Content Addressable Memory) : bei
Mehr6 Exkurs: Assoziativspeicher (2) 6 Exkurs: Assoziativspeicher. 7.1 Speicherhierarchie. 7 Caches
6 Exkurs: Assoziativspeicher alternative Möglichkeit der Speicherung von Informationen in einem Computer: Assoziativspeicher (inhaltsadressierbarer Speicher bzw. CAM = Content Addressable Memory) : bei
MehrWie groß ist die Page Table?
Wie groß ist die Page Table? Im vorigen (typischen) Beispiel verwenden wir 20 Bits zum indizieren der Page Table. Typischerweise spendiert man 32 Bits pro Tabellen Zeile (im Vorigen Beispiel brauchten
MehrSchreiben von Pages. Schreiben einer Page in den Swap Space ist sehr teuer (kostet millionen von CPU Zyklen).
Schreiben von Pages Schreiben einer Page in den Swap Space ist sehr teuer (kostet millionen von CPU Zyklen). Write Through Strategie (siehe Abschnitt über Caching) ist hier somit nicht sinnvoll. Eine sinnvolle
MehrGrundlagen der Informatik III Wintersemester 2010/ Vorlesung Dr.-Ing. Wolfgang Heenes
Grundlagen der Informatik III Wintersemester 2010/2011 15. Vorlesung Dr.-Ing. Wolfgang Heenes int main() { printf("hello, world!"); return 0; } msg: main:.data.asciiz "Hello, world!".text.globl main la
MehrSpeicherhierarchie, Caches, Consistency Models
Speicherhierarchie, Caches, Consistency Models Maximilian Langknecht Lehrstuhl für Rechnerarchitektur Betreuer: Prof. Dr. Ulrich Brüning 1 Inhaltsverzeichnis Speicherhierarchie Warum gibt es Speicherhierarchie?
MehrRechnergrundlagen SS Vorlesung
Rechnergrundlagen SS 2007 13. Vorlesung Inhalt Cache Lesen Schreiben Überschreiben Memory Management Unit (MMU) Translation Lookaside Buffer (TLB) Klausurvorbereitung Inhalte der Klausur Rechnergrundlagen
MehrIn heutigen Computern findet man schnellen/teuren als auch langsamen/billigen Speicher
Speicherhierarchie In heutigen Computern findet man schnellen/teuren als auch langsamen/billigen Speicher Register Speicherzellen, direkt mit der Recheneinheit verbunden Cache-Speicher Puffer-Speicher
MehrSpeicher. Speicher. Speicherhierarchie. Speicher. Interessante Zahlen:
Übersicht 1 Einleitung Hauptspeicher 2 Hauptspeicher 3 Caches, Cache-Kohärenz Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009
Mehr1 Organisationsaspekte RISC- und CISC-Prozessoren Ausnutzen von Cache-Effekten
McFarling [1989] konnte Cache Misses um 75% in 8KB direkt abbildenden Caches durch Softwaremaßnahmen senken. Instruktionen Umordnen im Speicher, um Conflict-Misses zu reduzieren Profiling : spezielle Konfliktvermeidungsmaßnahmen
MehrTutorium Rechnerorganisation
Woche 10 Tutorien 3 und 4 zur Vorlesung Rechnerorganisation 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
MehrRO-Tutorien 15 und 16
Tutorien zur Vorlesung Rechnerorganisation Tutorienwoche 10 am 29.06.2011 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft
MehrVirtueller Speicher und Memory Management
Virtueller Speicher und Memory Management Speicher-Paradigmen Programmierer ein großer Adressraum linear adressierbar Betriebssystem eine Menge laufender Tasks / Prozesse read-only Instruktionen read-write
MehrInhalt Teil 10 (Caches) aus 6. Speicherorganisation
Inhalt Teil 10 (Caches) aus 6. Speicherorganisation 1 6.2 Caches 6.2.1 Systemstrukturen 6.2.2 Laden des Cache 6.2.3 Cache-Strukturen Vollassoziativer Cache Direkt zuordnender Cache N-fach assoziativer
MehrVorlesung: Rechnerstrukturen, Teil 2 (Modul IP7)
Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) J. Zhang zhang@informatik.uni-hamburg.de Universität Hamburg AB Technische Aspekte Multimodaler Systeme
MehrTechnische Informatik 1 - HS 2017
Institut für Technische Informatik und Kommunikationsnetze Prof. L. Thiele Technische Informatik 1 - HS 2017 Übung 11 Datum: 21. 22. 12. 2017 Virtueller Speicher 1 Performanz Gehen Sie von einem virtuellen
MehrBetriebssysteme Teil 10 B: Fragen rund um Seitenfehler
Betriebssysteme Teil 10 B: Fragen rund um Seitenfehler 1 Überlegungen Wenn wir einige Seiten eines Programms in den Speicher laden, brauchen wir eine Strategie, welche Seiten als nächstes geladen werden
MehrTutorium Rechnerorganisation
Woche 11 Tutorien 3 und 4 zur Vorlesung Rechnerorganisation 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
MehrRechnerarchitektur SS 2012
Rechnerarchitektur SS 2012 Cachekohärenz Michael Engel TU Dortmund, Fakultät für Informatik Teilweise basierend auf Material von Gernot A. Fink und R. Yahyapour 11. Juni 2013 Speicher in MP-Systemen Zentrales
MehrRechnerarchitektur SS 2012
Rechnerarchitektur SS 2012 Cachekohärenz TU Dortmund, Fakultät für Informatik XII Literatur: Hennessy/Patterson: Computer Architecture, 3. Auflage, 2003, Abschnitte 6.2, S. 549ff und 6.5, S. 576ff. Huang:
MehrWeitere Verbesserungen
Weitere Verbesserungen Welcher Cache liefert aktuellen Block falls mehrere Caches Block im Zustand S halten? Lösung: Einführung eines weiteren Zustands O (Owner) Zustand O besagt: Eigentümer des Blocks
MehrHORUS. Seminar "Ausgewählte Themen in Hardwareentwurf und Optik" im HWS Martin Scherer
HORUS Seminar "Ausgewählte Themen in Hardwareentwurf und Optik" im HWS 2006 Martin Scherer Horus Inhalt 1 Einführung 2 Cachekohärenz 3 ExtendiScale Architektur 4 Übertragungsbeispiele 5 Performance Erweiterungen
Mehr, 2014W Übungsgruppen: Mo., Mi.,
VU Technische Grundlagen der Informatik Übung 7: Speichermanagement 183.579, 2014W Übungsgruppen: Mo., 12.01. Mi., 14.01.2015 Aufgabe 1: Cache-Adressierung Ein Prozessor mit einer Adresslänge von 20 Bit
MehrGrundlagen der Informationsverarbeitung:
Grundlagen der Informationsverarbeitung: Speicherhierarchie Prof. Dr.-Ing. habil. Ulrike Lucke Durchgeführt von Prof. Dr. rer. nat. habil. Mario Schölzel Maximaler Raum für Titelbild (wenn kleiner dann
Mehrccnuma Unterstützung Zustandsübergangsdiagramm MESIF
ccnuma Unterstützung Einführung eines neuen Zustandes Forward (F) Cache mit Block im F-Zustand antwortet auf BusRd, Caches mit Block im S-Zustand müssen nichts machen Nach einem BusRd mit Teilhaber wandert
MehrSpeicherarchitektur (1)
Speicherarchitektur () Die 3 wichtigsten Speichertechnologien: Technologie Typische Zugriffszeiten $ pro Megabyte 997 SRAM 5 25 ns $00 $250 DRAM 60 20 ns $5 $0 Magnetplatten 0 20 Millionen ns $0,0 $0,20
MehrLiefert das Protokoll Kohärenz?
Liefert das Protokoll Kohärenz? Benötigt: Konstruktion einer (totalen) Ordnung der Speicheroperationen unter Beachtung der Programmordnungen Voraussetzung: atomare Bus-Transaktionen und Speicheroperationen
MehrDatenpfad einer einfachen MIPS CPU
Datenpfad einer einfachen MIPS CPU Die Branch Instruktion beq Grundlagen der Rechnerarchitektur Prozessor 13 Betrachten nun Branch Instruktion beq Erinnerung, Branch Instruktionen beq ist vom I Typ Format:
MehrSpeicher Typen. TI-Übung 5. Speicher SRAM. Speicher DRAM. SRAM vs. DRAM (EEP)ROM, NV-RAM, Flash,... Speicher, Caches
Speicher Typen TI-Übung 5 Speicher, Caches Andreas I. Schmied (andreas.schmied@uni-ulm.de) AspectIX-Team Abteilung Verteilte Systeme Universität Ulm WS2005 SRAM vs. DRAM (EEP)ROM, NV-RAM, Flash,... Charakteristik
MehrDatenpfad einer einfachen MIPS CPU
Datenpfad einer einfachen MIPS CPU Die Branch Instruktion beq Grundlagen der Rechnerarchitektur Prozessor 13 Betrachten nun Branch Instruktion beq Erinnerung, Branch Instruktionen beq ist vom I Typ Format:
MehrRechnerorganisation. 1. Juni 201 KC Posch
.6.2 Rechnerorganisation. Juni 2 KC Posch .6.2 2 .6.2 Front Side Bus Accelerated Graphics Port 28 MHz Front Side Bus North Bridge RAM idge South Bri IDE USB PCI Bus 3 .6.2 Front Side Bus Front Side Bus
Mehr2. Ansatzpunkt: Reduktion der Penalty Early Restart und critical word first
2. Ansatzpunkt: Reduktion der Penalty 2.1. Early Restart und critical word first Beide Techniken basieren darauf, die Wartezeit der CPU auf das Mindestmaß zu beschränken. Early restart lädt den Block wie
MehrGregor Michalicek, Marcus Schüler. Multiprozessoren
Gregor Michalicek, Marcus Schüler Gregor Michalicek Marcus Schüler Gregor Michalicek, Marcus Schüler Vorteile gegenüber Singleprozessoren ¾ sind zuverlässiger. Einige Multiprozessorsysteme können trotz
MehrVorlesung: Rechnerstrukturen, Teil 2 (Modul IP7)
Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) J. Zhang zhang@informatik.uni-hamburg.de Universität Hamburg AB Technische Aspekte Multimodaler Systeme
MehrLiefert das Protokoll Kohärenz?
Liefert das Protokoll Kohärenz? Konstruktion einer (totalen) Ordnung der Speicheroperationen unter Beachtung der Programmordnungen Voraussetzung: atomare Bus-Transaktionen und Speicheroperationen alle
MehrDatenpfad einer einfachen MIPS CPU
Datenpfad einer einfachen MIPS CPU Zugriff auf den Datenspeicher Grundlagen der Rechnerarchitektur Prozessor 19 Betrachten nun Load und Store Word Erinnerung, Instruktionen lw und sw sind vom I Typ Format:
MehrGLEICHES BEISPIEL, write-back STRATEGIE
GLEICHES BEISPIEL, write-back STRATEGIE e 1 Vorlesung 4 2.4.3. CACHE-KOHÄRENZ UND SPEICHER-KONSISTENZ Einfache aber wichtige Eigenschaft des (sequentiellen) Computerspeichers: Beim Lesen einer Speicherzelle
MehrDas Konzept der Speicherhierarchie
Das Konzept der Speicherhierarchie Small is fast, daher sind kleine Speicher schneller (und kosten mehr pro Byte). Vergrößerung von Speichern und schnellerer Zugriff sind aber Schlüsselfunktionen in der
Mehr, 2015W Übungsgruppen: Mo., Mi.,
VU Technische Grundlagen der Informatik Übung 7: Speichermanagement 183.579, 2015W Übungsgruppen: Mo., 11.01. Mi., 13.01.2016 Aufgabe 1: Cache-Adressierung Ihr Cachingsystem soll 32 GiB an Speicher auf
MehrBesprechung des 9. Übungsblattes Virtuelle Speicherverwaltung Aufgaben
Themen heute Besprechung des 9. Übungsblattes Virtuelle Speicherverwaltung Aufgaben Besprechung des 9. Übungsblattes Aufgabe 2 Ist in einer Aufgabe wie hier keine explizite Wortbreite angegeben, nicht
MehrVariante des MSI-Protokolls
Variante des MSI-Protokolls Im Zustand M wird BusRd gesehen. Welche Transition ist durchzuführen? hängt vom Zugriffsmuster der Anwendung ab: Übergang zu S erwartet eher ein nachfolgendes Read und nicht
MehrDatenpfad einer einfachen MIPS CPU
Datenpfad einer einfachen MIPS CPU Zugriff auf den Datenspeicher Grundlagen der Rechnerarchitektur Prozessor 19 Betrachten nun Load und Store Word Erinnerung, Instruktionen lw und sw sind vom I Typ Format:
MehrEnterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13
UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13 Verarbeitungsgrundlagen Teil 4 Cache el0100 copyright W.
MehrRechnernetze und Organisation
Memory 1 Übersicht Motivation Speicherarten Register SRAM, DRAM Flash Speicherhierarchie Cache Virtueller Speicher 2 Motivation Speicher ist zentraler Bestandteil eines Computers neben Prozessor CPU Computer
MehrEin konfigurierbarer, visueller Cache-Simulator unter spezieller Berücksichtigung komponenten- basierter Modellierung mit Java Beans
Ein konfigurierbarer, visueller Simulator unter spezieller Berücksichtigung komponenten- basierter Modellierung mit Java Beans Holger 6. März 2001 Universität Wilhelm-Schickard-Institut für dieser Arbeit
Mehr1 Aufgaben Wie funktioniert ein Computer. a) Welche Spannungen werden von PC-Netzteilen bereitgestellt? 5W, 12W,
81 1 Aufgaben Wie funktioniert ein Computer Netzteil a) Welche Spannungen werden von PCNetzteilen bereitgestellt? 3 BV 5W 12W 5 V 12W b) Warum können PCNetzteile hohe Leistungen liefern obwohl die eingebauten
MehrGrundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Prozessor Übersicht Datenpfad Control Pipelining Data Hazards Control Hazards Multiple Issue Grundlagen der Rechnerarchitektur Prozessor 2 Datenpfad einer einfachen MIPS
MehrCPU Speicher I/O. Abbildung 11.1: Kommunikation über Busse
Kapitel 11 Rechnerarchitektur 11.1 Der von-neumann-rechner Wir haben uns bisher mehr auf die logischen Bausteine konzentriert. Wir geben jetzt ein Rechnermodell an, das der physikalischen Wirklichkeit
MehrEinführung in die technische Informatik
Einführung in die technische Informatik Christopher Kruegel chris@auto.tuwien.ac.at http://www.auto.tuwien.ac.at/~chris Betriebssysteme Aufgaben Management von Ressourcen Präsentation einer einheitlichen
MehrSpeicher. Rechnerarchitektur (RA) Sommersemester Prof. Dr. Jian-Jia Chen 2016/06/15. technische universität dortmund
2 Rechnerarchitektur (RA) Sommersemester 26 Speicher Prof. Dr. Jian-Jia Chen 26/6/5 Kontext Prozessor Leitwerk Rechenwerk Speicherarchitektur Externe Kommunikation Interne Kommunikation Die Wissenschaft
MehrMikroprozessoren Grundlagen AVR-Controller Input / Output (I/O) Interrupt Mathematische Operationen
Mikroprozessoren Grundlagen Aufbau, Blockschaltbild Grundlegende Datentypen AVR-Controller Anatomie Befehlssatz Assembler Speicherzugriff Adressierungsarten Kontrollstrukturen Stack Input / Output (I/O)
MehrRechnerstrukturen Winter SPEICHER UND CACHE. (c) Peter Sturm, University of Trier 1
9. SPEICHER UND CACHE (c) Peter Sturm, University of Trier 1 Inhalt Grundlagen Speichertypen RAM / ROM Dynamisches RAM Cache- Speicher Voll AssoziaNv n- Wege AssoziaNv Direct Mapping Beispiel: 8 Bit- Register
MehrSchriftliche Prüfung. Aufgaben OTTO-VON-GUERICKE-UNIVERSITÄT MAGDEBURG FAKULTÄT FÜR INFORMATIK. Technische Informatik II. am:
OTTO-VON-GUERICKE-UNIVERSITÄT MAGDEBURG FAKULTÄT FÜR INFORMATIK Schriftliche Prüfung im Fach: Studiengang: Technische Informatik II Informatik am: 11. 02. 2005 Bearbeitungszeit: 180 min zugelassene Hilfsmittel:
MehrAdressierung von Speichern und Eingabe- Ausgabegeräten
Adressierung von Speichern und Eingabe- Ausgabegeräten Adressdecodierung Die Busstruktur von Prozessorsystemen verbindet die Bauteile über gemeinsame Leitungen. Auf dem Bus darf zu einer Zeit immer nur
MehrZENTRALEINHEITEN GRUPPE
31. Oktober 2002 ZENTRALEINHEITEN GRUPPE 2 Rita Schleimer IT für Führungskräfte WS 2002/03 1 Rita Schleimer TEIL 1 - Inhalt Zentraleinheit - Überblick Architekturprinzipien Zentralspeicher IT für Führungskräfte
MehrCPU. Memory. Highest. Fastest. Smallest. Memory. Biggest. Lowest
Speed CPU Size Cost ($/bit) Fastest Memory Smallest Highest Memory Slowest Memory Biggest Lowest Processor Data are transferred CPU Levels in the memory hierarchy Level Level 2 Increasing distance from
MehrRechnerstrukturen. 5. Speicher. Inhalt. Vorlesung Rechnerstrukturen Wintersemester 2002/03. (c) Peter Sturm, Universität Trier 1.
Rechnerstrukturen 5. Speicher 5.1 Motivation Speichertypen RAM / ROM Dynamisches RAM Inhalt Cache-Speicher Voll Assoziativ n-wege Assoziativ Direct Mapping 5.2 (c) Peter Sturm, Universität Trier 1 Der
MehrMikroprozessortechnik Grundlagen 1
Grundlagen - Grundbegriffe, Aufbau, Rechnerarchitekturen, Bus, Speicher - Maschinencode, Zahlendarstellung, Datentypen - ATMELmega28 Progammierung in C - Vergleich C und C++ - Anatomie eines µc-programmes
MehrÜbungen zu Grundlagen der Rechnerarchitektur und -organisation: Bonusaufgaben Übung 8 und Präsenzaufgaben Übung 9
Übungen zu Grundlagen der Rechnerarchitektur und -organisation: Bonusaufgaben Übung 8 und Präsenzaufgaben Übung 9 Dominik Schoenwetter Erlangen, 30. Juni 2014 Lehrstuhl für Informatik 3 (Rechnerarchitektur)
MehrGrundlegendes zum PC
Grundlegendes zum PC Grundsätzlicher Aufbau eines PC Bild eines PC Beschreibung Eingabegeräte Ausgabegeräte Speicher Sonstige Bild eines PC Beschreibung Sind alle gleich die PC Sind in 3 bereiche eingeteilt:
MehrEchtzeitbetriebssysteme
Speicherverwaltung (Memory Management) Aufgaben der Memory-Management-Unit ist l der Speicherschutz und l die Adressumsetzung Wird durch Hardware unterstützt l Memory Management Unit (MMU) l MMU wird vom
MehrTutorium Rechnerorganisation
Woche 11 Tutorien 3 und 4 zur Vorlesung Rechnerorganisation 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
MehrModul InfB-RS: Rechnerstrukturen
A. Mäder 1 MIN-Fakultät Fachbereich Informatik 64-040 Modul InfB-RS: Rechnerstrukturen https://tams.informatik.uni-hamburg.de/ lectures/2016ws/vorlesung/rs Kapitel 18 Andreas Mäder Universität Hamburg
MehrCache. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011
Cache Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Cache 1/53 2012-02-29 Einleitung Hauptspeicherzugriffe sind langsam die
MehrModul InfB-RS: Rechnerstrukturen
64-040 Rechnerstrukturen 64-040 Modul InfB-RS: Rechnerstrukturen http://tams.informatik.uni-hamburg.de/ lectures/2014ws/vorlesung/rs Kapitel 18 Andreas Mäder Universität Hamburg Fakultät für Mathematik,
MehrSpeicherorganisation
Speicherorganisation John von Neumann 1946 Ideal wäre ein unendlich großer, undendlich schneller und undendlich billiger Speicher, so dass jedes Wort unmittelbar, d.h. ohne Zeitverlust, zur Verfügung steht
Mehr4.2 Verbesserung der Leistungsfähigkeit von Caches
12 4.2 Verbesserung der Leistungsfähigkeit von Caches Peter Marwedel Informatik 12 TU Dortmund 2014/05/02 Cache-Performanz Bewertungsmaß für die Leistungsfähigkeit einer Speicherhierarchie: Mittlere Zugriffszeit
MehrKlausur Mikroprozessortechnik
1 Prof. Dr. K. Wüst WS 2001 FH Gießen Friedberg, FB MNI Studiengang Informatik Nachname: Vorname: Matrikelnummer: Klausur Mikroprozessortechnik 14.9.2001 Punkteverteilung Aufgabe Punkte erreicht 1 3 2
MehrBusse. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009
Busse Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Busse 1/40 2008-10-13 Übersicht 1 Einleitung 2 Bus-Konfiguration
MehrBusse. Dr.-Ing. Volkmar Sieh WS 2005/2006. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg
Einleitung Bus-Konfiguration Bus-Arbitrierung Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Einleitung Bus-Konfiguration Bus-Arbitrierung
MehrLinux Paging, Caching und Swapping
Linux Paging, Caching und Swapping Inhalte Paging Das Virtuelle Speichermodell Die Page Table im Detail Page Allocation und Page Deallocation Memory Mapping & Demand Paging Caching Die verschiedenen Caches
MehrGrundlagen von Caching-Mechanismen beim Zusammenspiel von Mikroprozessor und Betriebssystem. Klaus Kusche Dezember 2015
Grundlagen von Caching-Mechanismen beim Zusammenspiel von Mikroprozessor und Betriebssystem Klaus Kusche Dezember 2015 Inhalt Ziele & Voraussetzungen Grundidee & Beispiele von Caches Bedeutung effizienter
Mehr11. Die PC-Schnittstelle
PC-Schnittstelle Funktion -1. Die PC-Schnittstelle.1. Funktion Die folgenden Angaben gelten ohne Einschränkung für den PC, PC-XT, PC-AT, AT-386, AT-486 und kompatible Rechner. Sie sind nur für jene interessant,
MehrQuantitative Prinzipien im Hardwareentwurf. 1. Small is fast
Quantitative Prinzipien im Hardwareentwurf 1. Small is fast Kleine Hardwareeinheiten schalten in der Regel schneller als größere. Kleine Transistoren bilden an ihren Gates kleinere Kapazitäten die Source-Drain
MehrJohann Wolfgang Goethe-Universität
Flynn sche Klassifikation SISD (single instruction, single data stream): IS IS CU PU DS MM Mono (Mikro-)prozessoren CU: Control Unit SM: Shared Memory PU: Processor Unit IS: Instruction Stream MM: Memory
MehrDatenpfaderweiterung Der Single Cycle Datenpfad des MIPS Prozessors soll um die Instruktion min $t0, $t1, $t2 erweitert werden, welche den kleineren
Datenpfaderweiterung Der Single Cycle Datenpfad des MIPS Prozessors soll um die Instruktion min $t0, $t1, $t2 erweitert werden, welche den kleineren der beiden Registerwerte $t1 und $t2 in einem Zielregister
MehrBetriebssysteme (BTS)
.Vorlesung Betriebssysteme (BTS) Christian Baun cray@unix-ag.uni-kl.de Hochschule Mannheim Fakultät für Informatik Institut für Betriebssysteme..007 Organisatorisches zur Übung Verteilung auf die beiden
MehrArithmetische und Logische Einheit (ALU)
Arithmetische und Logische Einheit (ALU) Enthält Blöcke für logische und arithmetische Operationen. n Bit Worte werden mit n hintereinander geschalteten 1 Bit ALUs bearbeitet. Steuerleitungen bestimmen
MehrKlausur zur Mikroprozessortechnik
Prof. Dr. K. Wüst WS 2001 FH Gießen Friedberg, FB MNI Studiengang Informatik Klausur zur Mikroprozessortechnik Nachname: Vorname: Matrikelnummer: 7.3.2001 Punkteverteilung Aufgabe Punkte erreicht 1 3 2
Mehr