G. Caches. G.1.1 Kontext & Orientierung
|
|
- Eugen Salzmann
- vor 5 Jahren
- Abrufe
Transkript
1 G.1.1 Kontext & Orientierung G. Caches Caches sind kleine, aber schnelle Zwischen- bzw. Pufferspeicher. Assoziative Adressierung anstelle von direkter Adressierung. Für Code, Daten & virtuelle Adressen. Verschiedene Ersetzungsstratgien. Höhere Informatik Systemprogrammierung: - Betriebssystemkonzepte, Ein- & Ausgabe K J Caches G Architektur: - Modellrechner, Pipelining, Out-Of-Order Technik Digitaltechnik: - Logikbausteine, Schaltnetze & -werke, Zahlen E F H C I D Elektronik B Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-1
2 G.2. Assoziatives Adressierungsverfahren G.2.1 Inhaltsadressierter Speicher, CAM (Content-Adressed Memory) Adressierung herkömmlichen Speichers: die Adresse adr liefert Speicherwort[ adr ], genau ein Ergebnisdatum, ähnlich wie ein Array. Inhaltsadressierter Speicher (Assoziativspeicher): die einzelnen Speicherwörter haben keine Adresse, werden anhand eines Schlüssels ausgewählt, oder anhand des Inhaltes, 0, 1 oder n Ergebnisse. Bereits 1943 durch Konrad Zuse vorgeschlagen, erst mit Halbleitertechnik in Hardware implementiert. Schneller Zugriff auf Dateninhalte, die teilweise bekannt, deren Speicherzelle jedoch unbekannt sind.? Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-2
3 G.2.2 Möglicher Hardware-Aufbau eines Assoziativspeichers Zeile besteht aus k Bit Schlüssel (Key) und n Bit Daten. binäre Codierung der Daten, des Schlüssels und einer Suchmaske. Suche wird durch Maske auf bestimmte Bits des Schlüssels eingeschränkt. Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-3
4 G.2.3 Suchen und Abfragen im Assoziativspeicher Suchen: Eingabe des Suchschlüssels und einer Suchmaske z.b. in besonderen Steuerregistern, parallele oder teilparallele Suche in allen Zeilen nach passendem Muster, Trefferregister hat jeweils 1 Bit gesetzt für alle gefundenen Zeilen. Abfragen der Ergebnisse: gesteuert durch spezielle Steuerlogik, sequentiell anhand des Trefferregisters, jeweils ein Wert in speziellem Ausgaberegister. Ursprüngliche Hoffnungen: massiv parallele Verarbeitung, spezielle Datenbankmaschinen & -speicher, Nachbildung der Arbeitsweise des menschlichen Gehirns (Assoziativ), Heute weitgehend ersetzt durch Hash-Algorithmen und konventionelle Speicher. Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-4
5 G.3. Puffer zum Hauptspeicher G.3.1 RAM-Caches Pufferspeicher bzw. Caches gibt es nicht nur zwischen RAM und CPU. Hier ist aber vorerst RAM-Cache gemeint. Geschwindigkeitsgefälle zwischen Hauptspeicher und Prozessorregistern: Hauptspeicherzugriffe gehen "off-chip" und sind vergleichsweise langsam, obschon CPU und RAM dieselbe Halbleitertechnologie verwenden, superskalare Prozessoren benötigen mehr Befehle pro Zeiteinheit, kürzere Zugriffszeit, höhere Transferrate erforderlich. Lösungsansatz: Speicherhierarchie mit gestaffelt schnellen Speichertechnologien. kein Multiplexverfahren für Zeilen- und Spaltenadresse, schneller Pufferspeicher "on-chip" (Cache). Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-5
6 G.3.2 Typische Systeme mit Cache Typische Arbeitsparameter: L1 Cache: SRAM (8 64 kbyte, 1 3 Takte Zugriffszeit) L2 Cache: SRAM ( kbyte, 3 15 Takte) L3 Cache (selten): SRAM (4 64 MByte, Takte) Hauptspeicher: DRAM (64 MByte 8 GByte, Takte) Analyse der Cache-Organisation mit RMMA RMMA Right Mark Memory Analyzer Open Source Programm zur Analyse von Leistungsparametern, hier verwendet für die Beurteilung der Cache-Organisation eines Notebooks, Level 1 Daten, Level 1 Code, Level 2 Cache: Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-6
7 G.3.3 Speichern von Teilbereichen des Adressraumes Hierarchische Strukturen: Transport zwischen Festplatte und Hauptspeicher mithilfe des Dateisystems, Transport zwischen Hauptspeicher und RAM-Cache durch die Hardware, Evtl. getrennte Caches für Code und Daten, Evtl. mehrstufige Caches (L1, L2, L3). Dateisystem Hauptspeicher MCH Daten-Cache Code-Cache Execution Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-7
8 Speicherhierarchie Speicherpyramide: Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-8
9 G.3.4 Cache-Aufbau Cache ist ein Assoziativspeicher für Speichereinträge des Hauptspeichers Schlüssel (Key, Tag) entspricht der gepufferten Hauptspeicheradresse, übrige Daten entsprechen dem Speicherinhalt. Aufbau im Detail: üblicherweise ganze Zeilen, Cache-Lines, Cache-Blocks, mit 8, 16, 32, 64 Bytes, d.h. 64, 128, 256, 512 Bits, "Valid"-Bit für gültige Cache-Zeilen. Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-9
10 G.4. Assoziativität von Caches G.4.1 Voll assoziativer Cache: Jede Adresse in jeder Zeile möglich. Byteadressierung innerhalb einer Cachezeile. Tag-RAM speichert die restlichen Adressteile. Pro Zeile und Zugriff ein Vergleich. Sehr viele Komparatorschaltkreise erforderlich. Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-10
11 G.4.2 Direct Mapped (direkt abgebildeter) Cache: Pro Hauptspeicheradresse ist immer nur eine Zeile möglich. Byteadressierung innerhalb einer Cachezeile. Untere Adressbits wählen eine der Cachezeilen. Tag-RAM speichert die restlichen Adressteile. Viele Hauptspeicheradressen konkurrieren um eine einzelne Cachezeile Leistungseinbussen bei ungünstigen Zugriffmustern. Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-11
12 G.4.3 k-wege teilassoziativer Cache: Hybridmodell: k parallel geschaltete direkt abbildende Wege Eine Adresse kann sich in genau k Zeilen befinden. Pro Zugriff k simultane Vergleiche. Nur k Komparatoren. Hier gezeigt: k=4 Wege. Typisch in 2006: Plattform Cache Cache Size Line Size # of Lines Mapping Pentium 4 L1 Daten 32 KByte 64 Byte 512 Zeilen 8 way set-assoziativ Pentium 4 L2 2-4 MByte 64 Byte kzeilen 8-16 way set-assoziativ G5 L1 Daten 32 KByte 64 Byte 512 Zeilen 2 way set-assoziativ G5 L2 512 KByte 128 Byte 4096 Zeilen 8 way set-assoziativ Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-12
13 G.5. Lokalitätsprinzip Beobachtung in typischen Computerprogrammen: Instruktionen werden meist der Reihe nach ausgeführt, nur unterbrochen durch Sprünge. Sprünge hauptsächlich in Schleifen oder als Prozeduraufruf, sonst eher selten. Dadurch wiederholtes Holen kürzlich geholter Instruktionen. Dadurch auch wiederholter Zugriff kürzlich zugegriffener Daten. Zeitliche (temporale) Lokalität Eine Adresse wird mehrmals hintereinander zugegriffen. Innerhalb eines kleinen Zeitfensters. Idee: Zwischepuffern der Inhalte an solchen Adressen. => Hauptsächliche Motivation für den Einsatz von Caches. Problem: Wie kurz/lang ist das Zeitfenster zu wählen? Räumliche (spatiale) Lokalität Oft werden nahe bei einander liegende Adressen hintereinander zugegriffen. Betrag der Differenz der Adressen ist klein. Idee: Auch Inhalte an nahen Adressen zwischenpuffern => Einsatz von Cache Lines, die mehrere Speicherwörter umfassen. Problem: Wie klein/groß sollte der Betrag der Adressdifferenz sein? Das Prinzip gilt für Daten und Instruktionen gleichermaßen. Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-13
14 G.6. Verhalten von Caches G.6.1 Cache Hit / Cache Miss Read Hit - Übereinstimmung des Tagsfeldes: Daten werden sofort zur CPU-transportiert. Read Miss - kein passender Tagwert im Cache: die betroffene Cache-Zeile wird im Burst-Mode aus dem Hauptspeicher geladen, die gewünschten Datenbytes kommen zuerst an, weitere Bytes der Zeile später, bei Platzmangel muss eine passende Cache-Zeile ersetzt werden, ersetzen z.b. nach LRU-Verfahren (Least-Recently-Used) Write Hit - Übereinstimmung des Tagfeldes: Daten werden im Cache aktualisiert, entweder Write Back: als "Dirty" markieren, bei Verdrängung Zeile zurückschreiben, oder Write Through: unmittelbar in den Hauptspeicher zurückschreiben. Write Miss - kein passender Tagwert im Cache: entweder Fetch on Write: Cache-Eintrag aus Speicher holen und wie bei Write Hit () oder Write Around: Zugriff direkt im Hauptspeicher ohne Cache-Aktualisierung, oder Write Allocate: Neue Zeile vorsorglich bereitstellen, später komplettieren. Statt auf Hauptspeicher evtl. Zugriff auf Cache der nächsten Ebene. Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-14
15 G.6.2 Strategien bei Schreibzugriffen Wird Cachezeile überschrieben, muß sie evtl. vorher zurückgeschr. werden. Ganze Cache-Zeilen (z.b. 64 Bytes) werden als Burst-Zugriffe transportiert. Write-Through (Leicht implementierbar) Cache-Inhalt sofort im Hauptspeicher nachführen, Erhebliche Verzögerungen über den Speicherbus. Hauptspeicher Write-Back Modifikationen im Cache durchführen, Cache-Inhalt erst beim Ersetzen zurückschreiben, Ersatz einer Zeile dauert länger als Write-Through, t t Trotzdem weniger Speicherbuszyklen erforderlich, Konsistenzproblem zwischen Cache & Hauptspeicher. Cache Write-Allocate Neue Zeile anlegen, wenn bisher nicht im Cache, Evtl. modifizierte alte Zeile zurückschreiben, Rest der neuen Zeile später nachladen, CPU Schwierige Implementierung. Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-15
16 G.6.3 Zugriffszeiten Die Zugriffszeiten akkumulieren sich: mittlere Speicherzugriffszeit auf L1-Cache: t access =t L1 mr L1 t Mem mit mr L1 Miss Rate des L1-Cache mittlere Speicherzugriffszeit auf L2-Cache: t access =t L1 mr L1 t L2 mr L2 t Mem mit mr L1 Miss Rate des L1-Cache / mr L2 Miss Rate des L2-Cache Faustregeln zur Cache-Dimensionierung: Ein 2-Wege teilassoziativer Cache hat typischerweise eine Miss Rate wie ein doppelt großer direkt abgebildeteter Cache. Ein 8-Wege teilassoziativer Cache hat für die meisten Anwendungen eine Hit Rate wie ein vollassoziativer Cache. Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-16
17 G.6.4 Fehlzugriffsverhalten von Caches Drei Arten von Fehlzugriffen/"Cache Misses" (3 C s) Erstbelegung (Compulsory): erste Einlagerung in Cache nach Programmstart Kapazität (Capacity): zu wenig Cachezeilen, Verdrängung ohne Adresskonflikt, Konflikte (Conflict): Verdrängung notwendiger Cache-Zeilen durch Konflikte Fehlzugriffe durch Erstbelegung im Allgemeinen vernachlässigbar, Vergrößerung des Caches reduziert Fehlzugriffe erheblich. Die drei Fehlzugriffs-Ursachen in Abhängigkeit von Cachegröße und -typ: Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-17
18 G.6.5 Cache-Implementierung Internes Pipelining beim Cache-Zugriff Dauer eines Zugriffs ingesamt mehrere Takte, pro Takt wird aber ein Zugriff fertig. Speicheradressen im Cache entweder logisch/virtuell oder physikalisch: logische Adressierung oft im L1-Cache: Vorteil: keine Speicherabbildung (Memory Map) notwendig, Nachteil: Prozessumschaltung muss evtl. L1-Cache löschen, NB: Oft hat jeder Prozess seine eigene Memory Map. physikalische Adressierung in L2/L3-Caches. Vorteil: Die Prozessumschaltung verlangt kein Löschen des Caches, Nachteil: bei jedem Zugriff vorherige Speicherabbildung notwendig Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-18
19 G.7. Optimierungen im Programm Prefetch-Instruktionen holen benötigte Daten schon vorab in den Cache. Erhöhung der Lokalität: Wiederbenutzung der schon gefüllten Cachezeile, mehr Zugriffe auf weniger Adressen Je nach Compiler horizontal oder vertikal dominierte Arrayindizierung: entweder: horiz = 1024; vertik = 1024; long matrix[ horiz ][ vertik ]; for( ve = 0; ve < vertik; ve ++ ) for( ho = 0; ho < horiz; ho ++ ) matrix[ ho ][ ve ]= 1; oder: long matrix[ vertik ][ horiz ]; for( ve = 0; ve < vertik; ve ++ ) for( ho = 0; ho < horiz; ho ++ ) matrix[ ve ][ ho ]= 1; Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-19
20 G.7.1 Zugriffsmuster der Programmschleifen Beispielsweise: Angenommen matrix[1024][1024], Elemente à 4 Byte Integer, Cachezeile 64 Bytes, Die Elemente matrix[ ho ][0..N-1] konkurrieren evtl. um dieselben Cachezeilen, die Cachezeilen werden evtl. wiederholt ein- und ausgelagert. ungünstig besser Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-20
21 G.7.2 Erhöhung der Lokalität mit Datenstrukturen Zusammenfassung von gemeinsam genutzten Dreiecks-Koordinaten: als Pascal-Record: point3d = record x, y, z: real end; triangle = record a, b, c: point3d end; und nicht als: koord: array[ , 1..9] of real;... Empfehlung: keine 2er Potenzen als Dimension eines Feldes (dann genügt niedrigere Assoziativität), sequentiell durch den Speicher laufen (Cachekapazität schonen), Speicherlayout des Compilers untersuchen, Operanden auf Cachezeilen ausrichten. Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-21
22 import java.util.*; public class CacheTest { static final int MEG=1024*1024; public static void main(string[] args) { int mainloop=0; while(mainloop++<8) {// measure 8 times cachetest(256); // beyond 2nd level cachetest(16); // beyond 1st level cachetest(1); // within 1st level System.out.println(); } } static void cachetest(int step){ int to, innerloop, outerloop=0; int[] arr=new int[4*meg]; // larger than cache long stop, start = (new Date()).getTime(); // while(outerloop++<15000){ // 10 times through to=0; innerloop=4*meg/256; // within bounds while(innerloop-->0){ arr[to]=4711; to+=step; } } // stop = (new Date()).getTime(); System.out.print(" "+(stop-start)); } } Ausgabe des Cachetesters: Technische Informatik 2, Wintersemester 2009/10, P. Schulthess & F. Hauck & T. Schmitt, VS Informatik, Ulm G-22
G. Caches. G.1.1 Kontext & Orientierung
G.1.1 Kontext & Orientierung G. Caches Caches sind kleine, aber schnelle Zwischen- bzw. Pufferspeicher. Assoziative Adressierung anstelle von direkter Adressierung. Für Code, Daten & virtuelle Adressen.
Mehr6 Exkurs: Assoziativspeicher
6 Exkurs: Assoziativspeicher alternative Möglichkeit der Speicherung von Informationen in einem Computer: Assoziativspeicher (inhaltsadressierbarer Speicher bzw. CAM = Content Addressable Memory) : bei
Mehr6 Exkurs: Assoziativspeicher (2) 6 Exkurs: Assoziativspeicher. 7.1 Speicherhierarchie. 7 Caches
6 Exkurs: Assoziativspeicher alternative Möglichkeit der Speicherung von Informationen in einem Computer: Assoziativspeicher (inhaltsadressierbarer Speicher bzw. CAM = Content Addressable Memory) : bei
Mehr11. Caches Pufferspeicher
Lesepuffer um vorauszulesen: - erste Leseoperation hat lange Latenzzeit, - Folgedaten vorsorglich schon gelesen, - "prefetch buffer". 11. s 11.1 Pufferspeicher Schreibpuffer um ein Blockieren des schreibenden
MehrGrob-Struktur des Prozessor-Speichersystems
2.3.2 Speicherstruktur (1) Grob-Struktur des Prozessor-Speichersystems Chipsatz (Erklärung s. später, Folie 104) 22.4.-27.5.2013, Folie 52 2.3.2 Speicherstruktur (2) Zugriff Prozessor zumeist auf schnelle
MehrRAM. Konsistenzprobleme entstehen => CPU - durch Verzögerung in Warteschlange, Umfangreiche Pufferung in den PCI Brücken. lesen. EOP-Signal.
11. s 11.1 Pufferspeicher Lesepuffer um vorauszulesen: - erste Leseoperation hat lange Latenzzeit, - Folgedaten vorsorglich schon gelesen, - "prefetch buffer". Schreibpuffer um ein Blockieren des schreibenden
MehrIn heutigen Computern findet man schnellen/teuren als auch langsamen/billigen Speicher
Speicherhierarchie In heutigen Computern findet man schnellen/teuren als auch langsamen/billigen Speicher Register Speicherzellen, direkt mit der Recheneinheit verbunden Cache-Speicher Puffer-Speicher
MehrGrundlagen der Rechnerarchitektur. Speicher
Grundlagen der Rechnerarchitektur Speicher Übersicht Speicherhierarchie Cache Grundlagen Verbessern der Cache Performance Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 2 Speicherhierarchie
MehrGrundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Speicher Übersicht Speicherhierarchie Cache Grundlagen Verbessern der Cache Performance Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 2 Speicherhierarchie
MehrCache-Speicher. Design Digitaler Systeme. Prof. Dr.-Ing. Rainer Bermbach
Cache-Speicher Design Digitaler Systeme Prof. Dr.-Ing. Rainer Bermbach Übersicht Cache-Speicher Warum Cache-Speicher? Cache-Strukturen Aufbau und Organisation von Caches Cache-Architekturen Cache-Strategien
MehrCache Grundlagen. Schreibender Cache Zugriff. SS 2012 Grundlagen der Rechnerarchitektur Speicher 22
Cache Grundlagen Schreibender Cache Zugriff SS 212 Grundlagen der Rechnerarchitektur Speicher 22 Eine einfache Strategie Schreibt man nur in den Cache, werden Cache und darunter liegender Speicher inkonsistent.
MehrGrundlagen der Rechnerarchitektur. Speicher
Grundlagen der Rechnerarchitektur Speicher Übersicht Speicherhierarchie Cache Grundlagen Verbessern der Cache Performance Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 2 Speicherhierarchie
Mehré Er ist software-transparent, d.h. der Benutzer braucht nichts von seiner Existenz zu wissen. Adreßbus Cache- Control Datenbus
4.2 Caches é Cache kommt aus dem Französischen: cacher (verstecken). é Er kann durch ein Anwendungsprogramm nicht explizit adressiert werden. é Er ist software-transparent, d.h. der Benutzer braucht nichts
MehrQuiz. Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset.
Quiz Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset 32 Bit Adresse 31 3 29... 2 1 SS 212 Grundlagen der Rechnerarchitektur
MehrBesprechung des 8. Übungsblattes Einführung in Caches Cache-Organisation Cache-Ersetzungsstrategien Aufgaben (an der Tafel) Testklausur
Themen heute Besprechung des 8. Übungsblattes Einführung in Caches Cache-Organisation Cache-Ersetzungsstrategien Aufgaben (an der Tafel) Testklausur Besprechung des 8. Übungsblattes Aufgabe 2.6. In diesem
MehrGrundlagen der Informationsverarbeitung:
Grundlagen der Informationsverarbeitung: Speicherhierarchie Prof. Dr.-Ing. habil. Ulrike Lucke Durchgeführt von Prof. Dr. rer. nat. habil. Mario Schölzel Maximaler Raum für Titelbild (wenn kleiner dann
MehrSpeicher. Speicher. Speicherhierarchie. Speicher. Interessante Zahlen:
Übersicht 1 Einleitung Hauptspeicher 2 Hauptspeicher 3 Caches, Cache-Kohärenz Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009
MehrCache Blöcke und Offsets
Cache Blöcke und Offsets Ein Cache Eintrag speichert in der Regel gleich mehrere im Speicher aufeinander folgende Bytes. Grund: räumliche Lokalität wird wie folgt besser ausgenutzt: Bei Cache Miss gleich
MehrCache. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011
Cache Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Cache 1/53 2012-02-29 Einleitung Hauptspeicherzugriffe sind langsam die
MehrGrundlagen der Informatik III Wintersemester 2010/ Vorlesung Dr.-Ing. Wolfgang Heenes
Grundlagen der Informatik III Wintersemester 2010/2011 15. Vorlesung Dr.-Ing. Wolfgang Heenes int main() { printf("hello, world!"); return 0; } msg: main:.data.asciiz "Hello, world!".text.globl main la
MehrSpeicherhierarchie, Caches, Consistency Models
Speicherhierarchie, Caches, Consistency Models Maximilian Langknecht Lehrstuhl für Rechnerarchitektur Betreuer: Prof. Dr. Ulrich Brüning 1 Inhaltsverzeichnis Speicherhierarchie Warum gibt es Speicherhierarchie?
MehrTutorium Rechnerorganisation
Woche 10 Tutorien 3 und 4 zur Vorlesung Rechnerorganisation 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
MehrSpeicherorganisation
Speicherorganisation John von Neumann 1946 Ideal wäre ein unendlich großer, undendlich schneller und undendlich billiger Speicher, so dass jedes Wort unmittelbar, d.h. ohne Zeitverlust, zur Verfügung steht
MehrTechnische Informatik 1 - HS 2017
Institut für Technische Informatik und Kommunikationsnetze Prof. L. Thiele Technische Informatik 1 - HS 2017 Übung 11 Datum: 21. 22. 12. 2017 Virtueller Speicher 1 Performanz Gehen Sie von einem virtuellen
MehrSpeicher Typen. TI-Übung 5. Speicher SRAM. Speicher DRAM. SRAM vs. DRAM (EEP)ROM, NV-RAM, Flash,... Speicher, Caches
Speicher Typen TI-Übung 5 Speicher, Caches Andreas I. Schmied (andreas.schmied@uni-ulm.de) AspectIX-Team Abteilung Verteilte Systeme Universität Ulm WS2005 SRAM vs. DRAM (EEP)ROM, NV-RAM, Flash,... Charakteristik
MehrRechnerorganisation. 1. Juni 201 KC Posch
.6.2 Rechnerorganisation. Juni 2 KC Posch .6.2 2 .6.2 Front Side Bus Accelerated Graphics Port 28 MHz Front Side Bus North Bridge RAM idge South Bri IDE USB PCI Bus 3 .6.2 Front Side Bus Front Side Bus
MehrLösungsvorschlag zur 5. Übung
Prof. Frederik Armknecht Sascha Müller Daniel Mäurer Grundlagen der Informatik 3 Wintersemester 09/10 Lösungsvorschlag zur 5. Übung 1 Präsenzübungen 1.1 Schnelltest a) Welche Aussagen über Caches sind
Mehr2. Ansatzpunkt: Reduktion der Penalty Early Restart und critical word first
2. Ansatzpunkt: Reduktion der Penalty 2.1. Early Restart und critical word first Beide Techniken basieren darauf, die Wartezeit der CPU auf das Mindestmaß zu beschränken. Early restart lädt den Block wie
Mehr, 2014W Übungsgruppen: Mo., Mi.,
VU Technische Grundlagen der Informatik Übung 7: Speichermanagement 183.579, 2014W Übungsgruppen: Mo., 12.01. Mi., 14.01.2015 Aufgabe 1: Cache-Adressierung Ein Prozessor mit einer Adresslänge von 20 Bit
MehrGrundlagen der Informatik III Wintersemester 2010/2011
Grundlagen der Informatik III Wintersemester 2010/2011 Wolfgang Heenes, atrik Schmittat 12. Aufgabenblatt 07.02.2011 Hinweis: Der Schnelltest und die Aufgaben sollen in den Übungsgruppen bearbeitet werden.
MehrRechnerstrukturen. 5. Speicher. Inhalt. Vorlesung Rechnerstrukturen Wintersemester 2002/03. (c) Peter Sturm, Universität Trier 1.
Rechnerstrukturen 5. Speicher 5.1 Motivation Speichertypen RAM / ROM Dynamisches RAM Inhalt Cache-Speicher Voll Assoziativ n-wege Assoziativ Direct Mapping 5.2 (c) Peter Sturm, Universität Trier 1 Der
MehrDas Konzept der Speicherhierarchie
Das Konzept der Speicherhierarchie Small is fast, daher sind kleine Speicher schneller (und kosten mehr pro Byte). Vergrößerung von Speichern und schnellerer Zugriff sind aber Schlüsselfunktionen in der
MehrVirtueller Speicher und Memory Management
Virtueller Speicher und Memory Management Speicher-Paradigmen Programmierer ein großer Adressraum linear adressierbar Betriebssystem eine Menge laufender Tasks / Prozesse read-only Instruktionen read-write
MehrRO-Tutorien 15 und 16
Tutorien zur Vorlesung Rechnerorganisation Tutorienwoche 10 am 29.06.2011 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft
Mehr4 DRAM-Varianten (2) 4 DRAM-Varianten. 4 DRAM-Varianten (4) 4 DRAM-Varianten (3)
4 DRAM-Varianten Möglichkeiten der Beschleunigung des Zugriffs auf Daten aus DRAM-Bausteinen: 1) Überlappung: Auslesen eines Datenwortes erfolgt simultan zum Anlegen der Adresse für den nächsten Zugriff
MehrVorlesung: Rechnerstrukturen, Teil 2 (Modul IP7)
Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) J. Zhang zhang@informatik.uni-hamburg.de Universität Hamburg AB Technische Aspekte Multimodaler Systeme
MehrAnalyse aktueller Cache-Architekturen hinsichtlich Struktur und Effizienz. Markus Krause
Analyse aktueller Cache-Architekturen hinsichtlich Struktur und Effizienz Markus Krause Dresden, Gliederung 1. Einführung 2. Problemstellung 3. Lösungen a) Miss Rate b) Miss Penalty c) Hit Time 4. Zusammenfassung
MehrÜbung Praktische Informatik II
Übung Praktische Informatik II FSS 2009 Benjamin Guthier Lehrstuhl für Praktische Informatik IV Universität Mannheim guthier@pi4.informatik.uni-mannheim.de 22.05.09 11-1 Heutige große Übung Ankündigung
Mehr, Franz J. Hauck, Verteilte Systeme, Univ. Ulm, [2005w-TI2-E-Mem.fm, ]
E Hauptspeicher E.1 1 Einordnung Ebene 1 Ebene 6 Ebene 5 Ebene 4 Problemorientierte Sprache Assemblersprache Betriebssystem Ebene 3 ISA (Instruction Set Architecture) Ebene 2 Ebene 1 Ebene Mikroarchitektur
MehrEinführung in die technische Informatik
Einführung in die technische Informatik Christopher Kruegel chris@auto.tuwien.ac.at http://www.auto.tuwien.ac.at/~chris Betriebssysteme Aufgaben Management von Ressourcen Präsentation einer einheitlichen
MehrBesprechung des 9. Übungsblattes Virtuelle Speicherverwaltung Aufgaben
Themen heute Besprechung des 9. Übungsblattes Virtuelle Speicherverwaltung Aufgaben Besprechung des 9. Übungsblattes Aufgabe 2 Ist in einer Aufgabe wie hier keine explizite Wortbreite angegeben, nicht
MehrWie groß ist die Page Table?
Wie groß ist die Page Table? Im vorigen (typischen) Beispiel verwenden wir 20 Bits zum indizieren der Page Table. Typischerweise spendiert man 32 Bits pro Tabellen Zeile (im Vorigen Beispiel brauchten
MehrGrundlagen der Informatik III Wintersemester 2010/2011
Grundlagen der Informatik III Wintersemester 21/211 Wolfgang Heenes, atrik Schmittat 12. Aufgabenblatt mit Lösungsvorschlag 7.2.211 Hinweis: Der Schnelltest und die Aufgaben sollen in den Übungsgruppen
MehrVorlesung Rechnerarchitektur. Speicher V 1.2
Speicher V 1.2 Speicheranbindung früher und heute Bei der MU0 wurde der Speicher in einem Taktzyklus gelesen und geschrieben Dieses Verhalten war für ältere Rechner charakteristisch und stimmt auch noch
MehrVorlesung: Rechnerstrukturen, Teil 2 (Modul IP7)
Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) J. Zhang zhang@informatik.uni-hamburg.de Universität Hamburg AB Technische Aspekte Multimodaler Systeme
Mehr4.2 Verbesserung der Leistungsfähigkeit von Caches
12 4.2 Verbesserung der Leistungsfähigkeit von Caches Peter Marwedel Informatik 12 TU Dortmund 2014/05/02 Cache-Performanz Bewertungsmaß für die Leistungsfähigkeit einer Speicherhierarchie: Mittlere Zugriffszeit
MehrTeil 2: Speicherstrukturen
Inhalt Teil 2: Speicherstrukturen Hauptspeicher Cache Assoziativspeicher Speicherverwaltungseinheit ( Memory Management Unit ) 1 Virtueller Speicher Trennung von virtuellem Adreßraum (mit virtuellen Adressen)
MehrRechnernetze und Organisation
Memory 1 Übersicht Motivation Speicherarten Register SRAM, DRAM Flash Speicherhierarchie Cache Virtueller Speicher 2 Motivation Speicher ist zentraler Bestandteil eines Computers neben Prozessor CPU Computer
MehrÜbung zu Einführung in die Informatik # 10
Übung zu Einführung in die Informatik # 10 Tobias Schill tschill@techfak.uni-bielefeld.de 15. Januar 2016 Aktualisiert am 15. Januar 2016 um 9:58 Erstklausur: Mi, 24.02.2016 von 10-12Uhr Aufgabe 1* a),
MehrDigital Design Entwicklung der DRAMs. Richard Roth / FB Informatik und Mathematik Speicher 1
Entwicklung der DRAMs Richard Roth / FB Informatik und Mathematik Speicher 1 Entwicklung der DRAMs in Zukunft Richard Roth / FB Informatik und Mathematik Speicher 2 DRAM Speicherzelle (Trench Technology)
MehrLösung von Übungsblatt 2
Lösung von Übungsblatt 2 Aufgabe 1 (Digitale Datenspeicher) 1. Nennen Sie einen digitalen Datenspeicher, der mechanisch arbeitet. Lochstreifen, Lochkarte, CD/DVD beim Pressen. 2. Nennen Sie zwei rotierende
Mehr, 2015W Übungsgruppen: Mo., Mi.,
VU Technische Grundlagen der Informatik Übung 7: Speichermanagement 183.579, 2015W Übungsgruppen: Mo., 11.01. Mi., 13.01.2016 Aufgabe 1: Cache-Adressierung Ihr Cachingsystem soll 32 GiB an Speicher auf
Mehrtechnische universität dortmund fakultät für informatik informatik 12 Speicherhierarchie Peter Marwedel Informatik /05/18
Speicherhierarchie Peter Marwedel Informatik 3/5/8 Kontext Prozessor Leitwerk Rechenwerk Speicherarchitektur Externe Kommunikation Interne Kommunikation, 3 - - Die Realität: Kosten/Mbyte und Zugriffszeiten
MehrNaiver Ansatz. Blöcke und Seiten. Betriebssysteme I Sommersemester 2009 Kapitel 6: Speicherverwaltung und Dateisysteme
Betriebssysteme I Sommersemester 2009 Kapitel 6: Speicherverwaltung und Dateisysteme Hans-Georg Eßer Hochschule München Teil 3: Zusammenhängende Speicherzuordnung 06/2009 Hans-Georg Eßer Hochschule München
MehrCache-Kohärenz und -Konsistenz. Betreuer: Prof. Brüning Veton Kajtazi Mat.-Nr.: Universität Heidelberg
Cache-Kohärenz und -Konsistenz Betreuer: Prof. Brüning Veton Kajtazi Mat.-Nr.: 3220501 Universität Heidelberg Inhaltsverzeichnis Wozu Caches? Unterschied Kohärenz und Konsistenz MESI-Protokoll Fazit 2
MehrSpeicherhierarchie. [Technische Informatik Eine Einführung] Univ.-Prof. Dr. Paul Molitor
[Technische Informatik Eine Einführung] Univ.-Prof. Dr. Paul Molitor Lehrstuhl für Technische Informatik Institut für Informatik Martin-Luther-Universität Halle-Wittenberg Januar 2006 1 / 100 Inhalt dieser
MehrSchriftliche Prüfung. Aufgaben OTTO-VON-GUERICKE-UNIVERSITÄT MAGDEBURG FAKULTÄT FÜR INFORMATIK. Technische Informatik II. am:
OTTO-VON-GUERICKE-UNIVERSITÄT MAGDEBURG FAKULTÄT FÜR INFORMATIK Schriftliche Prüfung im Fach: Studiengang: Technische Informatik II Informatik am: 11. 02. 2005 Bearbeitungszeit: 180 min zugelassene Hilfsmittel:
MehrRechnergrundlagen SS Vorlesung
Rechnergrundlagen SS 2007 13. Vorlesung Inhalt Cache Lesen Schreiben Überschreiben Memory Management Unit (MMU) Translation Lookaside Buffer (TLB) Klausurvorbereitung Inhalte der Klausur Rechnergrundlagen
MehrRechnerstrukturen Winter SPEICHER UND CACHE. (c) Peter Sturm, University of Trier 1
9. SPEICHER UND CACHE (c) Peter Sturm, University of Trier 1 Inhalt Grundlagen Speichertypen RAM / ROM Dynamisches RAM Cache- Speicher Voll AssoziaNv n- Wege AssoziaNv Direct Mapping Beispiel: 8 Bit- Register
MehrEin konfigurierbarer, visueller Cache-Simulator unter spezieller Berücksichtigung komponenten- basierter Modellierung mit Java Beans
Ein konfigurierbarer, visueller Simulator unter spezieller Berücksichtigung komponenten- basierter Modellierung mit Java Beans Holger 6. März 2001 Universität Wilhelm-Schickard-Institut für dieser Arbeit
MehrAlgorithm Engineering. Alexander Kröller, Abteilung Algorithmik, IBR
#7 Terminchaos Nächste Vorlesungen: 27. 5. Vertretung durch Prof. Fekete 3. 6. Exkursionswoche 10. 6. Vertretung durch N.N. 17. 6. back to normal... Experiment Durchlaufe zwei gleichgrosse Arrays: Sortierte
MehrLehrveranstaltung: PR Rechnerorganisation Blatt 10. Thomas Aichholzer
Aufgabe 10.1 Gegeben sei folgendes Code-Fragment, das zwei geschachtelte Schleifen implementiert: addi $t0, $a0, 100 outer: addi $t1, $a1, 200 inner: lw $t4, 0($t0) lw $t5, 0($t1) add $t2, $t0, $t1 add
MehrLösung von Übungsblatt 2
Lösung von Übungsblatt 2 Aufgabe 1 (Digitale Datenspeicher) 1. Nennen Sie einen digitalen Datenspeicher, der mechanisch arbeitet. Lochstreifen, Lochkarte, CD/DVD beim Pressen. 2. Nennen Sie zwei rotierende
MehrLösungsvorschlag zur 6. Übung
rof. Frederik Armknecht Sascha Müller Daniel Mäurer Grundlagen der Informatik 3 Wintersemester 9/1 Lösungsvorschlag zur 6. Übung 1 räsenzübungen 1.1 Schnelltest a) Caches und virtueller Speicher können
MehrPaging. Einfaches Paging. Paging mit virtuellem Speicher
Paging Einfaches Paging Paging mit virtuellem Speicher Einfaches Paging Wie bisher (im Gegensatz zu virtuellem Speicherkonzept): Prozesse sind entweder ganz im Speicher oder komplett ausgelagert. Im Gegensatz
Mehr2.3 Prozessverwaltung
Realisierung eines Semaphors: Einem Semaphor liegt genau genommen die Datenstruktur Tupel zugrunde Speziell speichert ein Semaphor zwei Informationen: Der Wert des Semaphors (0 oder 1 bei einem binären
MehrEinführung in die Programmiersprache C
Einführung in die Programmiersprache C 6 Cache-freundliche Programmierung (1) Alexander Sczyrba Robert Homann Georg Sauthoff Universität Bielefeld, Technische Fakultät Quadratische Matrizen Musterlösung
MehrTechnische Informatik 1 - Übung & 22. Dezember Philipp Miedl
Technische Informatik 1 - Übung 11 21. & 22. Dezember 2017 Philipp Miedl Philipp Miedl 21.12.2017 22.12.2017 1 Motivation Aufteilen des Hauptspeichers auf mehrere Prozesse Philipp Miedl 21.12.2017 22.12.2017
MehrCache II. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011
Cache II Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Cache II 1/14 2012-02-29 Schreibstrategien Es sind verschiedene Fälle
MehrLösungsvorschläge zur Übungsklausur. zum Kurs 1708 Technische Informatik II. im WS 01/02
Lösungsvorschläge zur Übungsklausur zum Kurs 1708 Technische Informatik II im WS 01/02 Aufgabe 1: (10 Punkte) Welche der folgenden Aussagen sind richtig? a) Unter dem Begriff Mikroprogramm versteht man
MehrTutorium Rechnerorganisation
Woche 11 Tutorien 3 und 4 zur Vorlesung Rechnerorganisation 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
MehrFreispeicherverwaltung Martin Wahl,
Freispeicherverwaltung Martin Wahl, 17.11.03 Allgemeines zur Speicherverwaltung Der physikalische Speicher wird in zwei Teile unterteilt: -Teil für den Kernel -Dynamischer Speicher Die Verwaltung des dynamischen
MehrDatenpfaderweiterung Der Single Cycle Datenpfad des MIPS Prozessors soll um die Instruktion min $t0, $t1, $t2 erweitert werden, welche den kleineren
Datenpfaderweiterung Der Single Cycle Datenpfad des MIPS Prozessors soll um die Instruktion min $t0, $t1, $t2 erweitert werden, welche den kleineren der beiden Registerwerte $t1 und $t2 in einem Zielregister
MehrSpeicher. Rechnerarchitektur (RA) Sommersemester Prof. Dr. Jian-Jia Chen 2016/06/15. technische universität dortmund
2 Rechnerarchitektur (RA) Sommersemester 26 Speicher Prof. Dr. Jian-Jia Chen 26/6/5 Kontext Prozessor Leitwerk Rechenwerk Speicherarchitektur Externe Kommunikation Interne Kommunikation Die Wissenschaft
MehrInhalt Teil 10 (Caches) aus 6. Speicherorganisation
Inhalt Teil 10 (Caches) aus 6. Speicherorganisation 1 6.2 Caches 6.2.1 Systemstrukturen 6.2.2 Laden des Cache 6.2.3 Cache-Strukturen Vollassoziativer Cache Direkt zuordnender Cache N-fach assoziativer
MehrSchreiben von Pages. Schreiben einer Page in den Swap Space ist sehr teuer (kostet millionen von CPU Zyklen).
Schreiben von Pages Schreiben einer Page in den Swap Space ist sehr teuer (kostet millionen von CPU Zyklen). Write Through Strategie (siehe Abschnitt über Caching) ist hier somit nicht sinnvoll. Eine sinnvolle
MehrVerbesserung der Leistungsfähigkeit von Caches
12 Verbesserung der Leistungsfähigkeit von Caches Peter Marwedel Informatik 12 TU Dortmund 2013/05/20 Verbesserung der Leistungsfähigkeit von Caches ($,, ): Übersicht Beeinflussende Größen (Kapitel 5.2,
MehrBetriebssysteme Teil 10 B: Fragen rund um Seitenfehler
Betriebssysteme Teil 10 B: Fragen rund um Seitenfehler 1 Überlegungen Wenn wir einige Seiten eines Programms in den Speicher laden, brauchen wir eine Strategie, welche Seiten als nächstes geladen werden
MehrName: Vorname: Matr.-Nr.: 4. a) RISC-Architekturen müssen zur Decodierung von Maschinenbefehlen stets ein mikroprogrammierbares Steuerwerk verwenden.
Name: Vorname: Matr.-Nr.: 4 Aufgabe 1 (8 Punkte) Entscheiden Sie, welche der folgenden Aussagen zum Thema CISC/RISC-Prinzipien korrekt sind. a) RISC-Architekturen müssen zur Decodierung von Maschinenbefehlen
Mehr1. Übersicht zu den Prozessorfamilien 2 2. Grundlagen der Rechnerorganisation 3
1. Übersicht zu den Prozessorfamilien 2 2. Grundlagen der Rechnerorganisation 3 2.1. Aufbau eines Rechners in Ebenen 3 2.2. Die Ebene der elektronischen Bauelemente 5 2.3. Die Gatterebene 5 2.3.1 Einfache
MehrKonzepte und Methoden der Systemsoftware. Aufgabe 1: Polling vs Interrupts. SoSe bis P
SoSe 2014 Konzepte und Methoden der Systemsoftware Universität Paderborn Fachgebiet Rechnernetze Präsenzübung 3(Musterlösung) 2014-05-05 bis 2014-05-09 Aufgabe 1: Polling vs Interrupts (a) Erläutern Sie
MehrSpeicherarchitektur (1)
Speicherarchitektur () Die 3 wichtigsten Speichertechnologien: Technologie Typische Zugriffszeiten $ pro Megabyte 997 SRAM 5 25 ns $00 $250 DRAM 60 20 ns $5 $0 Magnetplatten 0 20 Millionen ns $0,0 $0,20
MehrTutorium Rechnerorganisation
Woche 11 Tutorien 3 und 4 zur Vorlesung Rechnerorganisation 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
MehrLinux Paging, Caching und Swapping
Linux Paging, Caching und Swapping Inhalte Paging Das Virtuelle Speichermodell Die Page Table im Detail Page Allocation und Page Deallocation Memory Mapping & Demand Paging Caching Die verschiedenen Caches
Mehr(Cache-Schreibstrategien)
Übungsblatt 2 Aufgabe 1 (Digitale Datenspeicher) 1. Nennen Sie einen digitalen Datenspeicher, der mechanisch arbeitet. 2. Nennen Sie zwei rotierende magnetische digitale Datenspeicher. 3. Nennen Sie zwei
MehrÜbungen zu Grundlagen der Rechnerarchitektur und -organisation: Bonusaufgaben Übung 6 und Präsenzaufgaben Übung 7
Übungen zu Grundlagen der Rechnerarchitektur und -organisation: Bonusaufgaben Übung 6 und Präsenzaufgaben Übung 7 Dominik Schoenwetter Erlangen, 16. Juni 2014 Lehrstuhl für Informatik 3 (Rechnerarchitektur)
MehrTU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D.
TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D. Blatt Nr. 07 Übung zur Vorlesung Einsatz und Realisierung von Datenbanksystemen im SoSe16 Moritz Kaufmann
MehrBetriebssysteme BS-S SS Hans-Georg Eßer. Foliensatz S: Speicherverwaltung. Dipl.-Math., Dipl.-Inform. v1.0, 2015/04/14
BS-S Betriebssysteme SS 2015 Hans-Georg Eßer Dipl.-Math., Dipl.-Inform. Foliensatz S: Speicherverwaltung v1.0, 2015/04/14 Betriebssysteme, SS 2015 Hans-Georg Eßer Folie S-1 Übersicht: BS Praxis und BS
MehrAufgabe 4 : Virtueller Speicher
Sommer 216 Technische Informatik I Lösungsvorschlag Seite 16 Aufgabe 4 : Virtueller Speicher (maximal 27 Punkte) 4.1: Generelle Funktionsweise (maximal 5 Punkte) (a) (1 Punkt) Nennen Sie zwei Gründe, weshalb
MehrEnterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13
UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13 Verarbeitungsgrundlagen Teil 4 Cache el0100 copyright W.
Mehr1 Organisationsaspekte RISC- und CISC-Prozessoren Ausnutzen von Cache-Effekten
McFarling [1989] konnte Cache Misses um 75% in 8KB direkt abbildenden Caches durch Softwaremaßnahmen senken. Instruktionen Umordnen im Speicher, um Conflict-Misses zu reduzieren Profiling : spezielle Konfliktvermeidungsmaßnahmen
MehrGrundlagen der Informatik III Wintersemester 2010/2011
Grundlagen der Informatik III Wintersemester 2010/2011 Wolfgang Heenes, Patrik Schmittat 6. Aufgabenblatt mit Lösungsvorschlag 06.12.2010 Hinweis: Der Schnelltest und die Aufgaben sollen in den Übungsgruppen
MehrModul IP7: Rechnerstrukturen
64-040 Modul IP7: 4 Speicherhierarchie Norman Hendrich Universität Hamburg MIN Fakultät, Department Informatik Vogt-Kölln-Str. 30, D-22527 Hamburg hendrich@informatik.uni-hamburg.de WS 203/204 Norman Hendrich
MehrRechnerarchitektur. Vorlesungsbegleitende Unterlagen. WS 2003/2004 Klaus Waldschmidt
Rechnerarchitektur Vorlesungsbegleitende Unterlagen WS 2003/2004 Klaus Waldschmidt Teil 15 Speicherhierarchie und s Seite 1 Speicherhierarchie: Der Speicherraum wird in einzelne Schichten unterteilt, die
MehrRO-Tutorien 17 und 18
RO-Tutorien 17 und 18 Tutorien zur Vorlesung Rechnerorganisation Christian A. Mandery TUTORIENWOCHE 12 AM 19.07.2012 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der
Mehr