Inhalt Teil 10 (Caches) aus 6. Speicherorganisation
|
|
- Falko Schulz
- vor 6 Jahren
- Abrufe
Transkript
1 Inhalt Teil 10 (Caches) aus 6. Speicherorganisation Caches Systemstrukturen Laden des Cache Cache-Strukturen Vollassoziativer Cache Direkt zuordnender Cache N-fach assoziativer Cache Aktualisierungsstrategien und Datenkohärenz Write-Through Copy-Back Datenkonsistenz und Datenkohärenz Cache-Kohärenzprotokoll MESI
2 The Memory Wall 2 100,000 10,000 1, Processor Mem ory Processor-Memory Performance Gap Growing Year
3 Caches 3 Caches exploit two types of predictability: Exploit temporal locality by remembering the contents of recently accessed locations. Exploit spatial locality by fetching blocks of data around recently accessed locations.
4 6.2 Caches Systemstrukturen 4 Look-Aside-Cache Cache und Hauptspeicher werden parallel über den Bus angesprochen Look-Through-Cache (Inline) Bus wird erst nach einem Miss belastet, wichtig für SMP-Systeme Schneller separater Backside-Bus auch mit Look-Through Zugriffsreihenfolge Bild Caches als Pufferspeicher zwischen Mikroprozessor und Hauptspeicher. a Look-aside- Cache, b Look-through-Cache (hier z. B. als L2-Cache), c Look-through-Cache am Backside-Bus (grundsätzlich als L2-Cache). Anordnung entweder als On-chip-Cache (Schnittstelle 1) oder als Off-chip-Cache (Schnittstelle 2). Der Hauptspeicher ist ggf. mittels einer Bridge oder eines Hub mit dem Prozessor- bzw. Frontside-Bus verbunden
5 Speicherhierarchie 5 on chip Bild Speicherhierarchie mit den Übertragungsmodi Einzel-, Block- und Seitenzugriff für die verschiedenen Übertragungswege (der Befehls-Cache ist hier nicht gezeigt)
6 Pentium 4 Cache-Struktur 6 Pentium 4 Cache-Struktur Level Kapazität assoziativ Cacheline Verfahren L1 8 KByte 4fach 64 Byte write through Trace 12K µops L KByte 8fach 128 Byte write back
7 Caches in Multicore-Prozessoren 7 Gemeinsame Caches
8 6.2.2 Laden des Cache 8 (1.) Währender der Initialiserungsphase des Mikroprozessorsystems ist der Cache abgeschaltet. Durch das Laden von Daten in eine Cache-Line wird das zugehörige Valid-Bit auf valid gesetzt. Das Laden eine Cache- Line erfolgt blockweise. (cache fill) (2.) Durch den Cache-Clear-Befehl werden die Valid-Bits der Cache-Zeilen auf invalid gesetzt. (Cache leer) Die Blockgrenzen im Speicher sind meist Vielfache der Übertragungsblocklänge. (block alignment, ausgerichtet) (3.) Einschalten des Cache per Software Der zu übertragende Block kann mit einer beliebigen Adresse innerhalb des Blocks zuerst adressiert werden, die Folgeadressen ergeben sich durch wraparound.
9 Cache Algorithm (Read) 9 Look at Processor Address, search cache tags to find match. Then either HIT - Found in Cache Return copy of data from cache MISS - Not in cache Read block of data from Main Memory Hit Rate = fraction of accesses found in cache Miss Rate = 1 Hit rate Hit Time = RAM access time + time to determine HIT/MISS Miss Time = time to replace block in cache + time to deliver block to processor Wait Return data to processor and update cache
10 Where can a block be placed? 10 Block Number Memory Set Number TAG= Index Cache Block 12 can be placed Fully (2-way) Set Direct Associative Associative Mapped anywhere anywhere in only into set 0 block 4 (12 mod 4 = 0) (12 mod 8 = 4)
11 How is a block found? 11 Memory Address Block Address Tag Index Block Offset Tag on each block No need to check index or block offset Index selects which set to look in Increasing associativity shrinks index, expands tag. Fully Associative caches have no index field.
12 6.2.3 Cache-Strukturen Vollassoziativer Cache 12 Bild Adressierung eines vollassoziativen Cache mit 2048 Zeilen (Lines) zu je vier 32-Bit- Wörtern. Paralleler Tag-Vergleich für alle 2048 Zeilen durch 2048 Vergleicher. Cache-Hit bei Tag- Gleichheit (tag-hit) und gültigem Valid-Bit (valid-hit) für eine der 2048 Zeilen
13 Direkt zuordnender Cache (Direct Mapped Cache) 13 Bild Adressierung eines direkt zuordnenden Cache mit 2048 Zeilen (Lines) zu je vier 32-Bit-Wörtern. Anwahl einer Zeile durch einen 11-Bit-Zeilenindex mittels eines Decodierers; Tag-Vergleich für diese Zeile durch einen einzigen Vergleicher. Cache-Hit bei Tag-Gleichheit (tag-hit) und gültigem Valid-Bit (valid-hit) für diese Zeile
14 N-fach assoziativer Cache (N-Way Set Associative Cache) 14 Bild Adressierung eines 2-Wege-assoziativen Cache mit 1024 Sätzen (Sets) zu je zwei Zeilen (Lines) zu je vier 32-Bit-Wörtern. Anwahl eines Satzes durch einen 10-Bit-Satzindex mittels Decodierung; paralleler Tag-Vergleich für die beiden Zeilen des Satzes durch zwei Vergleicher. Cache-Hit bei Tag-Gleichheit (tag-hit) und gültigem Valid-Bit (valid-hit) für eine dieser beiden Zeilen
15 Access time (ns) Access time relative to direct-mapped cache 15 Small cache can help hit time since smaller memory takes less time to index Simple direct mapping : Can overlap tag check with data transmission since no choice way 2-way 4-way 8-way 16 KB 32 KB 64 KB 128 KB 256 KB 512 KB 1 MB Cache size
16 Performance Improvement Performance Improvement by Data Prefetching 16 CPU RF L1 Instruction L1 Data Unified L2 Cache Prefetched data Reduced Misses gap SPECint mcf fam3d wupwise galgel facerec swim SPECfp2000 applu lucas mgrid equake
17 6.2.4 Aktualisierungsstrategien und Datenkohärenz Write-Through 17 Die von der CPU geänderten Daten werden direkt in den Hauptspeicher "durch" geschrieben. Im Hauptspeicher befinden sich dadurch immer die aktuellen Daten. Read-Hit Write-Hit Read-Hit: Cache-Datum CPU Write-Hit: CPU-Datum Cache CPU-Datum Speicher (dauert länger) write-through Write-Miss Read-Miss Load-Line nur in den Speicher schreiben CPU-Datum Speicher (Speicherblock, Tag) Cache; 1 Valid und Speicherdatum CPU alternativ mit Write-Allocation: 1. Load Line 2. CPU-Datum Cache Speicher Neues Datum wird dabei auch in den Cache geschrieben
18 Copy-Back / Write-Back 18 Die von der CPU geänderten Daten werden zunächst nur im Cache aktualisiert und durch eine Dirty-Bit gekennzeichnet. Bevor die Cache-Zeile durch einen neuen Block überschrieben wird, wird sie in den Hauptspeicher zurückkopiert. Vorteil: Write-Hits sind schneller. Nachteil: Daten im Speicher sind nicht immer aktuell. Read-Hit, Write-Hit Read-Hit: Cache-Datum CPU Write-Hit: CPU-Datum Cache, 1 Dirty Write-Miss Read-Miss Copy-Back Load-Line CPU-Datum Cache 1 Dirty Copy-Back only if (Valid and Dirty and NoFreeLine) then Cache-Zeile Speicher Load-Line (Speicherblock, Tag) Cache; 1 Valid, 0 Dirty Speicherdatum CPU nur in den Cache schreiben (Write-Allocation)
19 Datenkonsistenz und Datenkohärenz 19 In Mehrprozessorsystemen werden oft gemeinsame Variablen (shared variables) verwendet. Wir betrachten den Fall, dass sich diese Variablen in einem Shared Memory befinden. In der Regel besitzen die Prozessoren lokale Caches. Damit entsteht das Problem, das möglicherweise auf veraltete Daten zugegriffen wird. Die Datenspeicher (Hauptspeicher und Caches) sind konsistent, wenn die Daten überall gleich und aktuell sind. Ein Kohärenzprotokoll stellt sicher, dass die Zugriffe immer auf die aktuellen Daten erfolgen, selbst wenn die Datenspeicher nicht in allen Prozessoren aktuell sind. (Sie müssen dann vor dem Zugriff aktualisiert werden oder der Zugriff muss auf aktuelle Daten umgeleitet werden) Inkonsistenz kann bis zu einem gewissen Grade zugelassen werden, wenn durch das Kohärenz-Protokoll die Kohärenz sichergestellt wird Kohärenz bedeutet das korrekte Voranschreiten des Systemzustands durch ein abgestimmtes Zusammenwirken der Einzelzustände.
20 Kohärenzprobleme: Betrachtung eines zusätzlichen Masters (DMAC) ohne Cache 20 DMA-Controller schreibt in gemeinsamen Speicherbereich 1. Xmem Xcache 2. DMA-Controller verändert Speicherinhalt Xdma Xmem 3. CPU liest veraltetes Xcache Xcache Xmem Xdma Bild Mikroprozessorsystem: Master1=CPU mit Cache Master2=DMAC ohne Cache; Zugriff auf gemeinsame Daten im Hauptspeicher
21 Kohärenzprobleme: Betrachtung eines zusätzlichen Masters (DMAC) ohne Cache (2) Xmem Xcache CPU schreibt nur in den Cache beim Copy-Back-Verfahren 2. Xcpu Xcache Xcpu 3. DMA-Controller liest veraltetes Xmem aus dem Hauptspeicher Xcache Xmem Bild Mikroprozessorsystem: Master1=CPU mit Cache Master2=DMAC ohne Cache; Zugriff auf gemeinsame Daten im Hauptspeicher
22 Lösungen des Kohärenzproblems Non-cacheable Data Ein bestimmter Shared- Adressbereich wird als Noncacheable markiert, der Cache wird für diesen Bereich deaktiviert. Solche Markierungen werden in den Seitendeskriptoren (in der Speicherverwaltungseinheit) oder in speziellen Registern des Cache- Controllers durchgeführt. Die von den Interface-Einheiten belegten Adressbereiche für Steuerregister, Statusregister, Datenpuffer werden als Noncacheable markiert. 2. Cache-Clear, Cache-Flush Zugriffe auf gemeinsamen Datenbereich werden durch verschiedene Tasks ausgeführt. Beim Taskwechsel wird der Cache gelöscht. Verwendung des Cache-Clear- Befehls beim Write-Through- Verfahren: Alle Cache-Lines werden auf Invalid gesetzt. Verwendung des Cache-Flush- Befehls beim Copy-Back-Verfahren: Dirty Lines werden zuerst zurückkopiert, danach werden alle Cache-Lines auf Invalid gesetzt.
23 Lösungen des Kohärenzproblems (2) Bus-Snooping (Bus-Schnüffeln) in System (CPU/Cache Mem Master2) Master2 Der Cache (mit Snoop-Logik) beobachtet die Aktivitäten auf dem Bus Xcache Xmem Xdma Eine Variable Xcache befindet sich im Cache. Der Master2 (ohne Cache) ändert Xmem, die für ihn im Speicher liegt: Cache erkennt Snoop-Hit on a Write bei einem Write-through-Cache: snooping (FALL 1) Variable Xcache wird als ungültig gekennzeichnet (entry clear)
24 Lösungen des Kohärenzproblems 24 bei einem Copy-back-Cache, alternativ: Master2 (FALL 2) Cache-Line Xcache wird zuerst noch zurückkopiert (entry flush), bevor der Master2 die Speichervariable ändert. (Der Schreibvorgang des Masters2 wird unterbrochen.) Die Cache-Line wird als Invalid gekennzeichnet. Xcache Xmem Xdma (FALL 3) Der Master2 schreibt gleich in die Cache-Line, die als Dirty gekennzeichnet wird. Die Speichervariable wird dabei nicht verändert. snooping ALLGEMEINER FALL: Systeme mit mehreren Mastern mit Caches In Mehrprozessorsystemen mit lokalen Caches wird die Datenkohärenz durch ein Kohärenzprotokoll (z. B. MESI) sichergestellt
25 FALL 2 25 CPU mit Cache Memory Master2 (3) set line invalid (modified) adr Xcache Xmem adr Xmaster2 (4) copy back entry flush (2) Schreibvorgang wird unterbrochen (5) Schreibvorgang fortsetzen (1) write will schreiben write (3) Snoop-Hit on a write and = (2) Snoop-Hit (FALL 2) Cache-Line wird zuerst noch zurückkopiert (entry flush), bevor der Master2 die Speichervariable ändert. (Der Schreibvorgang des Masters2 wird unterbrochen.) Die Cache-Line wird als Invalid gekennzeichnet
26 Cache-Kohärenz-Protokoll allgemein 26 Directory-based: In einem zentralen Verzeichnis stehen alle Informationen Nachteil: schlecht skalierbar Standard: Verteiltes Protokoll Snooping: Einflussgrößen auf das Protokoll Aktiver Prozessor read/write Cache-Line Hit/Miss Zustand der Cache-Line Cache hört den gemeinsamen Speicherbus ab Snooping Cache Snoop-Hit/Miss Zustand der Cache-Line Cache-Controller überprüft, ob ein anderer Prozessor auf Adressen, die sich im Cache befinden. Wenn das der Fall ist, gibt es einen Snoop-Hit.
27 Cache-Kohärenz-Protokoll MESI 27 Eine Cache-Line kann 4 Zustände annehmen: I: INVALID Die Daten in der Cache-Line sind ungültig E: EXCLUSIV-UNMODIFIED M: EXCLUSIV-MODIFIED Nur ein Prozessor besitzt die aktuelle Line im Cache, weil er sie verändert hat (Dirty). Nur ein Prozessor besitzt die Line im Cache, die er nicht verändert hat. S: SHARED-UNMODIFIED Mehrere Caches haben ein Datum aus dem Hauptspeicher geladen, das nicht verändert wurde. z.b. vom Pentium4 für Daten unterstützt
28 Memory Prozessor 1 Prozessor 2 MESI Beispiel 28 read-miss (wie nächste Folie) E I snoop-hit on read read-miss S S write-hit snoop-hit on write M invalidate I 3. copy back 2. snoop-hit on read 1. read miss Laden unterbrechen 4. retry S S
29 29 MESI Beispiel
30 BEISPIELE : ReadHit 30 Für die folgenden Beispiele wird ein Direct-Mapping- Cache mit 4 Worten/Line angenommen Line i: MESI TAG Wort i-a Wort i-b Wort i-c Wort i-d Cache 0 Cache 1 Cache 2 Cache 3 Cache 4 Zustände der Line i S,1 S,1 I,1 Rea d Keine Zustandsänderung bei einem Read-Hit auf ein Wort in der Line i Rea d E,5 Rea d M,7 Rea d
31 Read-Miss und Line Invalid (I) 31 SnoopMiss (Exclusive Read-Miss) S,4 S,4 E,4 M,4 I,4 read miss 4-b E,4 Load Line 4,ReadData -b Cache 4 hat die Daten exklusiv geladen SnoopHit(S) read miss 1-a S,1 S,1 E,1 M,1 I,1 (Shared Read-Miss) read snooped shared Load Line 1,ReadData -a Cache 0,1,4 haben die Daten shared geladen S,1
32 Read-Miss und Line Invalid (I) 32 Line im Snooping-Cache ist Modified: Zuerst Copy Back Cache 0 Cache 1 Cache 2 Cache 3 Cache 4 S,3 S,3 E,3 M,3 I,3 read snooped copy back shared wait read miss 3-c retry Load Line3,ReadData-c S,3 S,3 Danach hat Cache 4 die Daten geladen, die Cache 3 vorher zurückkopiert hat
33 Read-Miss und Line Valid (ESM); sie wird ersetzt 33 exclusive read miss with replacement (Line nicht in anderen Caches) read miss 4-b S,4 S,4 E,4 M,4 I Load Line 4,ReadData -b E,4 Line wurde überschrieben S,4 S,4 E,4 M,4 I,4 copy back LoadLine 4,ReadData -b E,4 nach dem Zurückkopieren wurde Line überschrieben
34 Read-Miss und Line Valid (ESM); sie wird ersetzt 34 shared read miss with replacement: Line in anderen Caches read miss 1-d S,1 S,1 S,1 S,1 I,1 Load Line1,Read Wort -d shared read snooped S,1 alte shared-line wurde überschrieben S,2 S,2 E,2 M,2 I,2 Load Line2,ReadData-d shared read snooped alte shared-line wurde überschrieben S,2 S,2
35 Read-Miss und Line Valid (ESM); sie wird ersetzt 35 shared read miss with replacement: Line in anderen Caches read miss 1-d S,1 S,1 E,1 M,1 I,1 read snooped shared copy back Load Line1,ReadData -d S,1 nach dem Zurückkopieren wurde Line überschrieben read miss 2-a S,2 S,2 E,2 M,2 I,2 read snooped shared copy back Load Line2,Read Wort -a S,2 S,2 nach dem Zurückkopieren wurde Line überschrieben
36 Write-Hit 36 WriteHit(S), SnoopHit(S) Cache 0 Cache 1 Cache 2 Cache 3 Cache 4 write hit 1-c S,1 S,1 E,1 M,1 I,1 ModifyLine 1-c invalidate M,1 I,1 write snooped Line 1, aber anderes Tag als Cache 0,1, gestrichelt Bei einem Write-Hit auf die Line 1 im Cache 0 wechselt der Zustand von SM und er sendet ein Invalidate-Signal. Die Line 1 im Cache 1 hat das gleiche Tag (snoop-hit), erkennt den Schreibzugriff und invalidiert die Line (rot markierte Lines: Tag und Index gleich)
37 Write-Miss 37 Snoop-Hit Cache 0 Cache 1 Cache 2 Cache 3 Cache 4 write miss S,1 S,1 E,1 M,1 I,1 write snooped invalidate Load Line,ModifyLine Cache 0 erkennt den Schreibzugriff auf Line 1 und invalidiert diese I,1 Cache 1,2,3 erkennt keinen Schreibzugriff auf Line 1 weil TAG ungleich High- Address M,1 aus dem Speicher geladen und modifiziert Bei einem Write-Miss in der Line 1 im Cache 4 wechselt der Zustand von IM und er sendet ein Invalidate-Signal.
38 Write-Miss with Replacement 38 Snoop-Hit Cache 0 Cache 1 Cache 2 Cache 3 Cache 4 write miss S,2 S,2 E,2 M,2 I,2 LoadLine, ModifyLine invalidate write snooped aus dem Speicher geladen und modifiziert M,2 I,2 Cache 0 ersetzt die alte shared-line 2 durch die neue Line 2* aus dem Speicher und ändert diese in 2** Cache 2 invalidiert die Line 2*
39 Write-Miss 39 Snoop-Hit Bei einem Write-Miss in der Line 3 im Cache 4 soll die Line neu geladen und modifiziert werden. Weil Cache 3 ein Wartesignal sendet, wird der Ladevorgang unterbrochen Cache 0 Cache 1 Cache 2 Cache 3 Cache 4 write miss S,3 S,3 E,3 M,3 I,3 Cache 3 erkennt den Schreibzugriff in der Line 3 Da Line Modified, muss sie zuerst zurück kopiert werden. Deshalb sendet Cache 3 an den Cache 4 zuerst ein Wartesignal, nach dem copy back ein retry Signal write snooped copy back I,3 invalidate wait Laden unterbrechen warten retry LoadLine, ModifyLine 3-c M,3 Cache 4 hat die Line geladen, die Cache 3 vorher zurückkopiert hat
40 Write-Miss with Replacement 40 Snoop-Hit Cache 0 Cache 1 Cache 2 Cache 3 Cache 4 write miss S,3 S,3 E,3 M,3 I,3 Laden unterbrechen warten LoadLine, ModifyLine invalidate wait retry write snooped copy back M,3 I,3 Cache 0 hat die Line geladen und modifiziert, die Cache 3 vorher zurückkopiert hat (alte shared-line wurde überschrieben)
41 Write-Miss with Replacement 41 Snoop-Hit im Vergleich zu vorigen Folie: write miss auf E statt S write miss S,1 S,1 E,2 M,3 I invalidate Laden unterbrechen warten LoadLine, ModifyLine wait retry copy back M,3 I,3 Cache 2 hat die Line geladen und modifiziert, die Cache 3 vorher zurückkopiert hat (alte exclusive-line wurde überschrieben)
Cache II. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011
Cache II Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Cache II 1/14 2012-02-29 Schreibstrategien Es sind verschiedene Fälle
MehrGrob-Struktur des Prozessor-Speichersystems
2.3.2 Speicherstruktur (1) Grob-Struktur des Prozessor-Speichersystems Chipsatz (Erklärung s. später, Folie 104) 22.4.-27.5.2013, Folie 52 2.3.2 Speicherstruktur (2) Zugriff Prozessor zumeist auf schnelle
Mehré Er ist software-transparent, d.h. der Benutzer braucht nichts von seiner Existenz zu wissen. Adreßbus Cache- Control Datenbus
4.2 Caches é Cache kommt aus dem Französischen: cacher (verstecken). é Er kann durch ein Anwendungsprogramm nicht explizit adressiert werden. é Er ist software-transparent, d.h. der Benutzer braucht nichts
MehrBesprechung des 8. Übungsblattes Einführung in Caches Cache-Organisation Cache-Ersetzungsstrategien Aufgaben (an der Tafel) Testklausur
Themen heute Besprechung des 8. Übungsblattes Einführung in Caches Cache-Organisation Cache-Ersetzungsstrategien Aufgaben (an der Tafel) Testklausur Besprechung des 8. Übungsblattes Aufgabe 2.6. In diesem
MehrRechnerarchitektur. Vorlesungsbegleitende Unterlagen. WS 2003/2004 Klaus Waldschmidt
Rechnerarchitektur Vorlesungsbegleitende Unterlagen WS 2003/2004 Klaus Waldschmidt Teil 15 Speicherhierarchie und s Seite 1 Speicherhierarchie: Der Speicherraum wird in einzelne Schichten unterteilt, die
MehrRAM. Konsistenzprobleme entstehen => CPU - durch Verzögerung in Warteschlange, Umfangreiche Pufferung in den PCI Brücken. lesen. EOP-Signal.
11. s 11.1 Pufferspeicher Lesepuffer um vorauszulesen: - erste Leseoperation hat lange Latenzzeit, - Folgedaten vorsorglich schon gelesen, - "prefetch buffer". Schreibpuffer um ein Blockieren des schreibenden
MehrRechnerarchitektur SS 2012
Rechnerarchitektur SS 2012 Cachekohärenz Michael Engel TU Dortmund, Fakultät für Informatik Teilweise basierend auf Material von Gernot A. Fink und R. Yahyapour 11. Juni 2013 Speicher in MP-Systemen Zentrales
MehrQuiz. Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset.
Quiz Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset 32 Bit Adresse 31 3 29... 2 1 SS 212 Grundlagen der Rechnerarchitektur
MehrRechnerarchitektur SS 2012
Rechnerarchitektur SS 2012 Cachekohärenz TU Dortmund, Fakultät für Informatik XII Literatur: Hennessy/Patterson: Computer Architecture, 3. Auflage, 2003, Abschnitte 6.2, S. 549ff und 6.5, S. 576ff. Huang:
MehrInvalidierungs- und Update-basierte Cache-Kohärenz-Protokolle
Invalidierungs- und Update-basierte Cache-Kohärenz-Protokolle Architecture of Parallel Computer Systems WS15/16 J.Simon 1 SC mit Write-Back Caches Beweisidee: Behandlung von Reads wie beim Write-Through
MehrEinfaches MSI-Writeback-Inval-Protokoll
Einfaches MSI-Writeback-Inval-Protokoll Write-Back Cache typischerweise Write-allocate bei einem Write-Miss Zustände Invalid (I): Shared (S): Kopien in einem oder mehreren Caches Dirty or Modified (M):
MehrTutorium Rechnerorganisation
Woche 11 Tutorien 3 und 4 zur Vorlesung Rechnerorganisation 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
MehrWeitere Verbesserungen
Weitere Verbesserungen Welcher Cache liefert aktuellen Block falls mehrere Caches Block im Zustand S halten? Lösung: Einführung eines weiteren Zustands O (Owner) Zustand O besagt: Eigentümer des Blocks
MehrGrundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Speicher Übersicht Speicherhierarchie Cache Grundlagen Verbessern der Cache Performance Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 2 Speicherhierarchie
MehrWie groß ist die Page Table?
Wie groß ist die Page Table? Im vorigen (typischen) Beispiel verwenden wir 20 Bits zum indizieren der Page Table. Typischerweise spendiert man 32 Bits pro Tabellen Zeile (im Vorigen Beispiel brauchten
Mehr1 Organisationsaspekte RISC- und CISC-Prozessoren Ausnutzen von Cache-Effekten
McFarling [1989] konnte Cache Misses um 75% in 8KB direkt abbildenden Caches durch Softwaremaßnahmen senken. Instruktionen Umordnen im Speicher, um Conflict-Misses zu reduzieren Profiling : spezielle Konfliktvermeidungsmaßnahmen
MehrVirtueller Speicher. SS 2012 Grundlagen der Rechnerarchitektur Speicher 44
Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 44 Die Idee Virtuelle Adressen Prozess 1 Speicherblock 0 Speicherblock 1 Speicherblock 2 Speicherblock 3 Speicherblock 4 Speicherblock
MehrSchreiben von Pages. Schreiben einer Page in den Swap Space ist sehr teuer (kostet millionen von CPU Zyklen).
Schreiben von Pages Schreiben einer Page in den Swap Space ist sehr teuer (kostet millionen von CPU Zyklen). Write Through Strategie (siehe Abschnitt über Caching) ist hier somit nicht sinnvoll. Eine sinnvolle
MehrSpeicher. Speicher. Speicherhierarchie. Speicher. Interessante Zahlen:
Übersicht 1 Einleitung Hauptspeicher 2 Hauptspeicher 3 Caches, Cache-Kohärenz Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009
MehrCache Blöcke und Offsets
Cache Blöcke und Offsets Ein Cache Eintrag speichert in der Regel gleich mehrere im Speicher aufeinander folgende Bytes. Grund: räumliche Lokalität wird wie folgt besser ausgenutzt: Bei Cache Miss gleich
Mehrccnuma Unterstützung Zustandsübergangsdiagramm MESIF
ccnuma Unterstützung Einführung eines neuen Zustandes Forward (F) Cache mit Block im F-Zustand antwortet auf BusRd, Caches mit Block im S-Zustand müssen nichts machen Nach einem BusRd mit Teilhaber wandert
MehrHORUS. Seminar "Ausgewählte Themen in Hardwareentwurf und Optik" im HWS Martin Scherer
HORUS Seminar "Ausgewählte Themen in Hardwareentwurf und Optik" im HWS 2006 Martin Scherer Horus Inhalt 1 Einführung 2 Cachekohärenz 3 ExtendiScale Architektur 4 Übertragungsbeispiele 5 Performance Erweiterungen
MehrGregor Michalicek, Marcus Schüler. Multiprozessoren
Gregor Michalicek, Marcus Schüler Gregor Michalicek Marcus Schüler Gregor Michalicek, Marcus Schüler Vorteile gegenüber Singleprozessoren ¾ sind zuverlässiger. Einige Multiprozessorsysteme können trotz
MehrTutorium Rechnerorganisation
Woche 10 Tutorien 3 und 4 zur Vorlesung Rechnerorganisation 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
MehrVirtueller Speicher und Memory Management
Virtueller Speicher und Memory Management Speicher-Paradigmen Programmierer ein großer Adressraum linear adressierbar Betriebssystem eine Menge laufender Tasks / Prozesse read-only Instruktionen read-write
MehrKonzepte und Methoden der Systemsoftware. Aufgabe 1: Polling vs Interrupts. SoSe bis P
SoSe 2014 Konzepte und Methoden der Systemsoftware Universität Paderborn Fachgebiet Rechnernetze Präsenzübung 3(Musterlösung) 2014-05-05 bis 2014-05-09 Aufgabe 1: Polling vs Interrupts (a) Erläutern Sie
MehrMain Memory. Hauptspeicher. Memories. Speichermodule. SIMM: single inline memory module 72 Pins. DIMM: dual inline memory module 168 Pins
5 Main Memory Hauptspeicher Memories 2 Speichermodule SIMM: single inline memory module 72 Pins DIMM: dual inline memory module 68 Pins 3 Speichermodule 4 Speichermodule 5 Speichermodule 6 2 Hauptspeicher
MehrTechnische Informatik 1 - HS 2017
Institut für Technische Informatik und Kommunikationsnetze Prof. L. Thiele Technische Informatik 1 - HS 2017 Übung 11 Datum: 21. 22. 12. 2017 Virtueller Speicher 1 Performanz Gehen Sie von einem virtuellen
Mehr6 Exkurs: Assoziativspeicher (2) 6 Exkurs: Assoziativspeicher. 7.1 Speicherhierarchie. 7 Caches
6 Exkurs: Assoziativspeicher alternative Möglichkeit der Speicherung von Informationen in einem Computer: Assoziativspeicher (inhaltsadressierbarer Speicher bzw. CAM = Content Addressable Memory) : bei
MehrMemory. Jian-Jia Chen (Slides are based on Peter Marwedel) Informatik 12 TU Dortmund Germany 2014 年 11 月 12 日. technische universität dortmund
12 Memory Jian-Jia Chen (Slides are based on Peter Marwedel) Informatik 12 TU Dortmund Germany Springer, 2010 2014 年 11 月 12 日 These slides use Microsoft clip arts. Microsoft copyright restrictions apply.
MehrGLEICHES BEISPIEL, write-back STRATEGIE
GLEICHES BEISPIEL, write-back STRATEGIE e 1 Vorlesung 4 2.4.3. CACHE-KOHÄRENZ UND SPEICHER-KONSISTENZ Einfache aber wichtige Eigenschaft des (sequentiellen) Computerspeichers: Beim Lesen einer Speicherzelle
MehrRechnerorganisation. 1. Juni 201 KC Posch
.6.2 Rechnerorganisation. Juni 2 KC Posch .6.2 2 .6.2 Front Side Bus Accelerated Graphics Port 28 MHz Front Side Bus North Bridge RAM idge South Bri IDE USB PCI Bus 3 .6.2 Front Side Bus Front Side Bus
MehrEinführung in die technische Informatik
Einführung in die technische Informatik Christopher Kruegel chris@auto.tuwien.ac.at http://www.auto.tuwien.ac.at/~chris Betriebssysteme Aufgaben Management von Ressourcen Präsentation einer einheitlichen
MehrIT-Infrastruktur, WS 2014/15, Hans-Georg Eßer
ITIS-D'' IT-Infrastruktur WS 2014/15 Hans-Georg Eßer Dipl.-Math., Dipl.-Inform. Foliensatz D'': Rechnerstrukturen, Teil 3 v1.0, 2014/11/27 Folie D''-1 Dieser Foliensatz Vorlesungsübersicht Seminar Wiss.
MehrBesprechung des 9. Übungsblattes Virtuelle Speicherverwaltung Aufgaben
Themen heute Besprechung des 9. Übungsblattes Virtuelle Speicherverwaltung Aufgaben Besprechung des 9. Übungsblattes Aufgabe 2 Ist in einer Aufgabe wie hier keine explizite Wortbreite angegeben, nicht
MehrDas Konzept der Speicherhierarchie
Das Konzept der Speicherhierarchie Small is fast, daher sind kleine Speicher schneller (und kosten mehr pro Byte). Vergrößerung von Speichern und schnellerer Zugriff sind aber Schlüsselfunktionen in der
MehrGrundlagen der Informatik III Wintersemester 2010/ Vorlesung Dr.-Ing. Wolfgang Heenes
Grundlagen der Informatik III Wintersemester 2010/2011 15. Vorlesung Dr.-Ing. Wolfgang Heenes int main() { printf("hello, world!"); return 0; } msg: main:.data.asciiz "Hello, world!".text.globl main la
MehrRaytracing auf Desktop PCs Optimizing Cache Usage (Intel Corp.)
Raytracing auf Desktop PCs Optimizing Cache Usage (Intel Corp.) von Martin Stöcker Motivation Geschwindigkeit der Prozessoren verdoppelt sich alle 18 Monate (Moore s Law) Geschwindigkeit des Speichers
MehrEin- Ausgabeeinheiten
Kapitel 5 - Ein- Ausgabeeinheiten Seite 121 Kapitel 5 Ein- Ausgabeeinheiten Am gemeinsamen Bus einer CPU hängt neben dem Hauptspeicher die Peripherie des Rechners: d. h. sein Massenspeicher und die Ein-
MehrRO-Tutorien 15 und 16
Tutorien zur Vorlesung Rechnerorganisation Tutorienwoche 10 am 29.06.2011 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft
MehrDatenpfad einer einfachen MIPS CPU
Datenpfad einer einfachen MIPS CPU Zugriff auf den Datenspeicher Grundlagen der Rechnerarchitektur Prozessor 19 Betrachten nun Load und Store Word Erinnerung, Instruktionen lw und sw sind vom I Typ Format:
MehrIn heutigen Computern findet man schnellen/teuren als auch langsamen/billigen Speicher
Speicherhierarchie In heutigen Computern findet man schnellen/teuren als auch langsamen/billigen Speicher Register Speicherzellen, direkt mit der Recheneinheit verbunden Cache-Speicher Puffer-Speicher
MehrLinux Paging, Caching und Swapping
Linux Paging, Caching und Swapping Inhalte Paging Das Virtuelle Speichermodell Die Page Table im Detail Page Allocation und Page Deallocation Memory Mapping & Demand Paging Caching Die verschiedenen Caches
MehrDigital Design Entwicklung der DRAMs. Richard Roth / FB Informatik und Mathematik Speicher 1
Entwicklung der DRAMs Richard Roth / FB Informatik und Mathematik Speicher 1 Entwicklung der DRAMs in Zukunft Richard Roth / FB Informatik und Mathematik Speicher 2 DRAM Speicherzelle (Trench Technology)
MehrDatenpfad einer einfachen MIPS CPU
Datenpfad einer einfachen MIPS CPU Die Branch Instruktion beq Grundlagen der Rechnerarchitektur Prozessor 13 Betrachten nun Branch Instruktion beq Erinnerung, Branch Instruktionen beq ist vom I Typ Format:
MehrSpeicherorganisation
Speicherorganisation John von Neumann 1946 Ideal wäre ein unendlich großer, undendlich schneller und undendlich billiger Speicher, so dass jedes Wort unmittelbar, d.h. ohne Zeitverlust, zur Verfügung steht
MehrGrundlagen der Rechnerarchitektur. Ein und Ausgabe
Grundlagen der Rechnerarchitektur Ein und Ausgabe Übersicht Grundbegriffe Hard Disks und Flash RAM Zugriff auf IO Geräte RAID Systeme SS 2012 Grundlagen der Rechnerarchitektur Ein und Ausgabe 2 Grundbegriffe
MehrMikroprozessortechnik Grundlagen 1
Grundlagen - Grundbegriffe, Aufbau, Rechnerarchitekturen, Bus, Speicher - Maschinencode, Zahlendarstellung, Datentypen - ATMELmega28 Progammierung in C - Vergleich C und C++ - Anatomie eines µc-programmes
MehrRechnernetze und Organisation
Memory 1 Übersicht Motivation Speicherarten Register SRAM, DRAM Flash Speicherhierarchie Cache Virtueller Speicher 2 Motivation Speicher ist zentraler Bestandteil eines Computers neben Prozessor CPU Computer
MehrTechnische Informatik 2 Speichersysteme, Teil 3
Technische Informatik 2 Speichersysteme, Teil 3 Prof. Dr. Miroslaw Malek Sommersemester 2004 www.informatik.hu-berlin.de/rok/ca Thema heute Virtueller Speicher (Fortsetzung) Translation Lookaside Buffer
MehrDatenpfad einer einfachen MIPS CPU
Datenpfad einer einfachen MIPS CPU Zugriff auf den Datenspeicher Grundlagen der Rechnerarchitektur Prozessor 19 Betrachten nun Load und Store Word Erinnerung, Instruktionen lw und sw sind vom I Typ Format:
Mehr11. Die PC-Schnittstelle
PC-Schnittstelle Funktion -1. Die PC-Schnittstelle.1. Funktion Die folgenden Angaben gelten ohne Einschränkung für den PC, PC-XT, PC-AT, AT-386, AT-486 und kompatible Rechner. Sie sind nur für jene interessant,
MehrModul InfB-RS: Rechnerstrukturen
64-040 Rechnerstrukturen 64-040 Modul InfB-RS: Rechnerstrukturen http://tams.informatik.uni-hamburg.de/ lectures/2014ws/vorlesung/rs Kapitel 18 Andreas Mäder Universität Hamburg Fakultät für Mathematik,
MehrZwei Möglichkeiten die TLB zu aktualisieren
Zwei Möglichkeiten die TLB zu aktualisieren Die MMU kümmert sich um alles (Hardware-Lösung) sucht die p-entry wenn diese nicht da ist, behandelt direkt das TLB-miss zum Schluss wird die neue p-entry (virt
MehrSpeicher Typen. TI-Übung 5. Speicher SRAM. Speicher DRAM. SRAM vs. DRAM (EEP)ROM, NV-RAM, Flash,... Speicher, Caches
Speicher Typen TI-Übung 5 Speicher, Caches Andreas I. Schmied (andreas.schmied@uni-ulm.de) AspectIX-Team Abteilung Verteilte Systeme Universität Ulm WS2005 SRAM vs. DRAM (EEP)ROM, NV-RAM, Flash,... Charakteristik
MehrModul InfB-RS: Rechnerstrukturen
A. Mäder 1 MIN-Fakultät Fachbereich Informatik 64-040 Modul InfB-RS: Rechnerstrukturen https://tams.informatik.uni-hamburg.de/ lectures/2016ws/vorlesung/rs Kapitel 18 Andreas Mäder Universität Hamburg
MehrTU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D.
TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Alfons Kemper, Ph.D. Blatt Nr. 07 Übung zur Vorlesung Einsatz und Realisierung von Datenbanksystemen im SoSe16 Moritz Kaufmann
MehrJohann Wolfgang Goethe-Universität
Flynn sche Klassifikation SISD (single instruction, single data stream): IS IS CU PU DS MM Mono (Mikro-)prozessoren CU: Control Unit SM: Shared Memory PU: Processor Unit IS: Instruction Stream MM: Memory
Mehr2. Ansatzpunkt: Reduktion der Penalty Early Restart und critical word first
2. Ansatzpunkt: Reduktion der Penalty 2.1. Early Restart und critical word first Beide Techniken basieren darauf, die Wartezeit der CPU auf das Mindestmaß zu beschränken. Early restart lädt den Block wie
Mehrtechnische universität dortmund fakultät für informatik informatik 12 Speicherhierarchie Peter Marwedel Informatik /05/18
Speicherhierarchie Peter Marwedel Informatik 3/5/8 Kontext Prozessor Leitwerk Rechenwerk Speicherarchitektur Externe Kommunikation Interne Kommunikation, 3 - - Die Realität: Kosten/Mbyte und Zugriffszeiten
MehrName : Klasse : Punkte : Note :
Name : Klasse : Punkte : Note : Zeit: 08.00 bis 09.30 Es dürfen alle Unterlagen verwendet werden. Die Aufgaben sind möglichst direkt auf den Blättern zu lösen (Antworten bitte in ganzen Sätzen!), bei Bedarf
Mehr183.579, WS2012 Übungsgruppen: Mo., 07.01. Do., 10.01.2013
VU Technische Grundlagen der Informatik Übung 7: Speicher, Peripherie 183.579, WS2012 Übungsgruppen: Mo., 07.01. Do., 10.01.2013 Aufgabe 1: Ihre Kreativität ist gefragt! Um die Qualität der Lehrveranstaltung
MehrProseminar Rechnerarchitekturen. Parallelcomputer: Multiprozessorsysteme
wwwnet-texde Proseminar Rechnerarchitekturen Parallelcomputer: Multiprozessorsysteme Stefan Schumacher, , PGP Key http://wwwnet-texde/uni Id: mps-folientex,v
MehrName: Vorname: Matr.-Nr.: 4. a) RISC-Architekturen müssen zur Decodierung von Maschinenbefehlen stets ein mikroprogrammierbares Steuerwerk verwenden.
Name: Vorname: Matr.-Nr.: 4 Aufgabe 1 (8 Punkte) Entscheiden Sie, welche der folgenden Aussagen zum Thema CISC/RISC-Prinzipien korrekt sind. a) RISC-Architekturen müssen zur Decodierung von Maschinenbefehlen
MehrMar&n Hoffmann HARDWAREUNTERSTÜTZUNG FÜR NICHT BLOCKIERENDE SYNCHRONISATION
Mar&n Hoffmann HARDWAREUNTERSTÜTZUNG FÜR NICHT BLOCKIERENDE SYNCHRONISATION 1 Es ist ziemlich eindeu&g, dass Moore s Law nicht mehr die Taktrate, sondern die Zahl der Kerne misst. Es scheint so, als ob
MehrMehrprozessorarchitekturen
Mehrprozessorarchitekturen (SMP, UMA/NUMA, Cluster) Arian Bär 12.07.2004 12.07.2004 Arian Bär 1 Gliederung 1. Einleitung 2. Symmetrische Multiprozessoren (SMP) Allgemeines Architektur 3. Speicherarchitekturen
MehrArithmetische und Logische Einheit (ALU)
Arithmetische und Logische Einheit (ALU) Enthält Blöcke für logische und arithmetische Operationen. n Bit Worte werden mit n hintereinander geschalteten 1 Bit ALUs bearbeitet. Steuerleitungen bestimmen
MehrGrundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Prozessor Übersicht Datenpfad Control Pipelining Data Hazards Control Hazards Multiple Issue Grundlagen der Rechnerarchitektur Prozessor 2 Datenpfad einer einfachen MIPS
MehrRechnerstrukturen Winter SPEICHER UND CACHE. (c) Peter Sturm, University of Trier 1
9. SPEICHER UND CACHE (c) Peter Sturm, University of Trier 1 Inhalt Grundlagen Speichertypen RAM / ROM Dynamisches RAM Cache- Speicher Voll AssoziaNv n- Wege AssoziaNv Direct Mapping Beispiel: 8 Bit- Register
MehrÜbungsklausur Mikroprozessortechnik und Eingebettete Systeme I
Übungsklausur Mikroprozessortechnik und Eingebettete Systeme I Aufgabe Punkte Aufgabe 1: / 35 Aufgabe 2: / 25 Aufgabe 3: / 15 Aufgabe 4: / 15 Aufgabe 5: / 35 Aufgabe 6: / 15 Aufgabe 7: / 20 Aufgabe 8:
MehrRechnergrundlagen SS Vorlesung
Rechnergrundlagen SS 2007 13. Vorlesung Inhalt Cache Lesen Schreiben Überschreiben Memory Management Unit (MMU) Translation Lookaside Buffer (TLB) Klausurvorbereitung Inhalte der Klausur Rechnergrundlagen
MehrWozu dient ein Logikanalysator?
Wozu dient ein Logikanalysator? Beispiel: Microcontroller Microcontroller kommen vor in Haushaltsgeräten (Waschmaschine,...) in Fahrzeugen (ABS, Motorsteuerung, Radio,...) in Computern (Tastatur, Festplatte,
MehrSysteme 1: Architektur
slide 1 Vorlesung Systeme 1: Architektur Prof. Dr. Ulrich Ultes-Nitsche Forschungsgruppe Departement für Informatik Universität Freiburg slide 2 Prüfung 18. Februar 2004 8h00-11h40 13h00-18h20 20 Minuten
MehrTechnische Informatik 1
Technische Informatik 1 6 Speicherhierarchie Lothar Thiele Computer Engineering and Networks Laboratory Arbeitsprinzipien 6 2 Übersicht Speicherhierarchie Ziele: Dem Benutzer möglichst viel Speicherkapazität
MehrAbstrakte Interpretation (AbsInt)
Abstrakte Interpretation (AbsInt) Viktoria Pleintinger 24. Juni 2009 1 Inhaltsverzeichnis 1 Einleitung 3 2 Worst-Case Laufzeitanalyse aufgrund von Messung 4 3 WCET Analyse durch Static Programm Analysis
MehrKlausur zur Mikroprozessortechnik
Prof. Dr. K. Wüst WS 2001 FH Gießen Friedberg, FB MNI Studiengang Informatik Klausur zur Mikroprozessortechnik Nachname: Vorname: Matrikelnummer: 7.3.2001 Punkteverteilung Aufgabe Punkte erreicht 1 3 2
MehrÜbungen zu Grundlagen der Rechnerarchitektur und -organisation: Bonusaufgaben Übung 6 und Präsenzaufgaben Übung 7
Übungen zu Grundlagen der Rechnerarchitektur und -organisation: Bonusaufgaben Übung 6 und Präsenzaufgaben Übung 7 Dominik Schoenwetter Erlangen, 16. Juni 2014 Lehrstuhl für Informatik 3 (Rechnerarchitektur)
MehrBetriebssysteme Teil 10 B: Fragen rund um Seitenfehler
Betriebssysteme Teil 10 B: Fragen rund um Seitenfehler 1 Überlegungen Wenn wir einige Seiten eines Programms in den Speicher laden, brauchen wir eine Strategie, welche Seiten als nächstes geladen werden
MehrDALI 4Net. Datenblatt. Central Control Device. Zentrale Steuereinheit. für 4 DALI Linien. Art
DALI 4Net Datenblatt Central Control Device Zentrale Steuereinheit für 4 DALI Linien Art. 22176666 DALI 4Net 2 DALI 4Net Central Control Device Überblick Unabhängige Lichtsteuerung für bis zu 256 DALI
MehrAlgorithm Engineering. Alexander Kröller, Abteilung Algorithmik, IBR
#7 Terminchaos Nächste Vorlesungen: 27. 5. Vertretung durch Prof. Fekete 3. 6. Exkursionswoche 10. 6. Vertretung durch N.N. 17. 6. back to normal... Experiment Durchlaufe zwei gleichgrosse Arrays: Sortierte
MehrRechner Architektur. Martin Gülck
Rechner Architektur Martin Gülck Grundlage Jeder Rechner wird aus einzelnen Komponenten zusammengesetzt Sie werden auf dem Mainboard zusammengefügt (dt.: Hauptplatine) Mainboard wird auch als Motherboard
MehrAufgabe 4 : Virtueller Speicher
Sommer 216 Technische Informatik I Lösungsvorschlag Seite 16 Aufgabe 4 : Virtueller Speicher (maximal 27 Punkte) 4.1: Generelle Funktionsweise (maximal 5 Punkte) (a) (1 Punkt) Nennen Sie zwei Gründe, weshalb
MehrNeues vom STRIP Forth-Prozessor
Neues vom STRIP Forth-Prozessor Tagung der Forth-Gesellschaft März 2014 Bad Vöslau/Österreich Willi Stricker -Prozessor Inhalt 1. STRIP-Befehlssatz Bisher: minimaler Befehlssatz neu: erweiterter Befehlssatz
MehrEnterprise Computing Einführung in das Betriebssystem z/os. Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13
UNIVERSITÄT LEIPZIG Enterprise Computing Einführung in das Betriebssystem z/os Prof. Dr. Martin Bogdan Prof. Dr.-Ing. Wilhelm G. Spruth WS2012/13 Verarbeitungsgrundlagen Teil 4 Cache el0100 copyright W.
MehrBetriebssystemtechnik
Betriebssystemtechnik Übung 2 - Den Speicher beseiten Daniel Danner Christian Dietrich Gabor Drescher May 19, 2015 Betriebssystemtechnik 1 13 Ziel dieser Übung Betriebssystemtechnik 2 13 Ziel dieser Übung
MehrCache. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011
Cache Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Cache 1/53 2012-02-29 Einleitung Hauptspeicherzugriffe sind langsam die
MehrBeispielhafte Prüfungsaufgaben zur Vorlesung Technische Informatik I Gestellt im Frühjahr 2012
Beispielhafte Prüfungsaufgaben zur Vorlesung Technische Informatik I Gestellt im Frühjahr 2012 Die beigefügte Lösung ist ein Vorschlag. Für Korrektheit, Vollständigkeit und Verständlichkeit wird keine
MehrEin- und Ausgabegeräte
Blockorientiert Jeder Block kann unabhängig gelesen und geschrieben werden. Festplatten, CD-ROMs, USB-Sticks, etc. Zeichenorientiert Keine Struktur, nicht adressierbar, Daten werden als Folge von Zeichen
MehrName: ES2 Klausur Thema: ARM Name: Punkte: Note:
Name: Punkte: Note: Hinweise für das Lösen der Aufgaben: Zeit: 75 min. Name nicht vergessen! Geben Sie alle Blätter ab. Die Reihenfolge der Aufgaben ist unabhängig vom Schwierigkeitsgrad. Erlaubte Hilfsmittel
MehrGrundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Ein und Ausgabe Übersicht Grundbegriffe Hard Disks und Flash RAM Zugriff auf IO Geräte RAID Systeme SS 2012 Grundlagen der Rechnerarchitektur Ein und Ausgabe 2 Grundbegriffe
MehrÜbungen zu Grundlagen der Rechnerarchitektur und -organisation: Bonusaufgaben Übung 8 und Präsenzaufgaben Übung 9
Übungen zu Grundlagen der Rechnerarchitektur und -organisation: Bonusaufgaben Übung 8 und Präsenzaufgaben Übung 9 Dominik Schoenwetter Erlangen, 30. Juni 2014 Lehrstuhl für Informatik 3 (Rechnerarchitektur)
MehrSMP Übung 2 1. Aufgabe
SMP Übung 2 1. Aufgabe a) Kilo: K = 2 10 = 1.024 Mega: M = 2 20 = 1.048.576 Giga: G = 2 30 = 1.073.741.824 Tera: T = 2 40 = 1.099.511.627.776 b) Der Prozessor hat 30 Adressleitungen A[31..2], mit denen
MehrCPU-Caches. Christian Duße. Seminar Effiziente Programmierung in C
CPU-Caches Christian Duße Seminar Effiziente Programmierung in C Arbeitsbereich Wissenschaftliches Rechnen Fachbereich Informatik Fakultät für Mathematik, Informatik und Naturwissenschaften Universität
MehrUse of the LPM (Load Program Memory)
Use of the LPM (Load Program Memory) Use of the LPM (Load Program Memory) Instruction with the AVR Assembler Load Constants from Program Memory Use of Lookup Tables The LPM instruction is included in the
MehrTeil VIII Von Neumann Rechner 1
Teil VIII Von Neumann Rechner 1 Grundlegende Architektur Zentraleinheit: Central Processing Unit (CPU) Ausführen von Befehlen und Ablaufsteuerung Speicher: Memory Ablage von Daten und Programmen Read Only
MehrModerne Betriebssysteme. Kapitel 8. Kapitel 8. Folie: 1. Multiprozessorsysteme. Autor: Andrew S. Tanenbaum
Moderne Betriebssysteme Kapitel 8 Multiprozessorsysteme Kapitel 8 Folie: 1 Multiprozessorsysteme Autor: Andrew S. Tanenbaum Pearson Studium 2009 2 3 4 5 6 7 Betriebssystemarten für Multiprozessoren Jede
MehrFachbereich Medienproduktion
Fachbereich Medienproduktion Herzlich willkommen zur Vorlesung im Studienfach: Grundlagen der Informatik Themenübersicht Rechnertechnik und IT Sicherheit Grundlagen der Rechnertechnik Prozessorarchitekturen
MehrHigh-level software transformations
12 Peter Marwedel TU Dortmund Informatik 12 Germany Graphics: Alexandra Nolte, Gesine Marwedel, 2003 High-level software transformations Impact of memory allocation on efficiency Array p[j][k] Row major
Mehr