Speicherorganisation
|
|
|
- Til Rosenberg
- vor 9 Jahren
- Abrufe
Transkript
1 Speicherorganisation John von Neumann 1946 Ideal wäre ein unendlich großer, undendlich schneller und undendlich billiger Speicher, so dass jedes Wort unmittelbar, d.h. ohne Zeitverlust, zur Verfügung steht ohne dass es etwas kostet. Bisher: Vorlesung 4: Adressierungsmodi Register sind schneller als Speicher Systematisierung
2 v.-neumann-architektur Eingabewerk Speicher Ausgabewerk Rechenwerk Steuerwerk Steuerbefehle Daten (Daten, Befehle, Adressen,...)
3 Speicherorganisation (2) Klassifikation Flüchtig RAM Nicht flüchtig ROM Zugriffsart: Wahlfrei (Random Access) Festplatte Zugriffsart: sequentiell Magnetband
4 Speicherorganisation (3) Klassifikationsparameter: Zugriffszeit (access time): Zeit zwischen der Anforderung eines Lesezugriffs und dem Eintreffen des Inhaltes der adressierten Speicherzelle am Speicherausgang Kosten (pro Bit)
5 Speicherorganisation (4) Kosten / Bit Register Halbleiterspeicher (RAM) Festplatte Magnetband flüchtig nicht flüchtig wahlfrei sequentiell Zugriffszeit
6 Speicherorganisation (5) Kosten / Bit sowie Zugriffszeit sind gegenläufig. dies führt in der Regel zu einem Optimierungsproblem Randbedingung: Man muss den Speicher gerade noch bezahlen können Anderer Weg: Verwendung von Registern wie ein Assemblerprogrammierer.
7 Beispiel Berechnung der Quadratwurzel aus a durch Anwendung der Näherung: x m 1 = 1 2 x m a x m x konvergiert gegen die Quadratwurzel Abbruchkriterium ist: x m x m+1 < epsilon
8 Beispiel (2) a steht im Speicher, Quadratwurzel aus a soll im Speicher stehen. Wo stehen x m und x m+1? ===> Register, außerdem holt sich der Assemblerprogrammierer am Anfang den Wert a sowie den Abbruchwert epsilon in ein Register.
9 Beispiel (3) PASCAL: var a,epsilon,x,x_neu, qwurzel:real;... readln(a); x_neu := 1; repeat x := x_neu; x_neu :=.5 * (x + a/x); until abs(x-x_neu) < epsilon; qwurzel := x_neu;
10 Beispiel (4) PASCAL-Programmierer hat keinen direkten Zugriff auf Register (zumindest im Normalfall ). Deshalb stehen x, x_neu, a und epsilon im Speicher PASCAL-Programm ist langsamer als Assemblerprogramm
11 Beispiel (5) Verknüpfungsoperationen mit Speicheroperanden (langsam) Rechenwerk Register (Halbleiter)Speicher Verknüpfungsoperationen mit Registeroperanden (schnell) Transportoperationen
12 Beispiel (6) wenn der Befehlssatz des Rechners es dem Programmierer erlaubt zwischen Verknüpfungsoperationen mit Registeroperanden und Verknüpfungsoperationen mit Speicheroperanden zu wechseln, macht die im Beispiel gezeigte Vorgehensweise Sinn, wenn die Anzahl der Verknüpfungsoperationen sehr viel größer ist als die Anzahl der Transportoperationen.
13 Lokalitätsprinzip wiederholtes Nutzen der selben Daten und Befehle komplexe Berechnungen über gewisse Datenstrukturen erfordern mehrfachen Zugriff auf diese Datenstrukturen Programmschleifen werden mehrfach durchlaufen. Dadurch werden Befehle innerhalb der Schleifenkörper mehrfach zugegriffen. Faustregel: Ein Programm verbringt 9 % seiner Abarbeitungszeit in 1 % des gesamten Codes.
14 Lokalitätsprinzip (2) Bereits bekannt: komplexe Datenstrukturen (Felder, Arrays) werden im Speicher dicht hintereinander abgespeichert. sequentiell aufeinanderfolgende Befehle stehen ebenfalls dicht sequentiell im Speicher daraus folgt: mit einiger Wahrscheinlichkeit lässt sich aus dem abgelaufenen Programmteil auf den (in Zukunft) folgenden sowie die folgenden Daten schließen.
15 Lokalitätsprinzip (3) Dieses heuristische Prinzip heißt Prinzip der Lokalität oder Lokalitätsprinzip. 2 Arten von Lokalität: Zeitliche Lokalität: der Zugriff auf eine Speicherzelle lässt es erwarten, dass in naher Zukunft wieder auf sie zugegriffen wird. Räumliche Lokalität Wenn auf eine Speicherzelle zugegriffen wird, erfolgt mit hoher Wahrscheinlichkeit ein Zugriff auf eine benachbarte Speicherzelle.
16 Speicherhierarchien Die Optimierungskriterien Minimale Zugriffszeit Minimale Kosten pro gespeichertes Bit führen zum Prinzip des hierarchischen Speichers Je teurer der Speicher, umso weniger ist davon im Rechner vorhanden
17 Speicherhierarchien Preis pro Bit nimmt zu Zugriffszeit nimmt zu Kapazität nimmt zu, die unterste Ebene realisiert den gesamten Adressraum Prozessor Register obere Ebene untere Ebene Halbleiterspeicher
18 Speicherhierarchien (2) Konkrete Realisierung Block CPU Block A Block B obere Ebene Block 1 Block 2 Block 3 Block 4 Block 5 untere Ebene Block 6
19 Speicherhierarchien (2) Konkrete Realisierung Block CPU Block A Block B obere Ebene Cache Block 1 Block 2 Block 3 Block 4 Block 5 untere Ebene Block 6
20 Speicherhierarchien (3) Offlinespeicher (streamer, DVD,...) Massenspeicher (mass memory) Seitenwechselverfahren Hauptspeicher (main memory) Pufferspeicher (cache memory) Adresstransformation Register CPU Daten
21 Speicherhierarchien (4) CPU-Register CPU-Chip Level-1 (L1) Cache Level-2 (L2) Cache Hauptspeicher MS 2..3 Byte bis ca. 128 kb bis ca. 2 MB Zugriff Zugriff Zugriff in: in <.5 ns in.5 ns Backside 1ns Frontside 2,5 ns GB Zugriff in 6 ns (burst)
22 Cachespeicher Weitere Verwendung des Cache-Prinzips: Hardware: Pufferspeicher der MMU (Translation Lookaside Buffer) Lokale Pufferspeicher bei periphären Geräten (Netzwerkschnittstelle, Festplatte) Branch prediction cache, branch target cache in der Pipelinesteuerlogik der CPU) Software Pufferspeicher des Betriebssystems (disk cache, buffer cache, file cache) Pufferspeicher für Datenbanken
23 Cacheleistung In Abhängigkeit davon, ob ein Speicherinhalt sich im Cache oder im Hauptspeicher befindet, gelten die entsprechenden Zugriffszeiten Als Trefferrate (hit rate) bezeichnet man den Anteil aller Speicherzugriffe, bei denen die gewünschte Information aus dem Cache verfügbar ist. Wenn man die Information im Cache nicht gefunden hat, spricht man von einer Niete (miss).
24 Cacheleistung (2) T =ht 1 h T eff C M mit T :effektive Zugriffszeit mittel eff T : Zugriffszeit descache Speichers C T : Zugriffsteit des Hauptspeichers M h:trefferrate
25 Beispiel Virtueller Speicher Zusammenhang Hardware Betriebssystem anhand von Pagingverfahren
26 Probleme Probleme entstehen durch folgende Umstände: Steuerwerk kennt nur die Adressen der unteren Ebene, während tatsächlich mit Speicherzellen der oberen (und nur mit diesen!) gearbeitet wird. Die obere und die untere Ebene haben nur mittelbar miteinander zu tun. Das führt bei Schreibzugriffen zu Inkonsistenzen zwischen der oberen und der unteren Ebene, die (zumindest langfristig) aufgehoben werden müssen.
27 Probleme (2) Lesen: Steuerwerk gibt zu lesende Adresse bekannt, gemeint ist Adresse in der unteren Ebene liegt Block mit Adresse in der oberen Ebene? n Holen des Blockes mit der genannten Adresse aus der unteren in die obere Ebene Ermittlung der Adresse im Block
28 Probleme (3) Beim Verzweigen in den nein -Zweig muss der entsprechende Block aus der unteren Ebene in die obere Ebene transportiert werden. Die obere Ebene ist voll, deshalb muss ein Block aus der oberen Ebene entfernt werden. Aber welcher? Blockersetzungsstrategien FIFO, Not recently used, Second chance...
29 Blockersetzungsstrategien Optimaler Algorithmus Leicht zu beschreiben, aber unmöglich zu implementieren ;-( Wenn ein Block ersetzt werden muss, sind eine Menge von Blöcken in der oberen Ebene. Jeder dieser Blöcke erhält eine Markierung, die darüber Auskunft gibt, wann in der Zukunft auf diesen Block zugegriffen wird. Der optimale Algorithmus sagt einfach, dass der Block mit der höchsten Markierungsnummer entfernt werden sollte (ein unangenehmes Ereignis wird soweit wie möglich weggeschoben). Diese Information ist aber unbekannt.
30 Blockersetzungsstrategien (2) Not Recently Used (NRU) Einteilung der Blöcke in Klassen: Klasse : nicht referenziert, nicht modifiziert Klasse 1: nicht referenziert, modifiziert Klasse 2: referenziert, nicht modifiziert Klasse 3: referenziert, modifiziert R-Bit wird periodisch (z.b. bei einem Uhrinterrupt) zurückgesetzt, M-Bit bleibt unverändert (wegen Konsistenzproblemen zwischen oberer und unterer Ebene (siehe später)). Dadurch entsteht auch Klasse 1. Bei Notwendigkeit einer Blockersetzung wird zufällig ein Block aus der kleinsten nichtleeren Klasse entfernt.
31 Blockersetzungsstrategien (3) First-In-First-Out (FIFO) Der am längsten in der oberen Ebene befindliche Block wird entfernt Analogie: Supermarkt
32 Blockersetzungsstrategien (4) Second Chance Modifikation FIFO Zeitpunkt Eintritt ob. Ebene A B C D E F G H Blockfehler zum Zeitpunkt 2. Wenn R-Bit nicht gesetzt ist, wird der Block A entfernt. Wenn R-Bit gestzt ist, wird A an das Ende der Liste gesetzt, das R-Bit wird zurückgesetzt. Die Suche nach einem Auslagerungskandidaten wird mit B fortgesetzt.
33 Blockersetzungsstrategien (4) Second Chance Modifikation FIFO Zeitpunkt Eintritt ob. Ebene A B C D E F G H Blockfehler zum Zeitpunkt 2. Wenn R-Bit nicht gesetzt ist, wird der Block A entfernt. Wenn R-Bit gestzt ist, wird A an das Ende der Liste gesetzt, das R-Bit wird zurückgesetzt. Die Suche nach einem Auslagerungskandidaten wird mit B fortgesetzt Zeitpunkt Eintritt ob. Ebene B C D E F G H A
34 Blockersetzungsstrategien (5) Uhr-Algorithmus Modifikation Second Chance: aus linearen Listen werden Ringlisten
35 Blockersetzungsstrategien (6) Least-Recently-Used
36 Blockersetzungsstrategien (6) Least-Recently-Used Frage: Wie geht es weiter bei Blockzugriffsreihenfolge:
37 Probleme (4) Schreiben: Steuerwerk gibt zu schreibende Adresse bekannt, gemeint ist Adresse in der unteren Ebene liegt Block mit Adresse in der oberen Ebene? Kopieren des Blockes mit der genannten Adresse aus der unteren in die obere Ebene Ermittlung der Adresse im Block Schreibzugriff auf die Adresse in der oberen Ebene
38 Probleme (5) Beim Schreiben treten folgende Probleme auf: es wird immer versucht, in einem Block der oberen Ebene zu schreiben. wenn dieser nicht da ist, so kann man entweder diesen Block holen (fetch on write), oder man verzichtet darauf und schreibt direkt in die untere Ebene (work around). Da Statistiken sagen, dass Schreibzugriffe wesentlich seltener auftreten als Lesezugriffe, ist der Zeitverlust verschmerzbar.
39 Probleme (6) Wenn aber der Block in der oberen Ebene präsent war, wird immer dorthin geschrieben. weitere Probleme: es gibt nun eine Inkonsistenz zwischen oberer und unterer Ebene: Write through Write back
40 Speicherhierarchien Weitere Behandlung: Kapitel 8 (Parallele Rechnerarchitekturen)
Speicherorganisation
Speicherorganisation John von Neumann 1946 Ideal wäre ein unendlich großer, unendlich schneller und unendlich billiger Speicher, so dass jedes Wort unmittelbar, d.h. ohne Zeitverlust, zur Verfügung steht
Grundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Speicher Übersicht Speicherhierarchie Cache Grundlagen Verbessern der Cache Performance Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 2 Speicherhierarchie
Cache Grundlagen. Schreibender Cache Zugriff. SS 2012 Grundlagen der Rechnerarchitektur Speicher 22
Cache Grundlagen Schreibender Cache Zugriff SS 212 Grundlagen der Rechnerarchitektur Speicher 22 Eine einfache Strategie Schreibt man nur in den Cache, werden Cache und darunter liegender Speicher inkonsistent.
Grundlagen der Rechnerarchitektur. Speicher
Grundlagen der Rechnerarchitektur Speicher Übersicht Speicherhierarchie Cache Grundlagen Verbessern der Cache Performance Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 2 Speicherhierarchie
Quiz. Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset.
Quiz Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset 32 Bit Adresse 31 3 29... 2 1 SS 212 Grundlagen der Rechnerarchitektur
Grob-Struktur des Prozessor-Speichersystems
2.3.2 Speicherstruktur (1) Grob-Struktur des Prozessor-Speichersystems Chipsatz (Erklärung s. später, Folie 104) 22.4.-27.5.2013, Folie 52 2.3.2 Speicherstruktur (2) Zugriff Prozessor zumeist auf schnelle
Cache Blöcke und Offsets
Cache Blöcke und Offsets Ein Cache Eintrag speichert in der Regel gleich mehrere im Speicher aufeinander folgende Bytes. Grund: räumliche Lokalität wird wie folgt besser ausgenutzt: Bei Cache Miss gleich
Speicherarchitektur (23) Suchen einer Seite:
Speicherarchitektur (23) Suchen einer Seite: Vorlesung Rechnersysteme SS `09 E. Nett 7 Speicherarchitektur (24) Adressschema inklusive Seitenfehler: Vorlesung Rechnersysteme SS `09 E. Nett 8 Speicherarchitektur
Lösung von Übungsblatt 2
Lösung von Übungsblatt 2 Aufgabe 1 (Digitale Datenspeicher) 1. Nennen Sie einen digitalen Datenspeicher, der mechanisch arbeitet. Lochstreifen, Lochkarte, CD/DVD beim Pressen. 2. Nennen Sie zwei rotierende
RO-Tutorien 15 und 16
Tutorien zur Vorlesung Rechnerorganisation Tutorienwoche 10 am 29.06.2011 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft
Grundlagen der Informationsverarbeitung:
Grundlagen der Informationsverarbeitung: Speicherhierarchie Prof. Dr.-Ing. habil. Ulrike Lucke Durchgeführt von Prof. Dr. rer. nat. habil. Mario Schölzel Maximaler Raum für Titelbild (wenn kleiner dann
Virtueller Speicher und Memory Management
Virtueller Speicher und Memory Management Speicher-Paradigmen Programmierer ein großer Adressraum linear adressierbar Betriebssystem eine Menge laufender Tasks / Prozesse read-only Instruktionen read-write
Lösung von Übungsblatt 2
Lösung von Übungsblatt 2 Aufgabe 1 (Digitale Datenspeicher) 1. Nennen Sie einen digitalen Datenspeicher, der mechanisch arbeitet. Lochstreifen, Lochkarte, CD/DVD beim Pressen. 2. Nennen Sie zwei rotierende
Schreiben von Pages. Schreiben einer Page in den Swap Space ist sehr teuer (kostet millionen von CPU Zyklen).
Schreiben von Pages Schreiben einer Page in den Swap Space ist sehr teuer (kostet millionen von CPU Zyklen). Write Through Strategie (siehe Abschnitt über Caching) ist hier somit nicht sinnvoll. Eine sinnvolle
Speicherhierarchie, Caches, Consistency Models
Speicherhierarchie, Caches, Consistency Models Maximilian Langknecht Lehrstuhl für Rechnerarchitektur Betreuer: Prof. Dr. Ulrich Brüning 1 Inhaltsverzeichnis Speicherhierarchie Warum gibt es Speicherhierarchie?
Systeme I: Betriebssysteme Kapitel 8 Speicherverwaltung
Systeme I: Betriebssysteme Kapitel 8 Speicherverwaltung Version 21.12.2016 1 Inhalt Vorlesung Aufbau einfacher Rechner Überblick: Aufgabe, Historische Entwicklung, unterschiedliche Arten von Betriebssystemen
Rechnergrundlagen SS Vorlesung
Rechnergrundlagen SS 2007 13. Vorlesung Inhalt Cache Lesen Schreiben Überschreiben Memory Management Unit (MMU) Translation Lookaside Buffer (TLB) Klausurvorbereitung Inhalte der Klausur Rechnergrundlagen
Wie groß ist die Page Table?
Wie groß ist die Page Table? Im vorigen (typischen) Beispiel verwenden wir 20 Bits zum indizieren der Page Table. Typischerweise spendiert man 32 Bits pro Tabellen Zeile (im Vorigen Beispiel brauchten
Betriebssysteme (BTS)
.Vorlesung Betriebssysteme (BTS) Christian Baun [email protected] Hochschule Mannheim Fakultät für Informatik Institut für Betriebssysteme..007 Organisatorisches zur Übung Verteilung auf die beiden
(Cache-Schreibstrategien)
Übungsblatt 2 Aufgabe 1 (Digitale Datenspeicher) 1. Nennen Sie einen digitalen Datenspeicher, der mechanisch arbeitet. 2. Nennen Sie zwei rotierende magnetische digitale Datenspeicher. 3. Nennen Sie zwei
Tutorium Rechnerorganisation
Woche 11 Tutorien 3 und 4 zur Vorlesung Rechnerorganisation 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
Besprechung des 8. Übungsblattes Einführung in Caches Cache-Organisation Cache-Ersetzungsstrategien Aufgaben (an der Tafel) Testklausur
Themen heute Besprechung des 8. Übungsblattes Einführung in Caches Cache-Organisation Cache-Ersetzungsstrategien Aufgaben (an der Tafel) Testklausur Besprechung des 8. Übungsblattes Aufgabe 2.6. In diesem
Cache-Kohärenz und -Konsistenz. Betreuer: Prof. Brüning Veton Kajtazi Mat.-Nr.: Universität Heidelberg
Cache-Kohärenz und -Konsistenz Betreuer: Prof. Brüning Veton Kajtazi Mat.-Nr.: 3220501 Universität Heidelberg Inhaltsverzeichnis Wozu Caches? Unterschied Kohärenz und Konsistenz MESI-Protokoll Fazit 2
Speicher. Speicher. Speicherhierarchie. Speicher. Interessante Zahlen:
Übersicht 1 Einleitung Hauptspeicher 2 Hauptspeicher 3 Caches, Cache-Kohärenz Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009
2. Ansatzpunkt: Reduktion der Penalty Early Restart und critical word first
2. Ansatzpunkt: Reduktion der Penalty 2.1. Early Restart und critical word first Beide Techniken basieren darauf, die Wartezeit der CPU auf das Mindestmaß zu beschränken. Early restart lädt den Block wie
Analyse aktueller Cache-Architekturen hinsichtlich Struktur und Effizienz. Markus Krause
Analyse aktueller Cache-Architekturen hinsichtlich Struktur und Effizienz Markus Krause Dresden, Gliederung 1. Einführung 2. Problemstellung 3. Lösungen a) Miss Rate b) Miss Penalty c) Hit Time 4. Zusammenfassung
Mikroprozessortechnik Grundlagen 1
Grundlagen - Grundbegriffe, Aufbau, Rechnerarchitekturen, Bus, Speicher - Maschinencode, Zahlendarstellung, Datentypen - ATMELmega28 Progammierung in C - Vergleich C und C++ - Anatomie eines µc-programmes
CPU Speicher I/O. Abbildung 11.1: Kommunikation über Busse
Kapitel 11 Rechnerarchitektur 11.1 Der von-neumann-rechner Wir haben uns bisher mehr auf die logischen Bausteine konzentriert. Wir geben jetzt ein Rechnermodell an, das der physikalischen Wirklichkeit
Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7)
Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) J. Zhang [email protected] Universität Hamburg AB Technische Aspekte Multimodaler Systeme
6 Exkurs: Assoziativspeicher
6 Exkurs: Assoziativspeicher alternative Möglichkeit der Speicherung von Informationen in einem Computer: Assoziativspeicher (inhaltsadressierbarer Speicher bzw. CAM = Content Addressable Memory) : bei
6 Exkurs: Assoziativspeicher (2) 6 Exkurs: Assoziativspeicher. 7.1 Speicherhierarchie. 7 Caches
6 Exkurs: Assoziativspeicher alternative Möglichkeit der Speicherung von Informationen in einem Computer: Assoziativspeicher (inhaltsadressierbarer Speicher bzw. CAM = Content Addressable Memory) : bei
, 2014W Übungsgruppen: Mo., Mi.,
VU Technische Grundlagen der Informatik Übung 7: Speichermanagement 183.579, 2014W Übungsgruppen: Mo., 12.01. Mi., 14.01.2015 Aufgabe 1: Cache-Adressierung Ein Prozessor mit einer Adresslänge von 20 Bit
1. Welche Speichereinheiten werden belegt, wenn die folgenden Strategien eingesetzt werden?
Sommersemester 009 Konzepte und Methoden der Systemsoftware Universität Paderborn Fachgebiet Rechnernetze Hausübung 05 Abgabe am 0.07.009 (Kästen D) Aufgabe : Speicherzuteilung (6++=8 Punkte) Es sei der
Betriebssysteme Teil 10 B: Fragen rund um Seitenfehler
Betriebssysteme Teil 10 B: Fragen rund um Seitenfehler 1 Überlegungen Wenn wir einige Seiten eines Programms in den Speicher laden, brauchen wir eine Strategie, welche Seiten als nächstes geladen werden
Teil 2: Speicherstrukturen
Inhalt Teil 2: Speicherstrukturen Hauptspeicher Cache Assoziativspeicher Speicherverwaltungseinheit ( Memory Management Unit ) 1 Virtueller Speicher Trennung von virtuellem Adreßraum (mit virtuellen Adressen)
Der von Neumann Computer
Der von Neumann Computer Grundlagen moderner Computer Technologie 1 Der moderne Computer ein weites Spektrum Typ Preis Anwendungsbeispiel embeded Computer 10-20 $ in Autos, Uhren,... Spielcomputer 100-200$
Konzepte und Methoden der Systemsoftware. Aufgabe 1: Polling vs Interrupts. SoSe bis P
SoSe 2014 Konzepte und Methoden der Systemsoftware Universität Paderborn Fachgebiet Rechnernetze Präsenzübung 3(Musterlösung) 2014-05-05 bis 2014-05-09 Aufgabe 1: Polling vs Interrupts (a) Erläutern Sie
Grundlagen der Rechnerarchitektur. Ein und Ausgabe
Grundlagen der Rechnerarchitektur Ein und Ausgabe Übersicht Grundbegriffe Hard Disks und Flash RAM Zugriff auf IO Geräte RAID Systeme SS 2012 Grundlagen der Rechnerarchitektur Ein und Ausgabe 2 Grundbegriffe
Fachbereich Medienproduktion
Fachbereich Medienproduktion Herzlich willkommen zur Vorlesung im Studienfach: Grundlagen der Informatik Themenübersicht Rechnertechnik und IT Sicherheit Grundlagen der Rechnertechnik Prozessorarchitekturen
Systeme I: Betriebssysteme Kapitel 8 Speicherverwaltung
Systeme I: Betriebssysteme Kapitel 8 Speicherverwaltung Version 11.01.2017 1 Inhalt Vorlesung Aufbau einfacher Rechner Überblick: Aufgabe, historische Entwicklung, unterschiedliche Arten von Betriebssystemen
Systeme I: Betriebssysteme Kapitel 8 Speicherverwaltung
Systeme I: Betriebssysteme Kapitel 8 Speicherverwaltung Version 13.01.2015 1 Klausur Termin: 10. März 2016, 13:00 Uhr Raum: Audimax, KG 2 4 ECTS Punkte 3 Klausuranmeldung Anmeldefrist: 31.01.2016 (Ausnahme:
Ein- Ausgabeeinheiten
Kapitel 5 - Ein- Ausgabeeinheiten Seite 121 Kapitel 5 Ein- Ausgabeeinheiten Am gemeinsamen Bus einer CPU hängt neben dem Hauptspeicher die Peripherie des Rechners: d. h. sein Massenspeicher und die Ein-
Übung Praktische Informatik II
Übung Praktische Informatik II FSS 2009 Benjamin Guthier Lehrstuhl für Praktische Informatik IV Universität Mannheim [email protected] 22.05.09 11-1 Heutige große Übung Ankündigung
Teil VIII Von Neumann Rechner 1
Teil VIII Von Neumann Rechner 1 Grundlegende Architektur Zentraleinheit: Central Processing Unit (CPU) Ausführen von Befehlen und Ablaufsteuerung Speicher: Memory Ablage von Daten und Programmen Read Only
Übung zu Einführung in die Informatik # 10
Übung zu Einführung in die Informatik # 10 Tobias Schill [email protected] 15. Januar 2016 Aktualisiert am 15. Januar 2016 um 9:58 Erstklausur: Mi, 24.02.2016 von 10-12Uhr Aufgabe 1* a),
Paging. Einfaches Paging. Paging mit virtuellem Speicher
Paging Einfaches Paging Paging mit virtuellem Speicher Einfaches Paging Wie bisher (im Gegensatz zu virtuellem Speicherkonzept): Prozesse sind entweder ganz im Speicher oder komplett ausgelagert. Im Gegensatz
Fachbericht Thema: Virtuelle Speicherverwaltung
Fachbericht 15.10.99 1 HINTERGRÜNDE/ MOTIVATION 2 2 FUNKTIONEN DER SPEICHERVERWALTUNG 2 3 ARTEN DER SPEICHERVERWALTUNG 2 3.1 STATISCHE SPEICHERVERWALTUNG 2 3.2 DYNAMISCHE SPEICHERVERWALTUNG 3 3.2.1 REALER
ZENTRALEINHEITEN GRUPPE
31. Oktober 2002 ZENTRALEINHEITEN GRUPPE 2 Rita Schleimer IT für Führungskräfte WS 2002/03 1 Rita Schleimer TEIL 1 - Inhalt Zentraleinheit - Überblick Architekturprinzipien Zentralspeicher IT für Führungskräfte
Lösung von Übungsblatt 3
Lösung von Übungsblatt 3 Aufgabe 1 (Rechnerarchitektur) 1. Welche drei Komponenten enthält der Hauptprozessor? Rechenwerk, Steuerwerk und Speicher. 2. Welche drei digitalen Busse enthalten Rechnersysteme
Wunschvorstellung der Entwickler vom Speicher
Wunschvorstellung der Entwickler vom Speicher Unendlich groß Unendlich schnell Nicht flüchtig billig Obwohl sich der verfügbare Speicher laufend erhöht, wird immer mehr Speicher benötigt, als verfügbar
(Prof. Dr. J. Schlichter, WS 2011 / 2012) Übungsleitung: Dr. Wolfgang Wörndl
Übung zur Vorlesung Grundlagen Betriebssysteme und Systemsoftware (Prof. Dr. J. Schlichter, WS 2011 / 2012) Übungsleitung: Dr. Wolfgang Wörndl ([email protected]) http://www11.in.tum.de/veranstaltungen/grundlagenbetriebssystemeundsystemsoftwarews1112
4 Der Von-Neumann-Rechner als Grundkonzept für Rechnerstrukturen
4 Der Von-Neumann-Rechner als Grundkonzept für Rechnerstrukturen Ein Rechner besteht aus den folgenden Bestandteilen: Rechenwerk Rechenoperationen wie z.b. Addition, Multiplikation logische Verknüpfungen
Technische Realisierung (1)
Technische Realisierung () Einfachstes Modell: Prozess (Daten+Code) befindet sich im Hintergrundspeicher Bei teilweise eingelagerten Prozessen: Zusätzlich Teile im Hauptspeicher Logische Adressen überdecken
Cache. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011
Cache Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Cache 1/53 2012-02-29 Einleitung Hauptspeicherzugriffe sind langsam die
Tutorium Rechnerorganisation
Woche 10 Tutorien 3 und 4 zur Vorlesung Rechnerorganisation 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
Vorlesung Rechnerarchitektur. Einführung
Vorlesung Rechnerarchitektur Einführung Themen der Vorlesung Die Vorlesung entwickelt an Hand von zwei Beispielen wichtige Prinzipien der Prozessorarchitektur und der Speicherarchitektur: MU0 Arm Speicher
Virtueller Speicher. SS 2012 Grundlagen der Rechnerarchitektur Speicher 44
Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 44 Die Idee Virtuelle Adressen Prozess 1 Speicherblock 0 Speicherblock 1 Speicherblock 2 Speicherblock 3 Speicherblock 4 Speicherblock
5 Kernaufgaben eines Betriebssystems (BS)
5 Kernaufgaben eines Betriebssystems (BS) Betriebssystem ist eine Menge von Programmen, die die Abarbeitung anderer Programme auf einem Rechner steuern und überwachen, insbesondere verwaltet es die Hardware-Ressourcen
Beschaffung vom Informationssystemen Datenorganisation Kommunikation
Grundlegende Definitionen Technik Hardware Bits, Bytes und Zahlensysteme Von-Neumann Architektur Datenein- und ausgabe Software System- und systemnahe Software Anwendungssysteme Beschaffung vom Informationssystemen
Ein und Ausgabe. von Neumann Konzept enthält folgende Komponenten: Rechenwerk Steuerwerk Speicher Eingabewerk Ausgabewerk (siehe 1.
Ein und Ausgabe von Neumann Konzept enthält folgende Komponenten: Rechenwerk Steuerwerk Speicher Eingabewerk Ausgabewerk (siehe 1. Vorlesung) v. Neumann Architektur Eingabewerk Speicher Ausgabewerk Rechenwerk
Aufbau und Funktionsweise eines Computers
Aufbau und Funktionsweise eines Computers Thomas Röfer Hardware und Software von Neumann Architektur Schichtenmodell der Software Zahlsysteme Repräsentation von Daten im Computer Praktische Informatik
Klausuraufgaben: Hardware (1.) Notieren Sie die Namen der Schnittstellen!
Klausuraufgaben: Hardware - Seite 1 Klausuraufgaben: Hardware (1.) Notieren Sie die Namen der Schnittstellen! (2.) Beschriften Sie die Namen der Komponenten im PC! 9 Klausuraufgaben: Hardware - Seite 2
Linux Paging, Caching und Swapping
Linux Paging, Caching und Swapping Inhalte Paging Das Virtuelle Speichermodell Die Page Table im Detail Page Allocation und Page Deallocation Memory Mapping & Demand Paging Caching Die verschiedenen Caches
Technische Informatik I. Übung 3 Speicherhierarchie. v t d 0 d 1 d 2 d 3 0 1 2 3. Technische Informatik I Übung 3. Technische Informatik I Übung 3
Institut für Kommunikationsnetze und Rechnersysteme Technische Informatik I Paul J. Kühn, Matthias Meyer Übung 3 Speicherhierarchie Inhaltsübersicht Aufgabe 3.1 Daten-Cache Aufgabe 3.2 Virtueller Speicher
Speicherverwaltung (Swapping und Paging)
Speicherverwaltung (Swapping und Paging) Rückblick: Segmentierung Feste Einteilung des Speichers in einzelne Segmente 750k 0 Rückblick: Segmentierung Feste Einteilung des Speichers in einzelne Segmente
Quantitative Prinzipien im Hardwareentwurf. 1. Small is fast
Quantitative Prinzipien im Hardwareentwurf 1. Small is fast Kleine Hardwareeinheiten schalten in der Regel schneller als größere. Kleine Transistoren bilden an ihren Gates kleinere Kapazitäten die Source-Drain
Virtueller Speicher WS 2011/2012. M. Esponda-Argüero
Virtueller Speicher WS / Virtuelle Speicher Bis jetzt sind wir davon ausgegangen, dass Prozesse komplett im Hauptspeicher gelagert werden. Speicherreferenzen sind nur logische Adressen, die dynamisch in
Rechnerstrukturen. 5. Speicher. Inhalt. Vorlesung Rechnerstrukturen Wintersemester 2002/03. (c) Peter Sturm, Universität Trier 1.
Rechnerstrukturen 5. Speicher 5.1 Motivation Speichertypen RAM / ROM Dynamisches RAM Inhalt Cache-Speicher Voll Assoziativ n-wege Assoziativ Direct Mapping 5.2 (c) Peter Sturm, Universität Trier 1 Der
Technische Informatik 2 Speichersysteme, Teil 3
Technische Informatik 2 Speichersysteme, Teil 3 Prof. Dr. Miroslaw Malek Sommersemester 2004 www.informatik.hu-berlin.de/rok/ca Thema heute Virtueller Speicher (Fortsetzung) Translation Lookaside Buffer
Systeme I: Betriebssysteme Kapitel 8 Speicherverwaltung. Maren Bennewitz
Systeme I: Betriebssysteme Kapitel 8 Speicherverwaltung Maren Bennewitz Version 29.1.214 1 Inhalt Vorlesung Aufbau einfacher Rechner Überblick: Aufgabe, Historische Entwicklung, unterschiedliche Arten
Konzepte von Betriebssystemkomponenten Referat am Thema: Adressräume, Page Faults, Demand Paging, Copy on Write Referent: Johannes Werner
Konzepte von Betriebssystemkomponenten Referat am 24.11.2003 Thema: Adressräume, Page Faults, Demand Paging, Copy on Write Referent: Johannes Werner Gliederung Adressräume Page Faults Demand Paging Copy
Betriebssysteme Vorstellung
Am Anfang war die Betriebssysteme Vorstellung CPU Ringvorlesung SE/W WS 08/09 1 2 Monitor CPU Komponenten eines einfachen PCs Bus Holt Instruktion aus Speicher und führt ihn aus Befehlssatz Einfache Operationen
1. Übersicht zu den Prozessorfamilien 2 2. Grundlagen der Rechnerorganisation 3
1. Übersicht zu den Prozessorfamilien 2 2. Grundlagen der Rechnerorganisation 3 2.1. Aufbau eines Rechners in Ebenen 3 2.2. Die Ebene der elektronischen Bauelemente 5 2.3. Die Gatterebene 5 2.3.1 Einfache
Freispeicherverwaltung Martin Wahl,
Freispeicherverwaltung Martin Wahl, 17.11.03 Allgemeines zur Speicherverwaltung Der physikalische Speicher wird in zwei Teile unterteilt: -Teil für den Kernel -Dynamischer Speicher Die Verwaltung des dynamischen
