Einleitung Performance Netzwerk Leistungsaufnahme Skalierbarkeit Sicherheit Zuverlässigkeit Kompatibilität. Ziele und Maße. Dr.-Ing.
|
|
- Harry Kurzmann
- vor 6 Jahren
- Abrufe
Transkript
1 Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006
2 Übersicht 1 Einleitung 2 Performance 3 Netzwerk 4 Leistungsaufnahme 5 Skalierbarkeit 6 Sicherheit 7 Zuverlässigkeit 8 Kompatibilität
3 Übersicht 1 Einleitung 2 Performance 3 Netzwerk 4 Leistungsaufnahme 5 Skalierbarkeit 6 Sicherheit 7 Zuverlässigkeit 8 Kompatibilität
4 Leistungsgrößen Leistungsgrößen wichtig für Kaufentscheidungen welches ist die beste Maschine? welches ist die beste Maschine für mein Geld? Designentscheidungen welches Design führt zur besten Maschine? welches Design führt kostengünstig/unter Einhaltung von bestimmten Kosten zur besten Maschine? Beides benötigt Basis für Vergleiche Metrik für Bewertungen
5 Leistungsgrößen Beispiel (Flugzeuge): Typ Passagiere Reichweite Geschwindigkeit (mi) (mph) Boeing Boeing Concorde Douglas DC Viele weitere Größen denkbar (Kosten, Verbrauch, Lebensdauer,...)
6 Übersicht 1 Einleitung 2 Performance 3 Netzwerk 4 Leistungsaufnahme 5 Skalierbarkeit 6 Sicherheit 7 Zuverlässigkeit 8 Kompatibilität
7 Leistungsgrößen Leistungsgrößen für Computer (Beispiele): Raten: MIPS, MFLOPS CPU-Performance oder CPU-Durchsatz Latenz (Antwortzeit) Beschleunigung / Speed up Summarische Bewertung: Benchmarks
8 MIPS / MFLOPS Definition MIPS / MFLOPS: MIPS: Million Instructions per Second MFLOPS: Million Floating Point Operations per Second Mehr MIPS / MFLOPS = kürzere Ausführungszeit?
9 Ausführungszeiten Gesamtzeit zählt alles (Platten- und Speicherzugriffe, I/O,...) interessante Zahl aber häufig unbrauchbar für Vergleiche CPU-Zeit zählt nur die Zeit, die die CPU für die Anwendung gerechnet hat kann in System-Zeit und User-Zeit unterteilt werden
10 Ausführungszeiten User-CPU-Zeit Zeit, die die CPU gebraucht hat, mein Programm abzuarbeiten mein Programm sollte repräsentativ für Workload sein CPU-Performance = 1 / CPU-Zeit
11 Ausführungszeiten Die Ausführung eines Programms braucht eine bestimmte Anzahl von auszuführenden Instruktionen (IC) eine bestimmte, mittlere Anzahl von Takten pro Instruktion (CPI) eine bestimmte Anzahl von Sekunden pro Takt (T) CPU-Zeit = IC * CPI * T Häufig: falsche Annahme, dass eine dieser Zahlen allein etwas über die Performance eines Systems aussagt.
12 Ausführungszeiten Um die Performance eines Systems zu erhöhen, kann man verringern die Anzahl der auszuführenden Instruktionen besserer Algorithmus besserer Compiler mächtigere Befehle (z.b. 16bit -> 32bit) die Anzahl von Takten pro Instruktion parallele Ausführung von Teilen einer Instruktion parallele Ausführung mehrerer Instruktionen die Anzahl von Sekunden pro Takt Verbesserung der Technologie
13 Ausführungszeiten Anzahl der Instruktionen = Anzahl der Taktzyklen? i.a. nein: Multiplikation/Division benötigen mehr Zeit als Addition/Subtraktion. Fließkomma-Operationen benötigen mehr Zeit als Integer-Operationen. Operationen mit Speicherzugriffen benötigen mehr Zeit als Operationen mit Register-Zugriffen.... => CPI ist ein Durchschnittswert Eine Erhöhung der Taktrate kann bedeuten, dass einige Befehle mehr Takte zur Ausführung benötigen, da z.b. das Rechenwerk Ergebnisse nicht mehr rechtzeitig liefern kann.
14 CPU-Durchsatz CPU-Durchsatz Wie viele Jobs kann die Maschine zugleich bearbeiten? Wie lange braucht ein Job im Mittel? Wieviel Arbeit ist pro Tag erledigt?
15 Latenzzeiten Antwortzeit / Latenzzeit Beispiel: Wie lange muss ich auf die Antwort einer Datenbankanfrage warten? Wie lange dauert es, bis mein Job drankommt? Wie lange rechnet mein Job?
16 Speed-Up Verbesserungen ergeben: T u T e von Verbesserung unbeeinflusste Ausführungszeit von Verbesserung beeinflusste Ausführungszeit T 1 Ausführungszeit nach Verbesserung I Verbesserung T 1 = T u + T e /I Prinzip: den Normalfall beschleunigen
17 Speed-Up Definition Speed-Up: T 0 Ausführungszeit vor Verbesserung T 1 Ausführungszeit nach Verbesserung Speed-Up = T 0 /T 1
18 Speed-Up - Amdahl s Law Amdahl s Law: T e von Verbesserung beeinflusste Ausführungszeit T 0 Ausführungszeit vor Verbesserung I Verbesserung Speed-Up = 1/((1 β) + β/i ) Mit β = T e /T 0
19 Speed-Up - Amdahl s Law Beispiel für I = 10:
20 Speed-Up - Amdahl s Law Sonderfälle: für β = 0 gilt: Speed-Up = 1 für β = 1 gilt: Speed-Up = I für sehr große I gilt: Speed-Up = 1/(1 β)
21 Speed-Up - Amdahl s Law Beispiel für extrem großes I :
22 Speed-Up - Amdahl s Law Beispiel: Die Floating-Point-Einheit eines Rechners wird verbessert, sodass alle Floating-Point-Operationen fünf mal schneller ablaufen. Wenn die Ausführunsdauer eines Programms vor der Verbesserung 10 Sekunden betrug, wie gross wird der Speed-Up sein, wenn das Programm die Hälfte der 10 Sekunden mit Floating-Point-Operationen verbracht hat?
23 Parallelrechner-Speed-Up Parallelrechner-Speed-Up: T e von Verbesserung beeinflusste Ausführungszeit = die Zeit, die im parallelisierbarem Code gerechnet wurde T 0 Ausführungszeit vor Verbesserung = die Zeit, die im Gesamt-Code gerechnet wurde I Verbesserung (Anzahl der Prozessoren) Speed-Up = 1/((1 β) + (β/i )) Mit β = T e /T 0
24 Parallelrechner-Speed-Up Beispiel für Parallelrechner-Speed-Up (ASCI Option Red): Anzahl Prozessoren β Speed-Up Obwohl im letzten Beispiel >9000 Prozessoren eingesetzt wurden, obwohl der Parallelisierungsgrad 99% beträgt, ist das Programm nur 99mal schneller.
25 Parallelrechner-Speed-Up Amdal s Law ist nur eine Idealisierung für Parallelrechner. Zusatzaufwand fällt bei der Parallelisierung an für die Verteilung der Aufgaben das Einsammeln der Ergebnisse ggf für die Koordinierung der Zugriffe
26 Übersicht 1 Einleitung 2 Performance 3 Netzwerk 4 Leistungsaufnahme 5 Skalierbarkeit 6 Sicherheit 7 Zuverlässigkeit 8 Kompatibilität
27 Netzwerk Interessante Zahlen für Punkt-zu-Punkt-Verbindungen: Latenzzeit: wie lange dauert es (minimal), bis eine gesendete Nachricht beim Empfänger empfangen wird Bandbreite: wie viele Bytes können pro Zeiteinheit (maximal) über die Verbindung verschickt werden
28 Bisektions-Bandbreite Zahlen für logische Punkt-zu-Punkt-Verbindungen im Parallelrechner-Netzwerk kaum sinnvoll andere Punkt-zu-Punkt-Verbindungen kreuzen (laufen über gleiche Knoten) andere Punkt-zu-Punkt-Verbindungen nutzen gleiche physikalische Verbindungen => Bisektions-Bandbreite
29 Bisektions-Bandbreite
30 Übersicht 1 Einleitung 2 Performance 3 Netzwerk 4 Leistungsaufnahme 5 Skalierbarkeit 6 Sicherheit 7 Zuverlässigkeit 8 Kompatibilität
31 Leistungsaufnahme Leistungsaufnahme interessant bei mobilen Rechnern Kühlungsproblemen z.b. viele Komponenten mit hoher Leistungsaufnahme auf kleinem Raum Leistungsaufnahme = Wärmeabgabe!
32 Leistungsaufnahme Leistungsaufnahme reduzierbar durch verbesserte Technologie (z.b. low-voltage, besseres Layout) Komponenten mit geringer Leistungsaufnahme aufgrund verbesserter interner Stukturen zeitweilig abgeschalteten Komponenten (z.b. Platten) zeitweilig ungenutzten Komponenten (z.b. Netzwerk) Komponenten mit steuerbarer Leistungsaufnahme (Taktfrequenz)
33 Leistungsaufnahme Leistungsaufnahme i.a. gemessen in Watt (W ) oder Volt-Ampere (VA) heutige Standard-PCs benötigen Netzteile mit ca. 300W Leistung interessanter ist jedoch die Energie, die für eine bestimmte Aufgabe in Wärme umgesetzt wird Energie i.a. gemessen in Joule (J oder Ws)
34 Leistungsaufnahme Leistungsaufnahme bzw. Kühlung wird mehr und mehr zum kritischen Engpass bei High-Performance-Komponenten. hohe Leistungsaufnahme dicke Stromversorgungsleitungen und viele/dicke Pins hohe Kühlleistung große Luftströme und damit große Gehäuse oder aufwändige Wasserkühlung Wärme ist bei modernen Chips kaum noch ableitbar!
35 Übersicht 1 Einleitung 2 Performance 3 Netzwerk 4 Leistungsaufnahme 5 Skalierbarkeit 6 Sicherheit 7 Zuverlässigkeit 8 Kompatibilität
36 Skalierbarkeit Systeme sollen leicht erweiterbar sein. die Performance die Größe soll steigen. Aufgrund der Erweiterung dürfen die Verfügbarkeit die Wartbarkeit... nicht leiden. Die Probleme vergrößern sich mit der Größe der Systeme!
37 Übersicht 1 Einleitung 2 Performance 3 Netzwerk 4 Leistungsaufnahme 5 Skalierbarkeit 6 Sicherheit 7 Zuverlässigkeit 8 Kompatibilität
38 Sicherheit Möglichkeiten: Mikro-Controller schreibt keine ungecrypteten Daten in den Speicher Input/Output ungecryptet Speicherzugriffe gecryptet Programm intern im Mikro-Controller; nicht auslesbar spezielle Crypto-Chips helfen beim Ver-/Entschlüsseln (i.a. beim Netzwerk-Senden/Empfangen) Chips aktivieren sich erst, wenn sie bestimmten Code empfangen haben (z.b. DVD-Laufwerke)... Sicherheit nicht meßbar ; (i.a. unsicherer) boolescher Wert
39 Übersicht 1 Einleitung 2 Performance 3 Netzwerk 4 Leistungsaufnahme 5 Skalierbarkeit 6 Sicherheit 7 Zuverlässigkeit 8 Kompatibilität
40 Zuverlässigkeit Definition: Zuverlässigkeit ist die Eigenschaft eines Systems, dass Vertrauen in die gelieferte Funktionalität gerechtfertigt ist. Zuverlässigkeit ist wie Performance eine QoS (Quality of Service)- Eigenschaft eines Systems.
41 Definitionen Fault Fehlerursache (z.b. Blitzeinschlag) Error fehlerhafter Zustand (z.b. falsches Bit im Speicher) Failure Ausfall (z.b. Crash des OS)
42 Zuverlässigkeitsgrößen Fault Rate/Fehlerrate Anzahl der Fehlerursachen pro Zeiteinheit Failure Rate/Ausfallrate Anzahl der Ausfälle pro Zeiteinheit Damit verwandt: Mean Time To Failure (MTTF) Mean Time Between Failures (MTBF) Mean Time To Repair (MTTR) (Mean Time Between Repairs (MTBR))
43 Zuverlässigkeitsgrößen Zuverlässigkeit ist normalerweise beschrieben durch verschiedene Zuverlässigkeitsgrößen.
44 Zuverlässigkeitsgrößen Reliability/Überlebenswahrscheinlichkeit Maß für kontinuierlichen, korrekten Service (Zuverlässigkeit in Hinsicht auf Kontinuität des Service) R(t): Wahrscheinlichkeit, dass das System nach der Zeit t noch funktioniert unter der Voraussetzung, dass es zum Zeitpunkt 0 funktioniert hat Unter der Annahme, dass Ausfallrate (λ) zeitunabhängig ist, gilt R(t) = e λt
45 Zuverlässigkeitsgrößen Availability/Verfügbarkeit Maß für korrekten Service der u.u. unterbrochen wird (Zuverlässigkeit in Hinsicht auf Verfügbarkeit eines Service) A(t): Wahrscheinlichkeit, dass das System zum Zeitpunkt t gerade funktioniert A(t) wird i.a. als konstant angenommen
46 Zuverlässigkeitsgrößen Safety/Sicherheit Maß für korrekten Service oder nicht-katastophale Fehler (Zuverlässigkeit in Hinsicht auf das Nicht-Auftreten von katastophalem Fehlverhalten) Wahrscheinlichkeit, dass das System trotz Auftreten eines internen Fehlers keinen katastrophalen Ausfall erleidet (bedingte Wahrscheinlichkeit)
47 Zuverlässigkeitsgrößen Robustness/Robustheit Maß für das noch korrekte Verhalten eines Systems unter dem Einfluss von fehlerhaften Eingaben oder gefährlichen Umgebungseinflüssen Wahrscheinlichkeit, dass das System trotz Auftreten eines (internen) Fehlers keinen Ausfall erleidet und keine fehlerhaften Ausgaben produziert (bedingte Wahrscheinlichkeit)
48 Zuverlässigkeitsgrößen Security/Sicherheit Zuverlässigkeit in Bezug auf das Verhindern von unerlaubtem Zugriff auf Informationen boolescher Wert
49 Zuverlässigkeitsgrößen Maintainability/Wartbarkeit Maß für den Aufwand ein System funktionsfähig zu halten bzw. zu reparieren Wartbarkeit beschreibbar z.b. durch die Anzahl von Arbeitsstunden pro Jahr, die für die Wartung notwendig sind
50 Übersicht 1 Einleitung 2 Performance 3 Netzwerk 4 Leistungsaufnahme 5 Skalierbarkeit 6 Sicherheit 7 Zuverlässigkeit 8 Kompatibilität
51 Kompatibilität Kompatibilität: alte Software soll weiterhin funktionieren aber: neuer Rechner i.a. schneller => eigentlich inkompatibel alte I/O-Geräte sollen anschließbar bleiben
Übersicht. Ziele und Maße. Leistungsgrößen. Übersicht. Dr.-Ing. Volkmar Sieh WS 2008/2009. Leistungsgrößen wichtig für
Ziele und Maße Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Ziele und Maße 1/52 2008-10-13 Ziele und Maße 2/52 2008-10-13
MehrBusse. Dr.-Ing. Volkmar Sieh WS 2005/2006. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg
Einleitung Bus-Konfiguration Bus-Arbitrierung Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Einleitung Bus-Konfiguration Bus-Arbitrierung
MehrSpezifikation von Kommunikationssystemen
1 / 29 Spezifikation von Kommunikationssystemen 10. Einführung in die Zuverlässigkeitstheorie Prof. Jochen Seitz Fachgebiet Kommunikationsnetze Sommersemester 2016 2 / 29 Übersicht 1 Grundlagen der Zuverlässigkeitstheorie
MehrBusse. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009
Busse Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Busse 1/40 2008-10-13 Übersicht 1 Einleitung 2 Bus-Konfiguration
Mehr4 Rechnerarchitektur RAM
4 Rechnerarchitektur 18.145 RAM Gliederung 1. Mikroelektronik 2. Mikrosysteme 3. VLSI- und Systementwurf 4. Rechnerarchitektur Einleitung Bewertung von Architekturen und Rechnersystemen Klassifikation
MehrTechnische Informatik - Eine Einführung
Martin-Luther-Universität Halle-Wittenberg Fachbereich Mathematik und Informatik Lehrstuhl für Technische Informatik Prof. P. Molitor Technische Informatik - Eine Einführung Rechnerarchitektur Aufgabe
MehrN Bit Binärzahlen. Stelle: Binär-Digit:
N Bit Binärzahlen N Bit Binärzahlen, Beispiel 16 Bit: Stelle: 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1 0 Binär-Digit: 0 0 1 0 1 0 0 1 1 1 0 0 1 0 0 0 Least Significant Bit (LSB) und Most Significant Bit (MSB)
MehrEinleitung. Dr.-Ing. Volkmar Sieh WS 2005/2006. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg
Technologische Trends Historischer Rückblick Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Technologische Trends Historischer Rückblick Übersicht
MehrÜbersicht. Einleitung. Übersicht. Architektur. Dr.-Ing. Volkmar Sieh WS 2008/2009
Übersicht Einleitung 1 Einleitung Dr.-Ing. Volkmar Sieh 2 Technologische Trends Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 3 Historischer
MehrGrundlagen der Rechnerarchitektur. Einführung
Grundlagen der Rechnerarchitektur Einführung Unsere erste Amtshandlung: Wir schrauben einen Rechner auf Grundlagen der Rechnerarchitektur Einführung 2 Vorlesungsinhalte Binäre Arithmetik MIPS Assembler
MehrEinleitung. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2006/2007
Einleitung Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2006/2007 Einleitung 1/50 2006/10/09 Übersicht 1 Einleitung 2 Technologische
Mehr2.1 Rechnersichten 2.2 Rechnerorganisation: Aufbau und Funktionsweise
Teil 1 Kapitel 2 Rechner im Überblick 2.1 Rechnersichten 2.2 Rechnerorganisation: Aufbau und Funktionsweise Frank Schmiedle Technische Informatik I 2.1 Rechnersichten Modellierung eines Rechners Zusammenspiel
MehrGrundlagen der Informationsverarbeitung:
Grundlagen der Informationsverarbeitung: Leistungsbewertung Prof. Dr.-Ing. habil. Ulrike Lucke Durchgeführt von Prof. Dr. rer. nat. habil. Mario Schölzel Maximaler Raum für Titelbild (wenn kleiner dann
MehrAssembler - Einleitung
Assembler - Einleitung Dr.-Ing. Volkmar Sieh Department Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2008 Assembler - Einleitung 1/19 2008-04-01 Teil 1: Hochsprache
MehrWas ist Rechnerleistung
Was ist Rechnerleistung Leistung im engeren Sinne: Leistung gemessen in seltsamen Einheiten, bestimmt vorwiegend von der Zentraleinheit: MIPS (Millionen Instruktionen pro Sekunde) FLOPS (Floating Point
MehrJust-In-Time-Compiler (2)
Just-In-Time-Compiler (2) Dr.-Ing. Volkmar Sieh Department Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2011/2012 Just-In-Time-Compiler (2) 1/13 2011-09-12 Just-In-Time-Compiler
MehrLehrveranstaltung: PR Rechnerorganisation Blatt 8. Thomas Aichholzer
Aufgabe 8.1 Ausnahmen (Exceptions) a. Erklären Sie den Begriff Exception. b. Welche Arten von Exceptions kennen Sie? Wie werden sie ausgelöst und welche Auswirkungen auf den ablaufenden Code ergeben sich
MehrBeispiele von Branch Delay Slot Schedules
Beispiele von Branch Delay Slot Schedules Bildquelle: David A. Patterson und John L. Hennessy, Computer Organization and Design, Fourth Edition, 2012 Grundlagen der Rechnerarchitektur Prozessor 97 Weniger
MehrQuiz. Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset.
Quiz Gegeben sei ein 16KB Cache mit 32 Byte Blockgröße. Wie verteilen sich die Bits einer 32 Bit Adresse auf: Tag Index Byte Offset 32 Bit Adresse 31 3 29... 2 1 SS 212 Grundlagen der Rechnerarchitektur
MehrLeistungsfähige ARM CPUs für den industriellen Einsatz
Leistungsfähige ARM CPUs für den industriellen Einsatz Layerscape ARM Cortex-A CPUs von NXP mit Features aus der PowerPC Welt. Performance und Echtzeitfähigkeits-Vergleich von ARM und PowerPC. Kei Thomsen,
MehrSeminar: Multi-Core Architectures and Programming
Seminar: Multi-Core Architectures and Programming Parallelisierung des Viola-Jones Algorithmus auf Tilera Hardware-Software-Co-Design Universität Erlangen-Nürnberg 1 Übersicht Einleitung Erste Versuche
MehrEinführung in die Systemprogrammierung
Einführung in die Systemprogrammierung Speedup: Grundlagen der Performanz Prof. Dr. Christoph Reichenbach Fachbereich 12 / Institut für Informatik 30. April 2015 Eine Aufgabe aus der Praxis Gegeben ein
MehrJust-In-Time-Compiler (2)
Just-In-Time-Compiler (2) Dr.-Ing. Volkmar Sieh Department Informatik 4 Verteilte Systeme und Betriebssysteme Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2015/2016 V. Sieh Just-In-Time-Compiler
MehrInhalt. Prozessoren. Curriculum Manfred Wilfling. 28. November HTBLA Kaindorf. M. Wilfling (HTBLA Kaindorf) CPUs 28. November / 9
Inhalt Curriculum 1.4.2 Manfred Wilfling HTBLA Kaindorf 28. November 2011 M. Wilfling (HTBLA Kaindorf) CPUs 28. November 2011 1 / 9 Begriffe CPU Zentraleinheit (Central Processing Unit) bestehend aus Rechenwerk,
MehrQuantitative Prinzipien im Hardwareentwurf. 1. Small is fast
Quantitative Prinzipien im Hardwareentwurf 1. Small is fast Kleine Hardwareeinheiten schalten in der Regel schneller als größere. Kleine Transistoren bilden an ihren Gates kleinere Kapazitäten die Source-Drain
MehrProgrammierung. Rückblick. VWA - Programmierung Winter Algorithmus. Programmiersprache. Variable. Zuweisung. Bedingung.
Programmierung 1 Rückblick Algorithmus Programmiersprache Variable Zuweisung Bedingung Schleife (c) Peter Sturm, University of Trier 1 3 Aufgabe: Viele, viele bunte Smarties Rechengeschwindigkeit CPU 5
Mehr05/2016. Mean Time between Failures (MTBF)
05/2016 Mean Time between Failures (MTBF) https://support.industry.siemens.com/cs/ww/de/view/16818490 Dieser Beitrag stammt aus dem Siemens Industry Online Support. Es gelten die dort genannten Nutzungsbedingungen
MehrCache Grundlagen. Schreibender Cache Zugriff. SS 2012 Grundlagen der Rechnerarchitektur Speicher 22
Cache Grundlagen Schreibender Cache Zugriff SS 212 Grundlagen der Rechnerarchitektur Speicher 22 Eine einfache Strategie Schreibt man nur in den Cache, werden Cache und darunter liegender Speicher inkonsistent.
MehrBibliotheks-basierte Virtualisierung
Dr.-Ing. Volkmar Sieh Department Informatik 4 Verteilte Systeme und Betriebssysteme Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2015/2016 V. Sieh Bibliotheks-basierte Virtualisierung (WS15/16)
MehrWas ist die Performance Ratio?
Was ist die Performance Ratio? Wie eben gezeigt wäre für k Pipeline Stufen und eine große Zahl an ausgeführten Instruktionen die Performance Ratio gleich k, wenn jede Pipeline Stufe dieselbe Zeit beanspruchen
MehrGrundlagen der Rechnerarchitektur. Ein und Ausgabe
Grundlagen der Rechnerarchitektur Ein und Ausgabe Übersicht Grundbegriffe Hard Disks und Flash RAM Zugriff auf IO Geräte RAID Systeme SS 2012 Grundlagen der Rechnerarchitektur Ein und Ausgabe 2 Grundbegriffe
MehrAllgemeine Speed-Up Formel. Gesetz von Gustafson-Barsis
5 Leistungsanalyse Parallelrechner Allgemeine Speed-Up Formel Amdahlsche Gesetz Gesetz von Gustafson-Barsis Karp-Flatt Maß 1 5.1 Allgemeine Speed-Up Formel Allgemeine Speed-Up Formel Speedup = Sequentielle
MehrAssembler Integer-Arithmetik
Assembler Integer-Arithmetik Dr.-Ing. Volkmar Sieh Department Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2008 Assembler Integer-Arithmetik 1/23 2008-04-01 Arithmetik
MehrSchriftliche Prüfung
OTTO-VON-GUERICKE-UNIVERSITÄT MAGDEBURG FAKULTÄT FÜR INFORMATIK Schriftliche Prüfung im Fach: Rechnersysteme Studiengang: Bachelor (PF CSE / IF; WPF CV / WIF) am: 30. Juli 2008 Bearbeitungszeit: 120 Minuten
MehrGrundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Einführung Unsere erste Amtshandlung: Wir schrauben einen Rechner auf Grundlagen der Rechnerarchitektur Einführung 2 Vorlesungsinhalte Binäre Arithmetik MIPS Assembler
MehrDatenpfaderweiterung Der Single Cycle Datenpfad des MIPS Prozessors soll um die Instruktion min $t0, $t1, $t2 erweitert werden, welche den kleineren
Datenpfaderweiterung Der Single Cycle Datenpfad des MIPS Prozessors soll um die Instruktion min $t0, $t1, $t2 erweitert werden, welche den kleineren der beiden Registerwerte $t1 und $t2 in einem Zielregister
Mehr2. Anforderungen an Automatisierungssysteme
Grundlagen der Automatisierungstechnik (Automatisierungstechnik 1) 2. Anforderungen an Automatisierungssysteme Anforderungen an Automatisierungssysteme Verlässlichkeit (Dependability) Zuverlässigkeit (Reliability)
Mehr"Organisation und Technologie von Rechensystemen 4"
Klausur OTRS-4, 29.09.2004 Seite 1 (12) INSTITUT FÜR INFORMATIK Lehrstuhl für Rechnerarchitektur (Informatik 3) Universität Erlangen-Nürnberg Martensstr. 3, 91058 Erlangen 29.09.2004 Klausur zu "Organisation
MehrEine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation
Eine kurze Einführung in Rechnerarchitektur und Programmierung von Hochleistungsrechnern als zentrales Werkzeug in der Simulation Dr. Jan Eitzinger Regionales Rechenzentrum (RRZE) der Universität Erlangen-Nürnberg
Mehr1. Übung Zuverlässigkeit
Grundlagen der Automatisierungstechnik (Automatisierungstechnik ). Übung Zuverlässigkeit Übersicht Lehrstuhl für Automatisierungstechnik und Energiesysteme Prof. Dr.-Ing. Georg Frey, M.Sc. Universität
MehrRechnerarchitekturen und Mikrosystemtechnik
64-613 RAM 64-613 Rechnerarchitekturen und Mikrosystemtechnik http://tams.informatik.uni-hamburg.de/ lectures/2009ws/vorlesung/ram Andreas Mäder Fakultät für Mathematik, Informatik und Naturwissenschaften
Mehr2 Rechnerarchitekturen
2 Rechnerarchitekturen Rechnerarchitekturen Flynns Klassifikation Flynnsche Klassifikation (Flynn sche Taxonomie) 1966 entwickelt, einfaches Modell, bis heute genutzt Beschränkung der Beschreibung auf
MehrGrundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Speicher Übersicht Speicherhierarchie Cache Grundlagen Verbessern der Cache Performance Virtueller Speicher SS 2012 Grundlagen der Rechnerarchitektur Speicher 2 Speicherhierarchie
MehrDatenpfad einer einfachen MIPS CPU
Datenpfad einer einfachen MIPS CPU Zugriff auf den Datenspeicher Grundlagen der Rechnerarchitektur Prozessor 19 Betrachten nun Load und Store Word Erinnerung, Instruktionen lw und sw sind vom I Typ Format:
MehrHinweise C-Programmierung
Hinweise C-Programmierung Dr.-Ing. Volkmar Sieh Department Informatik 4 Verteilte Systeme und Betriebssysteme Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2016/2017 V. Sieh Hinweise C-Programmierung
MehrGrundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Ein und Ausgabe Übersicht Grundbegriffe Hard Disks und Flash RAM Zugriff auf IO Geräte RAID Systeme SS 2012 Grundlagen der Rechnerarchitektur Ein und Ausgabe 2 Grundbegriffe
MehrHardware PCI-Bus. Dr.-Ing. Matthias Sand. Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg
Hardware PCI-Bus Dr.-Ing. Matthias Sand Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2008/2009 Hardware PCI-Bus 1/23 2008-08-06 Übersicht Inhalt:
MehrHardware PCI-Bus. Dr.-Ing. Matthias Sand. Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg
Hardware PCI-Bus Dr.-Ing. Matthias Sand Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2007/2008 Hardware PCI-Bus 1/23 2007-10-26 Übersicht Inhalt:
MehrMusterlösungen Technische Informatik 2 (T2) Prof. Dr.-Ing. D. P. F. Möller
SS 2004 VAK 18.004 Musterlösungen Technische Informatik 2 (T2) Prof. Dr.-Ing. D. P. F. Möller Aufgabenblatt 2.5 Lösung 2.5.1 Befehlszähler (Program Counter, PC) enthält Adresse des nächsten auszuführenden
MehrDatenpfad einer einfachen MIPS CPU
Datenpfad einer einfachen MIPS CPU Zugriff auf den Datenspeicher Grundlagen der Rechnerarchitektur Prozessor 19 Betrachten nun Load und Store Word Erinnerung, Instruktionen lw und sw sind vom I Typ Format:
MehrDas Motherboard (Hauptplatine) beinhaltet Prozessor (CPU), Speicher (RAM) Anschlüsse für interne Disks, Steckkarten, Anschlüsse nach aussen
Das Motherboard (Hauptplatine) beinhaltet Prozessor (CPU), Speicher (RAM) Anschlüsse für interne Disks, Steckkarten, Anschlüsse nach aussen Damit man grosse Zahlen abkürzen kann, behilft man sich dieser
MehrFEHLERTOLERANZ EINE SEHR GROBE ÜBERSICHT BETRIEBSSYSTEME UND SICHERHEIT, WS 2016/17 HERMANN HÄRTIG
Faculty of Computer Science Institute of Systems Architecture, Operating Systems Group FEHLERTOLERANZ EINE SEHR GROBE ÜBERSICHT BETRIEBSSYSTEME UND SICHERHEIT, WS 2016/17 HERMANN HÄRTIG BEGRIFFE Sicherheit/Security/Safety
MehrLösungsvorschlag zur 4. Übung
Prof. Frederik Armknecht Sascha Müller Daniel Mäurer Grundlagen der Informatik 3 Wintersemester 09/10 Lösungsvorschlag zur 4. Übung 1 Präsenzübungen 1.1 Schnelltest a) Welche Aussagen zu Bewertungskriterien
MehrTECHNISCHE HOCHSCHULE NÜRNBERG GEORG SIMON OHM Die Mikroprogrammebene eines Rechners Das Abarbeiten eines Arbeitszyklus eines einzelnen Befehls besteht selbst wieder aus verschiedenen Schritten, z.b. Befehl
MehrGrundlagen der Rechnerarchitektur. MIPS Assembler
Grundlagen der Rechnerarchitektur MIPS Assembler Übersicht Arithmetik, Register und Speicherzugriff Darstellung von Instruktionen Logische Operationen Weitere Arithmetik Branches und Jumps Prozeduren 32
MehrÜbung 5. Letzte Änderung: 24. Juni 2016
Übung 5 Letzte Änderung: 24 Juni 2016 Parallele Systeme Hardware- Architektur Vektorrechner Rechenfelder Synthese Op mierung Systemon-Chip Netzwerke sta sch dynamisch mehrstufig einstufig Theorie Workloadbalancing
MehrCache Blöcke und Offsets
Cache Blöcke und Offsets Ein Cache Eintrag speichert in der Regel gleich mehrere im Speicher aufeinander folgende Bytes. Grund: räumliche Lokalität wird wie folgt besser ausgenutzt: Bei Cache Miss gleich
MehrSpeicherarchitektur (23) Suchen einer Seite:
Speicherarchitektur (23) Suchen einer Seite: Vorlesung Rechnersysteme SS `09 E. Nett 7 Speicherarchitektur (24) Adressschema inklusive Seitenfehler: Vorlesung Rechnersysteme SS `09 E. Nett 8 Speicherarchitektur
MehrSeminar Parallele Rechnerarchitekturen SS04 \ SIMD Implementierung aktueller Prozessoren 2 (Dominik Tamm) \ Inhalt. Seite 1
\ Inhalt Seite 1 \ Inhalt SIMD Kurze Rekapitulation 3Dnow! (AMD) AltiVec (PowerPC) Quellen Seite 2 \ Wir erinnern uns: Nach Flynn s Taxonomie kann man jeden Computer In eine von vier Kategorien einteilen:
MehrFehlertoleranz. Betriebssysteme. Hermann Härtig TU Dresden
Fehlertoleranz Betriebssysteme Hermann Härtig TU Dresden Wegweiser Prinzipien der Fehlertoleranz RAID als ein Beispiel Betriebssysteme WS 2018, Fehlertoleranz!2 Begriffe Grundprinzip Konstruktion zuverlässigerer
MehrMultiprozessoren. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011
Multiprozessoren Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 Multiprozessoren 1/29 2011-06-16 Multiprozessoren Leistungsfähigkeit
MehrÜbung 1. Letzte Änderung: 5. Mai 2017
Übung 1 Letzte Änderung: 5. Mai 2017 Abhängigkeitsanalyse Synthese Mul prozessor Mul computer Compiler Parallelismustest Vektorrechner Rechenfelder Op mierung Flynns Schema Modelle Theorie Parallele Systeme
MehrDr. Jörg Tautrim Engineering
Zuverlässigkeit und (Z&I) Programm Seite Zuverlässigkeit und (Z&I) Grundlagen 1. SB Zuverlässigkeit und (Z&I) Grundlagen 2. Vertraulichkeitsklausel 3. Inhaltsübersicht 4. Strukturierung der Schulung Z&I-Grundlagen
MehrDie Bedeutung von Performance
Die Bedeutung von Performance Martin Gaitzsch, Mirek Hancl, Davood Kheiri 8.11.2000 $(LQOHLWXQJµUHODWLYHµ3HUIRUPDQFH Performance interessiert sowohl den Systementwickler als auch den Kunden. Auf der Entwicklungsseite
MehrPipelining. Die Pipelining Idee. Grundlagen der Rechnerarchitektur Prozessor 45
Pipelining Die Pipelining Idee Grundlagen der Rechnerarchitektur Prozessor 45 Single Cycle Performance Annahme die einzelnen Abschnitte des MIPS Instruktionszyklus benötigen folgende Ausführungszeiten:
MehrOptimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen
Optimierungen der Lattice Boltzmann Methode auf x86-64 basierten Architekturen J. Treibig, S. Hausmann, U. Ruede 15.09.05 / ASIM 2005 - Erlangen Gliederung 1 Einleitung Motivation Grundlagen 2 Optimierungen
MehrCPU. Dr.-Ing. Volkmar Sieh. Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011
CPU Dr.-Ing. Volkmar Sieh Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg SS 2011 CPU 1/62 2012-02-29 CPU Übersicht: Pipeline-Aufbau Pipeline- Hazards CPU
MehrFoliensatz. Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen
Foliensatz Center for Information Services and High Performance Computing (ZIH) Theorie und Einsatz von Verbindungseinrichtungen in parallelen Rechnersystemen Hochgeschwindigkeitskommunikationen 13. Juli
MehrHardware Logik-Analysatoren
Hardware Logik-Analysatoren Dr.-Ing. Matthias Sand Lehrstuhl für Informatik 3 (Rechnerarchitektur) Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2010/2011 Hardware Logik-Analysatoren 1/24 2010-10-12
MehrGrundlagen der Informatik III
Grundlagen der Informatik III WS 2008 / 2009 [Folien basierend auf VL von Prof. Dr. Claudia Eckert, WS 07/08] Prof. Dr. rer. nat. Frederik Armknecht Sascha Müller Daniel Mäurer Fachbereich Informatik /
Mehr2. Computer (Hardware) K. Bothe, Institut für Informatik, HU Berlin, GdP, WS 2015/16
2. Computer (Hardware) K. Bothe, Institut für Informatik, HU Berlin, GdP, WS 2015/16 Version: 14. Okt. 2015 Computeraufbau: nur ein Überblick Genauer: Modul Digitale Systeme (2. Semester) Jetzt: Grundverständnis
MehrTechnische Informatik I - HS 18
Institut für Technische Informatik und Kommunikationsnetze Prof. L. Thiele Technische Informatik I - HS 18 Übung 7 Datum : 22.-23. November 2018 Pipelining Aufgabe 1: Taktrate / Latenz In dieser Aufgabe
MehrHochschule Düsseldorf University of Applied Sciences HSD RISC &CISC
HSD RISC &CISC CISC - Complex Instruction Set Computer - Annahme: größerer Befehlssatz und komplexere Befehlen höhere Leistungsfähigkeit - Möglichst wenige Zeilen verwendet, um Aufgaben auszuführen - Großer
MehrParallel Computing. Einsatzmöglichkeiten und Grenzen. Prof. Dr. Nikolaus Wulff
Parallel Computing Einsatzmöglichkeiten und Grenzen Prof. Dr. Nikolaus Wulff Parallel Architekturen Flynn'sche Klassifizierung: SISD: single Instruction, single Data Klassisches von-neumann sequentielles
MehrArchitektur/Chip/Komponente
Architektur/Chip/Komponente Dr.-Ing. Volkmar Sieh Department Informatik 4 Verteilte Systeme und Betriebssysteme Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2014/2015 V. Sieh Architektur/Chip/Komponente
MehrHigh-Tech Speicher. NOVOPOS AG Wollerau - - FON
High-Tech Speicher Solid State Drives (SSD) SSD Vorteile Ihr POS System verdient innovativere Technologie! Herkömmliche Festplatten besitzen mechanische Teile, die die Geschwindigkeit begrenzen, grosse
MehrOracle HA-Technologien im Überlick
Oracle HA-Technologien im Überlick Björn Bröhl OPITZ CONSULTING Gummersbach GmbH Seite 1 Übersicht Was bedeutet Hochverfügbarkeit? Oracle HA-Technologien Standby Dataguard Failover-Cluster / Failsafe Seite
MehrArduino Nano. Hello World per LED On-Board LED (Pin D13) Beispiel: Arduino IDE / Beispiele / Basics / Blink 5 / 20
Inhalt Inbetriebnahme Arduino Nano Einführung I2C Bus Inbetriebnahme Real-Time-Clock DS1307 (I2C) Inbetriebnahme 4x 7-Segment Anzeige TM1637 Kombination RTC mit 7-Segment Anzeige => Uhr 2 / 20 Arduino
MehrAufbau und Funktionsweise eines Computers
Aufbau und Funktionsweise eines Computers Thomas Röfer Hardware und Software von Neumann Architektur Schichtenmodell der Software Zahlsysteme Repräsentation von Daten im Computer Praktische Informatik
MehrTechnische Informatik 1 Übung 8 Instruktionsparallelität (Rechenübung) Andreas Tretter 8./9. Dezember Bitte immer eine Reihe freilassen
Technische Informatik 1 Übung 8 Instruktionsparallelität (Rechenübung) Andreas Tretter 8./9. Dezember 2016 Bitte immer eine Reihe freilassen Ziele der Übung Verschiedene Arten von Instruktionsparallelität
MehrAllgemeine Lösung mittels Hazard Detection Unit
Allgemeine Lösung mittels Hazard Detection Unit Bildquelle: David A. Patterson und John L. Hennessy, Computer Organization and Design, Fourth Edition, 2012 Grundlagen der Rechnerarchitektur Prozessor 83
MehrDatenübertragung per Direct Memory Access (DMA)
Datenübertragung per Direct Memory Access (DMA) Durch einen direkten Speicherzugriff können die Daten ohne Umweg über den Prozessor in den Speicher geschrieben werden. So lässt sich die Ausführungsgeschwindigkeit
MehrEntwurfsmuster und Softwarearchitekturen für sicherheitskritische Systeme
1 Entwurfsmuster und Softwarearchitekturen für sicherheitskritische Systeme Für das Seminar Analyse, Entwurf und Implementierung zuverlässiger Software Von: Andreas Seibel Betreut durch: Dr. Holger Giese
MehrComputergestützte Ansteuerung digitaler Eisenbahnanlagen
Computergestützte Ansteuerung digitaler Eisenbahnanlagen Märklin Digital Paul Römer Agenda 2 Märklin & Märklin Digital Wissenswertes Bedienelemente Ansteuerung Steuercomputer Interface und Digitalstrom
MehrGrundlagen der Rechnerarchitektur
Grundlagen der Rechnerarchitektur Prozessor Übersicht Datenpfad Control Pipelining Data Hazards Control Hazards Multiple Issue Grundlagen der Rechnerarchitektur Prozessor 2 Datenpfad einer einfachen MIPS
MehrVorlesung: Rechnerstrukturen, Teil 2 (Modul IP7)
Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) Vorlesung: Rechnerstrukturen, Teil 2 (Modul IP7) J. Zhang zhang@informatik.uni-hamburg.de Universität Hamburg AB Technische Aspekte Multimodaler Systeme
MehrMikroprozessortechnik Grundlagen 1
Grundlagen - Grundbegriffe, Aufbau, Rechnerarchitekturen, Bus, Speicher - Maschinencode, Zahlendarstellung, Datentypen - ATMELmega28 Progammierung in C - Vergleich C und C++ - Anatomie eines µc-programmes
MehrProseminar Technische Informatik WS08/09 bei Georg Wittenburg, M.Sc. Zuverlässigkeit und Fehlertoleranz in der Technik
Proseminar Technische Informatik WS08/09 bei Georg Wittenburg, M.Sc. Zuverlässigkeit und Fehlertoleranz in der Technik Ein Vortrag von Sebastian Oliver Kalwa Berlin, 30.01.2009 1 Was ist Fehlertoleranz?
MehrPC-Komponenten. Die Bestandteile eines Computers
PC-Komponenten Die Bestandteile eines Computers Unterschied Hardware & Software Hardware: Wird zur Darstellung von Programmen benötigt Vorrausetzung für Software Software: Die auf Hardware gespeicherten
MehrAuch hier wieder. Control. RegDst Branch MemRead MemtoReg ALUOp MemWrite ALUSrc RegWrite. Instruction[31 26] (also: das Opcode Field der Instruktion)
Auch hier wieder Aus voriger Wahrheitstabelle lässt sich mechanisch eine kombinatorische Schaltung generieren, die wir im Folgenden mit dem Control Symbol abstrakt darstellen. Instruction[31 26] (also:
MehrTutorium Rechnerorganisation
Woche 7 Tutorien 3 und 4 zur Vorlesung Rechnerorganisation 1 Christian A. Mandery: KIT Universität des Landes Baden-Württemberg und nationales Grossforschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
MehrInstruktionssatz-Architektur
Institut für Informatik 3: Rechnerarchitektur Friedrich-Alexander-Universität Erlangen-Nürnberg WS 2005/2006 Übersicht 1 Einleitung 2 Bestandteile der ISA 3 CISC / RISC Übersicht 1 Einleitung 2 Bestandteile
MehrMemory Models Frederik Zipp
Memory Models Frederik Zipp Seminar: Programmiersprachen für Parallele Programmierung (SS 2010) Fakultät für Informatik - IPD SNELTING LEHRSTUHL PROGRAMMIERPARADIGMEN 1
MehrVorlesung 1 Medizininformatik. Sommersemester 2017
Vorlesung 1 Medizininformatik Begrüssung und Einführung Medizininformatik () Vorlesung (2 SWS) Montags 8:30-10:00 Übung (1 SWS) 10:15-11:00 1. 24.4 1.5 2. 8.5 3. 15.5 4. 22.5 Computer Architecture Begrüssung,
MehrRechnergrundlagen. Vom Rechenwerk zum Universalrechner
Rechnergrundlagen. Vom Rechenwerk zum Universalrechner von Rainer Kelch 1. Auflage Hanser München 2003 Verlag C.H. Beck im Internet: www.beck.de ISBN 978 3 446 22113 0 Zu Leseprobe schnell und portofrei
Mehr